Reti collaborative. Il design per una auto-organizzazione Open Peer-to-Peer 1.1

Page 1



Massimo Menichinelli

Reti collaborative. 1.1 (2007)

http://www.openp2pdesign.org

1


2


indice indice delle figure........................................................................................................................................7 indice delle tabelle....................................................................................................................................11 indice deli grafici.......................................................................................................................................13 abstract.....................................................................................................................................................15

prima parte: auto-organizzazione Open Peer-to-Peer.......................17 1. Emergenza delle comunità Open Peer-to-Peer......................................................................................19 1.1.Reti collaborative e contesto Open Peer-to-Peer.............................................................................19 1.2.Individualizzazione e attivazione....................................................................................................20 1.3.Governance: da provider ad enabler...............................................................................................24 1.4.Tecnologia, reti e informazionalismo..............................................................................................26 1.4.1.La network society..................................................................................................................26 1.4.2.Un nuovo paradigma tecno-economico...................................................................................28 1.4.3.L'economia dell'informazionalismo.........................................................................................30 1.4.4.Sistemi distribuiti....................................................................................................................31 1.4.4.1.Natura dei sistemi distribuiti...........................................................................................31 1.4.4.2.Economia distribuita.......................................................................................................32 1.4.4.3.Generazione energetica distribuita.................................................................................32 1.4.4.4.Creatività distribuita.......................................................................................................33 1.4.4.5.Communities of Practice.................................................................................................33 1.4.4.6.Comunità Creative..........................................................................................................35 1.4.4.7.Pro-Am............................................................................................................................37 1.4.4.8.Lead User e Innovation Communities..............................................................................38 2.Open Source...........................................................................................................................................43 2.1.Source code, Binary code, Hacker..................................................................................................43 2.2.Tre generazioni di hacker...............................................................................................................44 2.3.Free software..................................................................................................................................46 2.4.Linux e Open Source.......................................................................................................................47 2.5.Successo e prospettive future.........................................................................................................51 2.6.Estensione della filosofia Open Source...........................................................................................53 2.6.1.Caratteristiche fondamentali ..................................................................................................53 2.6.2.Open Publishing......................................................................................................................56 2.6.3.Open Content.........................................................................................................................56 2.6.4.Open Design...........................................................................................................................56 2.6.5.Open Source Biotechnology....................................................................................................59 2.6.6.Open Source Religion..............................................................................................................60 2.6.7.Open Drink..............................................................................................................................60 3. Peer-to-Peer..........................................................................................................................................63 3.1.Software Peer-to-Peer.....................................................................................................................63 3.2.Internet e World Wide Web: la infrastruttura degli scambi Peer-to-Peer.........................................63 3.2.1.Internet...................................................................................................................................63 3.2.2.Usenet....................................................................................................................................66 3.2.3.DNS........................................................................................................................................68 3.2.4.Il boom di Internet (1995-1999)..............................................................................................68 3.2.5.Il ritorno ad un ruolo attivo: Peer-to-Peer, Blog, Wiki...............................................................69 3.3.Prospettive future per il Peer-to-Peer..............................................................................................72 3.3.1.Peer-to-Peer a pagamento......................................................................................................73 3.3.2.Download a pagamento..........................................................................................................74 3.3.3.Street performer protocol, o mecenatismo distribuito.............................................................74 3.3.4.Produzione collaborativa attraverso la condivisione................................................................75 3.3.5.Il Peer-to-Peer oltre la produzione e la condivisione di opere creative....................................75 4. Reti collaborative come comunità multilocali.......................................................................................79 4.1.Comunità e organizzazione.............................................................................................................79 4.2.Definizioni sociologiche di comunità...............................................................................................80 4.2.1.La comunità come dimensione territoriale: la comunità locale................................................80 4.2.2.La comunità come interazione sociale: la comunità come gruppo..........................................81 4.2.3.La comunità come interazione sociale: la comunità come sistema sociale..............................81 4.2.4.La comunità come interazione sociale: una rete di interazioni................................................82 4.2.5.La comunità come unità pisco-culturale..................................................................................83 4.3.La comunità locale tradizionale come forma archetipa...................................................................83 4.4.La crisi della comunità locale tradizionale e le comunità elettive....................................................85 3


4.5.Comunità globali chiuse: élite cosmopolite.....................................................................................87 4.6.Comunità globali aperte: comunità virtuali.....................................................................................88 4.7.Comunità Open Peer-to-Peer come comunità multilocali................................................................91 4.8.Comunità, capitale sociale, sviluppo locale.....................................................................................96 4.8.1.Comunità e capitale sociale....................................................................................................96 4.8.2.Comunità e fiducia..................................................................................................................97 4.8.3.Comunità e relazioni che generano capitale sociale................................................................99 4.8.4.Capitale sociale e relazioni: analisi delle reti sociali..............................................................101 4.8.5.Analisi delle reti e legami deboli e forti.................................................................................105 4.8.6.Capitale sociale e sviluppo locale .........................................................................................107 4.8.6.1.Globalizzazione e sviluppo locale..................................................................................107 4.8.6.2.La produzione di beni collettivi locali............................................................................108 4.8.6.3.Generazione di capitale sociale a livello locale..............................................................111 5. Reti collaborative come sistemi adattativi complessi..........................................................................113 5.1.Il bazaar e la complessità.............................................................................................................113 5.2.Comunità Open Peer-to-Peer come sistemi complessi..................................................................115 5.3.Auto-organizzazione dei sistemi complessi ..................................................................................118 5.4.Emergenza dell'auto-organizzazione.............................................................................................122 5.5.Evoluzione dell'auto-organizzazione: sistemi complessi adattativi................................................123 5.6.Una evoluzione memetica.............................................................................................................125 5.7.Conservazione dell'auto-organizzazione: Autopoiesi.....................................................................128 5.8.Definire la complessità per affrontarla..........................................................................................130 5.9.Riduzione della complessità e valorizzazione della diversità.........................................................132 5.10.Monocolture e diversità .............................................................................................................134 5.11.Intelligenza collettiva..................................................................................................................137 6.Reti collaborative per lo svolgimento di attività....................................................................................141 6.1.Comunità attorno ad attività.........................................................................................................141 6.2.Azione situata e attività................................................................................................................141 6.3.Teoria dell'Attività.........................................................................................................................143 6.4.La struttura gerarchica dell'attività...............................................................................................144 6.5.Il Sistema di Attività come unità minima di analisi dell'attività umana..........................................145 6.6.Comunità Open Peer-to-Peer e Sistema di Attività........................................................................147 6.6.1.Soggetto...............................................................................................................................148 6.6.2.Oggetto ed artefatti per raggiungere gli obiettivi..................................................................152 6.6.3.Regole..................................................................................................................................152 6.6.3.1.L'etica Hacker del lavoro, del denaro e della rete.........................................................153 6.6.3.1.1.Hacker come appassionato...................................................................................153 6.6.3.1.2.Etica Hacker ed etica protestante.........................................................................153 6.6.3.1.3.Etica Hacker, tempo e denaro...............................................................................155 6.6.3.1.4.Etica Hacker ed Accademia...................................................................................158 6.6.3.1.5.I sette valori dell'etica Hacker...............................................................................159 6.6.3.1.6.Etica Hacker ed economia del dono......................................................................160 6.6.3.2.Le licenze......................................................................................................................161 6.6.3.2.1.La licenza come contratto sociale.........................................................................161 6.6.3.2.2.Copyleft................................................................................................................163 6.6.3.2.3.GPL.......................................................................................................................164 6.6.3.2.4.LGPL......................................................................................................................164 6.6.3.2.5.BSD.......................................................................................................................164 6.6.3.2.6.Mozilla...................................................................................................................165 6.6.3.2.7.Open Source.........................................................................................................166 6.6.3.2.8.Licenze per opere non software: Creative Commons.............................................167 6.6.4.Comunità..............................................................................................................................170 6.6.5.Divisione del lavoro..............................................................................................................173

seconda parte: facilitazione dell'auto-organizzazione Open Peer-toPeer ............................................................................................181 1. Il design per facilitare l'emergenza delle reti collaborative.................................................................183 1.1.Design e creatività distribuita.......................................................................................................183 1.2.Open Peer-to-Peer come opportunità di incontro tra design e sviluppo locale..............................185 1.2.1.Spark!...................................................................................................................................186 1.2.2.ME.Design.............................................................................................................................186 1.2.3.DOTT – Designs Of The Time.................................................................................................187 1.3.Design per comunità Open Peer-to-Peer e design per sviluppo locale...........................................188 1.3.1.Il capitale territoriale come oggetto della progettazione.......................................................190

4


1.4.Designer: da fornitore a facilitatore..............................................................................................193 2.Progetto e comunità: la piattaforma.....................................................................................................197 2.1.Architettura, urbanistica e comunità locali....................................................................................197 2.2.Web design e comunità virtuali.....................................................................................................205 2.3.Relazioni e progetto......................................................................................................................208 2.4.Complessità e progetto.................................................................................................................210 2.5.Supporto all'emergenza delle relazioni: Attività e piattaforme......................................................212 2.5.1.Piattaforma e attività............................................................................................................212 2.5.2.Piattaforma: caratteristiche ed evoluzione............................................................................215 3.Dagli strumenti di analisi agli strumenti progettuali.............................................................................221 3.1.Sistema di Attività e servizi...........................................................................................................221 3.1.1.Attività e servizio..................................................................................................................221 3.1.2.Progettazione del servizio/attività.........................................................................................225 3.2.Analisi delle reti sociali.................................................................................................................233 3.2.1.Legami e reti.........................................................................................................................233 3.2.2.Sociogrammi.........................................................................................................................234 3.2.3.Grafi e loro caratteristiche....................................................................................................235 3.2.4.La rappresentazione matriciale dei dati................................................................................238 3.3.Progetto e progettazione Open Peer-to-Peer.................................................................................242 4.Linee guida progettuali.........................................................................................................................253 4.1.Progettare reti collaborative come comunità Open Peer-to-Peer...................................................253 4.2.Fasi di vita delle comunità Open Peer-to-Peer...............................................................................254 4.3.Fasi dell'intervento progettuale....................................................................................................258 4.3.1.Analisi...................................................................................................................................258 4.3.2.Elaborazione del concept......................................................................................................260 4.3.3.Comunicazione del concept e co-progettazione / sperimentazione / realizzazione parallele. 262 4.3.4.Auto-organizzazione ............................................................................................................263

appendice: casi di auto-organizzazione Open Peer-to-Peer.............267 1.Casi di reti collaborative Open Peer-to-Peer..........................................................................................269 1.1.Comunità Open Peer-to-Peer e attività specifiche.........................................................................269 1.2.Comunità Open Peer-to-Peer e dimensione dell'attivita................................................................270 1.3.Comunità Open Peer-to-Peer e loro origine...................................................................................271 1.4.Comunità Open Peer-to-Peer e artefatti utilizzati..........................................................................272 1.5.Comunità Open Peer-to-Peer e caratteristiche promettenti sviluppate.........................................273 2.Reti collaborative per ricercare e scambiare conoscenze.....................................................................275 2.1.Freenet.........................................................................................................................................275 2.2.Keen.............................................................................................................................................276 2.3.Dipex............................................................................................................................................276 2.4.Friendster.....................................................................................................................................276 3.Reti collaborative per raggiungere una massa critica di partecipanti...................................................279 3.1.PledgeBank...................................................................................................................................279 3.2.Meetup.........................................................................................................................................281 3.3.Smart mobs..................................................................................................................................283 4.Reti collaborative per produrre informazioni.........................................................................................285 4.1.Indymedia.....................................................................................................................................285 4.2.The Global Ideas Bank..................................................................................................................286 4.3.Ohmynews....................................................................................................................................287 4.4.Kuro5hin, Slashdot........................................................................................................................289 4.5.OpenLaw .....................................................................................................................................290 4.6.Wikipedia......................................................................................................................................291 4.7.Connexions...................................................................................................................................293 4.8.Silver stringers..............................................................................................................................293 4.9.NASA Mars Clickworkers...............................................................................................................294 4.10.Distributed Proofreaders.............................................................................................................295 4.11.SETI@Home................................................................................................................................295 4.12.Grid.org .....................................................................................................................................296 5.Reti collaborative per svolgere ricerche................................................................................................297 5.1.The International HapMap Project.................................................................................................297 5.2.The Tropical Disease Initiative (TDI).............................................................................................297 5.3.The Drugs for Neglected Diseases Initiative (DNDi)......................................................................298 5.4.The SNP Consortium Ltd...............................................................................................................299 5.5.The CAMBIA BIOS .........................................................................................................................300 6.Reti collaborative per progettare..........................................................................................................303 6.1.Open Source Green Vehicle (OSGV)..............................................................................................303 5


6.2.OSCar - The Open Source Car Project...........................................................................................303 6.3.Episodi di innovazioni tecnologiche collettive...............................................................................306 6.4.Thinkcycle....................................................................................................................................307 6.5.iCompositions...............................................................................................................................309 6.6.Solar Roof.....................................................................................................................................311 6.7.instructables.................................................................................................................................317 6.8.Zeroprestige.org...........................................................................................................................320 7.Reti collaborative per organizzare attività economiche........................................................................321 7.1.Neubauten.org..............................................................................................................................321 7.2.Amul.............................................................................................................................................324 7.3.Dabbawalla...................................................................................................................................325 7.4.Napster.........................................................................................................................................326 7.5.GNUtella.......................................................................................................................................328 7.6.Amazon........................................................................................................................................328 7.7.eBay.............................................................................................................................................328 7.8.P-grid............................................................................................................................................329 7.9.The Sims.......................................................................................................................................332 8.Reti collaborative per migliorare la condizione locale...........................................................................335 8.1.Terra Madre / Slow Food...............................................................................................................335 8.2.Open Heatlh.................................................................................................................................338 8.2.1.Un approccio Open Peer-to-Peer per i servizi pubblici...........................................................338 8.2.2.Kent: Activmob.....................................................................................................................340 8.2.3.Bolton: Me2 Coach................................................................................................................341 8.3.Development Gateway.................................................................................................................341 8.4.BBC’s Neighbourhood Gardener ..................................................................................................342 8.5.The BBC iCan/Action Network.......................................................................................................342 8.6.Grameen Bank e Self-Help Groups ...............................................................................................349 8.6.1.Grameen Bank......................................................................................................................349 8.6.2.Self-Help Groups...................................................................................................................351 8.6.3.Differenze tra Grameen Bank e Self Help Groups..................................................................353 8.7.Honey Bee network......................................................................................................................354 8.8.Kiva..............................................................................................................................................356 9.Reti collaborative per sostenere altre comunità...................................................................................359 9.1.Sustainable Everyday Project / EMUDE.........................................................................................359 9.2.The New Earth Fund.....................................................................................................................360 9.3.mySociety.....................................................................................................................................362 9.4.The Launchpad (Young foundation)..............................................................................................363 Bibliografia..............................................................................................................................................365 Ringraziamenti........................................................................................................................................377 Creative Commons Deed.........................................................................................................................379

6


indice delle figure Fig. 1: Codice sorgente per l'individuazione di due punti giacenti sullo stesso piano (Fonte: Stallman 2003b)............................................................................................................................44 Fig. 2: Codice binario di un programma, aperto con un normale editor di testo.........................................44 Fig. 3: Codice binario per l'individuazione di due punti giacenti su un piano, in formato numerico ...........44 Fig. 4: Modello IBM 7094, operativo nel 1965 (Fonte: http://www.columbia.edu/acis/history/7094.html)...45 Fig. 5: Richard Stallman (Fonte: http://commons.wikimedia.org/wiki/Category:Richard_Stallman)............46 Fig. 6: Il logo di GNU's Not Unix (Fonte: http://en.wikipedia.org/wiki/GNU) ................................................47 Fig. 7: Il logo della Free Software Foundation (Fonte: http://en.wikipedia.org/wiki/Free_software_foundation).................................................................47 Fig. 8: Linus Torvalds (Fonte: http://en.wikipedia.org/wiki/Linux_Torvalds)................................................48 Fig. 9: Messaggio di proposta del progetto sistema operativo Linux (Fonte: http://groups.google.com/group/comp.os.minix/msg/b813d52cbc5a044b?hl=en).........................48 Fig. 10: Schermata di Linux, versione Ubuntu 6.10....................................................................................49 Fig. 11: Tux, il simbolo di Linux (Fonte: http://commons.wikimedia.org/wiki/Image:NewTux.svg)..............49 Fig. 12: Eric Raymond (Fonte: http://en.wikipedia.org/wiki/Eric_Raymond)................................................50 Fig. 13: Marchio di certifica Open Source Initiative (Fonte: http://www.opensource.org/)..........................50 Fig. 14: Martí Guixé, The Meta-territorial Kitchen Sytem-3 (Fonte: http://www.guixe.com/exhibitions/2003_mtks-lisboa/index.html) .................................................57 Fig. 15: Ronen Kadushin, disegno tecnico del progetto Man Holding Flower (Fonte: http://www.ronen-kadushin.com/Open_Design.asp)......................................................................58 Fig. 16: Ronen Kadushin, foto del progetto Man Holding Flower realizzato (Fonte: http://www.ronen-kadushin.com/Open_Design.asp)......................................................................58 Fig. 17: Etichetta per la birra Vores Øl (Fonte: http://www.voresoel.dk).....................................................61 Fig. 18: Sviluppo di ARPANET al dicembre 1969 (Fonte: Heart, F., McKenzie, A., McQuillian, J., and Walden, D., ARPANET Completion Report, Bolt, Beranek and Newman, Burlington, MA, January 4, 1978).........................................................................................64 Fig. 19: Sviluppo di ARPANET al settembre 1971 (Fonte: Heart, F., McKenzie, A., McQuillian, J., and Walden, D., ARPANET Completion Report, Bolt, Beranek and Newman, Burlington, MA, January 4, 1978).........................................................................................64 Fig. 20: Flussi di dati su Internet nel 1993 (Fonte: http://mappa.mundi.net/maps/maps_008/#ref_2).........................................................................64 Fig. 21: Flussi di dati su Internet nel 1993 (Fonte: http://mappa.mundi.net/maps/maps_008/#ref_2).........................................................................65 Fig. 22 Mappa di Internet, come realizzata dal progetto Opte nel novembre 2003 (Fonte: http://www.opte.org).....................................................................................................................66 Fig. 23: Rete di Usenet, al maggio 1993 (Fonte: http://mappa.mundi.net/maps/maps_021/).....................67 Fig. 24: Blog (Fonte: http://www.doorsofperception.com)..........................................................................70 Fig. 25: Analisi della rete degli scambi che avvengono tra utenti attraverso Gnutella (Fonte: http://www.cybergeography.org/atlas/gnucleus_graph_large.gif)..................................................71 Fig. 26: Gerarchia: il potere da forma alla rete sociale in modo top-down (Fonte: Chiesi 1999).................79 Fig. 27: Comunità Open Peer-to-Peer: la reputazione da forma alla rete sociale in modo bottom-up (Fonte: Chiesi 1999)..................................................................................................................................79 Fig. 28: Comunità locale preindustriale (Veduta del villaggio di Bochum , Matthäus Merian, "Topographia Germaniae" 1647)...............................84 Fig. 29: Gated community (Fonte: http://en.wikipedia.org/wiki/Gated_community)...................................88 Fig. 30: The well (Fonte: http://www.thewell.com).....................................................................................89 Fig. 31: Comunità Open Peer-to-Peer organizzate come comunità virtuali globali.....................................93 Fig. 32: Comunità Open-Peer-to-Peer organizzate come comunità locali...................................................94 Fig. 33: Comunità Open Peer-to-Peer organizzate come reti di comunità locali.........................................95 Fig. 34: Analisi delle reti sociali in comunità di sviluppo Open Source (Fonte: Madey, Freeh, Tynan 2002)........................................................................................................103 Fig. 35: Analisi delle reti sociali tra bloggers (Fonte: http://radio.weblogs.com/0104369/2003/01/08.html)..................................................................104 Fig. 36: Ponti sociali (Fonte: Buchanan 2003)..........................................................................................105 Fig. 37: Ciclo di retroazione (Fonte: von Bertalanffy 1971)......................................................................115 Fig. 38: Formazione di un anello di retroazione in un sistema i cui elementi hanno, l'uno con l'altro, interazioni di tipo solo lineare (Fonte: Capra 2001).................................................................................116 Fig. 39: Ciclo di retroazione tra eventi.....................................................................................................116 Fig. 40: Esempio di retroazione positiva in una comunità di software Open Source.................................118 Fig. 41: Esempio di retroazione negativa in una comunità di software Open Source...............................118 Fig. 42: Cicli di retroazione tra comunità Open Peer-to-Peer e società.....................................................119 Fig. 43: Diagramma di biforcazione (Fonte: Bertuglia, Staricco 2000).....................................................121

7


Fig. 44: Diagramma di biforcazione a più rami (Fonte: Bertuglia, Staricco 2000).....................................122 Fig. 45: Scomparsa delle alternative e riduzione della diversità con l'introduzione delle monocolture (Fonte: Shiva 1995).................................................................................................................................125 Fig. 46: Evoluzione dell'attività animale in attività umana (Fonte: Engeström 1987)...............................145 Fig. 47: Modello del Sistema di Attività (Fonte: Engeström 1987)............................................................146 Fig. 48: Due sistemi di attività interagenti (Fonte: Engeström 1987).......................................................147 Fig. 49: Sistema di Attività e contraddizioni (Fonte: Engeström 1987).....................................................148 Fig. 50: Copyleft......................................................................................................................................163 Fig. 51: Logo Creative Commons.............................................................................................................169 Fig. 52: Simboli Creative Commons.........................................................................................................170 Fig. 53: Creative Commons, some rights reserved...................................................................................170 Fig. 54: Livelli di reputazione e impegno in una comunità Open Peer-to-Peer..........................................172 Fig. 55: Evoluzione delle comunità Open Source (Fonte: Nakakoji, Yamamoto, Nishinaka, Kishida, Ye 2002)....................................................................177 Fig. 56: Capitale territoriale (Fonte: Simonelli, Vignati 2004)...................................................................191 Fig. 57: Matrice dei livelli di partecipazione in un intervento progettuale (Fonte: Hamdi, Goethert 1997)................................................................................................................200 Fig. 58: Progettisti e comunità nella matrice della partecipazione (Fonte: Hamdi, Goethert 1997)................................................................................................................202 Fig. 59: Livelli di partecipazione in un processo progettuale convenzionale (Fonte: Hamdi, Goethert 1997)...............................................................................................................202 Fig. 60: Livelli di partecipazione in un processo progettuale basato sul lavoro a basso costo (Fonte: Hamdi, Goethert 1997)...............................................................................................................203 Fig. 61: Livelli di partecipazione in un processo progettuale svolto con l'obiettivo della rapidità (Fonte: Hamdi, Goethert 1997)...............................................................................................................203 Fig. 62: Livelli di partecipazione formali in un processo progettuale (Fonte: Hamdi, Goethert 1997)...............................................................................................................204 Fig. 63: Livelli di partecipazione in un processo progettuale di Action Planning con l'obiettivo della rapidità (Fonte: Hamdi, Goethert 1997)..................................................................................................204 Fig. 64: Schema comparativo rappresentante le differenze tra la relazioni “I-THOU” e l'esperienza “I-IT” (Fonte: Cipolla 2004)...............................................................................................................................209 Fig. 65: Open Health, Kent: relazione tra piattaforma, strumenti e ruoli (Fonte: Design Council 2006a).................................................................................................................213 Fig. 66: Comunità e piattaforma della comunità......................................................................................213 Fig. 67: Attività e piattaforma per l'attività come piattaforma per la comunità........................................214 Fig. 68: Piattaforma descritta con il Sistema di Attività............................................................................215 Fig. 69: La natura reticolare della piattaforma: condivisione delle caratteristiche nei nodi......................217 Fig. 70: Natura reticolare della piattaforma.............................................................................................218 Fig. 71: Piattaforma iniziale.....................................................................................................................219 Fig. 72: Piattaforma nelle prime fasi di discussione collettiva..................................................................219 Fig. 73: Piattaforma di una attività sviluppata.........................................................................................219 Fig. 75: Servuction (Fonte: Eiglier e Langeard 1988)...............................................................................222 Fig. 76: Struttura gerarchica dell'attività di servizio (Fonte: Sangiorgi 2004)...........................................224 Fig. 77: Modello dell'incontro (Fonte: Sangiorgi 2004).............................................................................227 Fig. 78: Percorso progettuale (Fonte: Sangiorgi 2004)............................................................................227 Fig. 79: Mappa del Sistema di Attività (Fonte: Sangiorgi 2004)................................................................228 Fig. 80: Esempio di mappa del Sistema di Servizio (Fonte: SEP)..............................................................228 Fig. 81: Mappa dell'offerta (Fonte: Sangiorgi 2004).................................................................................230 Fig. 82: Blueprint (Fonte: Zeithaml e Bitner 2000)...................................................................................230 Fig. 83: Caratteristiche che possono descrivere i legami fra i nodi (Fonte: Chiesi 1999)..........................234 Fig. 84: Grafi............................................................................................................................................237 Fig. 85: Grafo bipartito della matrice di affiliazione in tabella 20 (Fonte: Chiesi 1999).............................241 Fig. 86: Grafo della matrice di adiacenza di tabella 22 (Fonte: Chiesi 1999)............................................241 Fig. 87: Grafo della matrice di adiacenza di tabella 23 (Fonte: Chiesi 1999)............................................241 Fig. 88: Ipergrafo ricavato dalla matrice di affiliazione di tabella 20 (Fonte: Chiesi 1999)........................242 Fig. 89: Processo NPD tradizionale (Fonte: Siedlok 2002)........................................................................243 Fig. 90: Open Source-based Product Development Model (Fonte: Siedlok 2002).....................................244 Fig. 91: Percorso progettuale nel software proprietario e in quello Open Source.....................................247 Fig. 92: Esempio di mappa del sistema applicato ad una comunità Open Peer-to-Peer (Thinkcycle)........251 Fig. 93: Livelli di partecipazione nelle differenti fasi progettuali..............................................................255 Fig. 94: Fasi di vita di una comunità Open Peer-to-Peer e fasi di intervento progettuale (Fonte: adattato da Wenger, McDermott, Snyder 2002)..........................................................................256 Fig. 95: Fasi di vita di una comunità: particolare delle fasi di intervento progettuale (Fonte: adattato da Wenger, McDermott, Snyder 2002)..........................................................................257 Fig. 96: Costruzione di reti con agenti esterni durante le differenti fasi di vita........................................258 Fig. 97: Livelli di partecipazione nella fase di analisi................................................................................259 Fig. 98: Livello di partecipazione nella fase di elaborazione del concept..................................................260 8


Fig. 99: Livelli di partecipazione nella comunicazione del concept e nel suo sviluppo/test.......................262 Fig. 100: Cicli di retroazione nella fase di sviluppo del progetto..............................................................263 Fig. 101: Casi di comunità Open Peer-to-Peer, suddivisi in base alla loro principale attività....................269 Fig. 102: Casi di comunità Open Peer-to-Peer, suddivisi in base alla dimensione di azione......................270 Fig. 103: Casi di comunità Open Peer-to-Peer, suddivisi in base alla loro fonte di ispirazione..................271 Fig. 104: Casi di comunità Open Peer-to-Peer, suddivisi in base alla natura degli artefatti utilizzati per auto-organizzarsi.....................................................................................................................................272 Fig. 105: Casi di comunità Open Peer-to-Peer, suddivisi in base al tipo di attività che hanno maggiormente sviluppato e che può essere replicato......................................................................................................273 Fig. 106: Casi di comunità Open P2P rivolte alla ricerca e scambio di conoscenze..................................275 Fig. 107: Il logo di Freenet (Fonte: http://freenetproject.org)...................................................................275 Fig. 108: Keen: ricerca di consulenze nell'ambito della multimedialità (Fonte: http://www.keen.org)......277 Fig. 109: Dipex: ricerca di conoscenze ed informazioni su determinate malattie (Fonte: http://www.dipex.org) .................................................................................................................277 Fig. 110: Friendster: gestione dei gruppi (Fonte: http://www.friendster.com)..........................................278 Fig. 111: Casi di comunità Open P2P rivolte al raggiungimento di una massa critica di partecipanti.......279 Fig. 112: PledgeBank: possibilità di dare vita ad un pledge o di ricercarlo nella propria dimensione locale (Fonte: http://www.pledgebank.com).......................................................................................................279 Fig. 113: PledgeBank: come dare vita ad un pledge (Fonte: http://www.pledgebank.com)......................280 Fig. 114: PledgeBank: come ricercare i pledge che necessitano partecipanti (Fonte: http://www.pledgebank.com).......................................................................................................281 Fig. 115: Meetup (Fonte: http://www.meetup.com)..................................................................................282 Fig. 116: Meetup: lista dei gruppi per tema e località (Fonte: http://www.meetup.com)..........................282 Fig. 117: Casi di comunità Open Peer-to-Peer rivolte alla produzione di informazioni..............................285 Fig. 118: Il logo Indymedia (Fonte: http://www.indymedia.org)................................................................285 Fig. 119: Indymedia: sede locale di Edinburgo (Foto: David Monniaux)...................................................286 Fig. 120: Global Ideas Bank: lista di idee e grado di sviluppo (Fonte: http://www.globalideasbank.org)..286 Fig. 121: Global Ideas Bank: descrizione di una idea e spazio per la votazione (Fonte: http://www.globalideasbank.org)................................................................................................287 Fig. 122: Ohmynews: notizie (Fonte: http://www.ohmynews.com)..........................................................288 Fig. 123: Ohmynews: recensione delle notizie da parte degli stessi lettori (Fonte: http://www.ohmynews.com).......................................................................................................288 Fig. 124: Kuro5hin (Fonte: http://www.kuro5hin.org).............................................................................289 Fig. 125: Slashdot (Fonte: http://www.slashdot.org)................................................................................289 Fig. 126: Slashdot: peer review e karma (Fonte: http://www.slashdot.org)..............................................290 Fig. 127: Open Law (Fonte: http://cyber.law.harvard.edu/openlaw).........................................................291 Fig. 128: Wikipedia: un articolo (Fonte: en.wikipedia.org)........................................................................291 Fig. 129: Wikipedia: modifica dei contenuti (Fonte: en.wikipedia.org).....................................................292 Fig. 130: Wikipedia: correzione degli errori e ritorno alle versioni precedenti (Fonte: en.wikipedia.org). .292 Fig. 131: Connexions (Fonte: http://cnx.org)............................................................................................293 Fig. 132: Silver Stringers (Fonte: http://stringers.media.mit.edu)...........................................................293 Fig. 133: Colonna di sinistra, crateri delineati da Nadine Barlow, una geologa esperta; colonna di destra, fatto dai clickworkers (Fonte: Nasa 2001)................................................................................................294 Fig. 134: Distributed Proofreaders (Fonte: http://www.pgdp.net)............................................................295 Fig. 135: Distributed Proofreaders: libri controllati (Fonte: http://www.pgdp.net)...................................295 Fig. 136: Logo SETI@Home(Fonte: http://en.wikipedia.org/wiki/SETI%40home).......................................296 Fig. 137: Schermata di Seti@Home(Fonte: http://en.wikipedia.org/wiki/SETI%40home)..........................296 Fig. 138: Grid.org: United Devices Agent (Fonte: http://en.wikipedia.org/wiki/Grid.org)..........................296 Fig. 139: Comunità Open Peer-to-Peer per lo svolgimento di ricerche.....................................................297 Fig. 140: HapMap (Fonte: http://www.hapmap.org).................................................................................297 Fig. 141: HapMap: risultati liberamente accessibili (Fonte: http://www.hapmap.org)...............................298 Fig. 142: DNDi: progetti (Fonte: http://www.dndi.org)..............................................................................299 Fig. 143: SNP (Fonte: http://snp.cshl.org)................................................................................................300 Fig. 144: SNP: risultati liberamente accessibili (Fonte: http://snp.cshl.org)..............................................300 Fig. 145: CAMBIA Bios (Fonte: http://www.bios.net)................................................................................301 Fig. 146: BioForge (Fonte: http://www.bios.net)......................................................................................301 Fig. 147: BioForge: progetti (Fonte: http://www.bios.net).......................................................................301 Fig. 148: Comunità Open Peer-to-Peer che progettano collaborativamente.............................................303 Fig. 149: Open Source Green Vehicle (Fonte: http://www.osgv.org).........................................................303 Fig. 150: OSCar (Fonte: http://www.theoscarproject.org).........................................................................304 Fig. 151: OSCar: versione 0.1 (Fonte: http://www.theoscarproject.org) ..................................................305 Fig. 152: Thinkcycle (Fonte: http://www.thinkcycle.org)..........................................................................307 Fig. 153: Thinkcycle: esempio di dispositivo per la cura del colera progettato e messo in produzione (Fonte: http://www.thinkcycle.org) .........................................................................................................308 Fig. 154: iCompositions (Fonte: http://www.icompositions.com)..............................................................310 Fig. 155: Esempio di progetto con tecnologia Solar Roof (Fonte: http://www.solarbubblebuild.com/futurebuild/index.html)...........................................................313 9


Fig. 156: Esempio di progetto con tecnologia Solar Roof : clima ed energia (Fonte: http://www.solarbubblebuild.com/futurebuild/index.html)...........................................................314 Fig. 157: Esempio di progetto con tecnologia Solar Roof: isolamento (Fonte: http://www.solarbubblebuild.com/futurebuild/index.html)...........................................................315 Fig. 158: Esempio di progetto con tecnologia Solar Roof: funzionamento diurno estivo (Fonte: http://www.solarbubblebuild.com/futurebuild/index.html)...........................................................316 Fig. 159: Esempio di progetto con tecnologia Solar Roof: funzionamento diurno invernale (Fonte: http://www.solarbubblebuild.com/futurebuild/index.html)...........................................................316 Fig. 160: Esempio di progetto con tecnologia Solar Roof: funzionamento notturno (Fonte: http://www.solarbubblebuild.com/futurebuild/index.html)...........................................................317 Fig. 161: instructables (Fonte: http://www.instructables.com).................................................................318 Fig. 162: instructables: progetto identificato da immagini e testi, con elenco dei componenti e strumenti necessari (Fonte: http://www.instructables.com).....................................................................................318 Fig. 163: instructables: fase di un percorso produttivo (Fonte: http://www.instructables.com)................319 Fig. 164: instructables: esempio di Howtoon (Fonte: http://www.instructables.com)...............................319 Fig. 165: Zeroprestige.org (Fonte: http://www.zeroprestige.org).............................................................320 Fig. 166: Zeroprestige.org: attrezzatura progettata e condivisa (Fonte: http://www.zeroprestige.org)....320 Fig. 167: Comunità Open Peer-to-Peer che organizzano e svolgono attività economiche.........................321 Fig. 168: Einstürzende Neubauten e supporter che partecipano a pari livello nel concerto al Palast der Republik, Berlino (Foto: Markus Vorktamp Fonte: http://www.flickr.com/photos/vortkamp/93302926/).. .322 Fig. 169: Ruolo attivo dei supporter che partecipano a pari livello nel concerto al Palast der Republik, Berlino (Foto: Markus Vortkamp Fonte: http://www.flickr.com/photos/vortkamp/93301933/)...................322 Fig. 170: Neubauten.org: proposta di partecipazione (Fonte: http://www.neubauten.org)......................323 Fig. 171: Amul: pubblicità murale in Rajastan (India) (Foto: Bartolomeo Mecánico Fonte: http://www.elve.net/padv/en/fiber.htm)...........................................323 Fig. 172: Dabbawalla (Fonte: http://www.mydabbawala.com).................................................................326 Fig. 173: Contenitori utilizzati dai dabbawalla (Fonte: http://www.typocity.com).....................................326 Fig. 174: Il logo di Napster (Fonte: http://en.wikipedia.org/wiki/Napster).................................................326 Fig. 175: Supply chain delle GCMMF (Fonte: Chandra 2002)....................................................................327 Fig. 176: Struttura della cooperativa nello Stato del Gujarat (Fonte: Chandra 2002)..............................327 Fig. 177: Il logo della comunità di Gnutella (Fonte: http://www.gnutella.com).........................................328 Fig. 178: Amazon: prodotti in offerta (Fonte: http://www.amazon.com)...................................................330 Fig. 179: Amzon: per ogni prodotto vengono associati gli acquisti simili effettuati da altri utenti (Fonte: http://www.amazon.com)............................................................................................................330 Fig. 180: Amazon: recensioni dei prodotti (Fonte: http://www.amazon.com)..........................................330 Fig. 181: eBay: asta di un bene (Fonte: http://www.ebay.it)....................................................................331 Fig. 182: eBay: profilo personale dei venditori e reputazione acquisita (Fonte: http://www.ebay.it)........331 Fig. 183: the Sims (Fonte: http://en.wikipedia.org/wiki/The_Sims)...........................................................333 Fig. 184: Esempi di arredi scaricabili e condivisibili (Fonte: http://www.simsinteriordesigns.net).............333 Fig. 185: Comunità Open Peer-to-Peer che cercano di migliorare la propria condizione locale................335 Fig. 186: Terra Madre: partecipante (Fonte: http://www.terramadre2004.org)........................................336 Fig. 187: Terra Madre: partecipanti (Fonte: http://www.terramadre2004.org).........................................337 Fig. 188: Terra Madre: la conferenza (Fonte: http://www.terramadre2004.org).......................................337 Fig. 189: Open Health, Kent: rivista e ricompense (Fonte: Design council 2006a)...................................344 Fig. 190: Open Health, Kent: monitoraggio della propria situazione........................................................344 Fig. 191: Open Health, Kent: monitoraggio della propria situazione (Fonte: Design council 2006a).........344 Fig. 192: Open Health, Bolton: Me2 coach (Fonte: Design council 2006b)...............................................345 Fig. 193: BBC Neighbourhood Gardener (Fonte: http://www.bbc.co.uk/gardening/neighbourhood_gardener)........................................................346 Fig. 194: BBC Neighbourhood Gardener: ricerca della dimensione locale (Fonte: http://www.bbc.co.uk/gardening/neighbourhood_gardener)........................................................346 Fig. 195: BBC Action Network: homepage e ricerca della dimensione locale (Fonte: http://www.bbc.co.uk/actionnetwork)..........................................................................................347 Fig. 196: BBC Action Network: esempio di campagna (Fonte: http://www.bbc.co.uk/actionnetwork).......347 Fig. 197: Broadcasting (Fonte: Coleman et al. 2005)...............................................................................348 Fig. 198: Networking (Fonte: Coleman et al. 2005)...................................................................................348 Fig. 199: BBC iCan (Action Network) (Fonte: Coleman et al. 2005)..........................................................348 Fig. 200: Gruppo di credito della Grameen Bank ( Yunus M. primo a sinistra) (Fonte: http://www.grameen-info.org/bank/gallery/borrowers.html)........................................................350 Fig. 201: Self-help Group (Fonte: http://www.ilo.org/public/english/dialogue/actrav/new/india04.htm)....353 Fig. 202: Honey Bee Network: database delle innovazioni raccolte (Fonte: http://www.sristi.org)...........355 Fig. 203: Kiva: presentazione dei creditori (Fonte: http://www.kiva.org)..................................................358 Fig. 204: Comunità Open Peer-to-Peer che sostengono altre comunità...................................................359 Fig. 205: Sustainable Everyday Project (Fonte: http://www.sustainable-everyday.net)............................360 Fig. 206: New Earth Fund (Fonte: http://www.newearth.info)...................................................................362 Fig. 207: mysociety (Fonte: http://www.mysociety.org)...........................................................................362 Fig. 208: Launchpad (Fonte: http://www.youngfoundation.org.uk)..........................................................363 10


indice delle tabelle Tabella 1: Corrispondenza alfabeto alfanumerico - alfabeto binario (Fonte: http://www.netlingo.com/more/binary.html, http://www.kerryr.net/pioneers/ascii3.htm)...............43 Tabella 2: Caratteristiche dei Media tradizionali rispetto ai blog (Fonte: Casaleggio Associati 2006).........71 Tabella 3: L'emergere della dinamica relazionale Peer-to-Peer e della sua gestione (Fonte: Bauwens 2005)..............................................................................................................................76 Tabella 4: Gerarchia e cooperazione nello sviluppo della società e nel concetto di Peer-to-Peer (Fonte: Bauwens 2005)..............................................................................................................................78 Tabella 5: Attività delle comunità Open Peer-to-Peer...............................................................................141 Tabella 6: Carateristiche delle principali licenze di Free e Open Source Software (Fonte: Aliprandi 2005)...........................................................................................................................167 Tabella 7: Principali licenze di Free e Open Source Software e spirito copyleft........................................168 Tabella 8: Tipi di comunità Open Source (Fonte: Nakakoji, Yamamoto, Nishinaka, Kishida, Ye 2002)....................................................................177 Tabella 9: Comunità Open Peer-to-Peer descritte con i Sistemi di Attività e i livelli di reputazione: Solar Roof e BBC Action Network......................................................................................................................178 Tabella 10: Comunità Open Peer-to-Peer descritte con i Sistemi di Attività e i livelli di reputazione: Neubauten.org e Terra Madre..................................................................................................................179 Tabella 11: Scala della partecipazione (Fonte: Arrnstein 1969)...............................................................200 Tabella 12: Legame tra socievolezza e usabilità (Fonte: Preece, Krichmar 2003)....................................207 Tabella 13: Socievolezza, usabilità e progetto (Fonte: Preece, Krichmar 2003).......................................208 Tabella 14: La struttura gerarchica dell'attività (Fonte: Sangiorgi 2004).................................................214 Tabella 15: Fasi progettuali (Fonte: Sangiorgi 2004)...............................................................................232 Tabella 16: Tipi di grafo e legami corrispondenti (Fonte: Chiesi 1999).....................................................237 Tabella 17: Semplice matrice per l'analisi dei legami (Fonte: Chiesi 1999)..............................................238 Tabella 18: Matrice di affiliazione per sette soggetti e quattro eventi (Fonte: Chiesi 1999).....................239 Tabella 19: Esempio di matrice di incidenza per la tabella 18 (Fonte: Chiesi 1999).................................239 Tabella 20: Corrispondente matrice di adiacenza della tabella 18, considerando i soggetti (Fonte: Chiesi 1999)................................................................................................................................239 Tabella 21: Corrispondente matrice di adiacenza della tabella 18, considerando gli eventi (Fonte: Chiesi 1999)................................................................................................................................240 Tabella 22: Fasi di intervento progettuale rivolto a comunità Open Peer-to-Peer (Fonte: adattato da Sangiorgi 2004)........................................................................................................266

11


12


indice dei grafici Grafico 1: Vendite iPod 2003-2005 (fonte: http://en.wikipedia.org/wiki/IPod)............................................74 Grafico 2: Vendite iTunes 2005-2006 (Fonte: http://maddogfog.blogspot.com/2006/02/itunes-song-purchases-plotted-on-graph.html, http://www.apple.com/itunes/1billion/)........................................................................................................74 Grafico 3: Motivi per partecipare in una comunitĂ di software Open Source (Fonte: Kim 2003 )...................................................................................................................................151 Grafico 4: Benefici maggiori ricavati dalla partecipazione in una comunitĂ Open Source (Fonte: Kim 2003)....................................................................................................................................151

13


14


abstract Questa tesi rappresenta una ricerca ed analisi di casi esistenti di reti collaborative, per l'elaborazione di una serie di linee guida progettuali rivolte allla facilitazione dell'emergenza di tali reti. Sono stati ricercati ed analizzati quei casi che, direttamente o indirettamente, si auto-organizzano con principi organizzativi simili a quelli delle comunità Open Source e Peer-to-Peer. Sono quindi reti collaborative che formano comunità Open Peer-to-Peer, per l'attivazione nella risoluzione di un proprio problema, attraverso una collaborazione collettiva aperta a tutti (open) e paritaria (peer-to-peer). In questo modo si costituiscono reti orizzontali non gerarchiche, multilocali, che riescono a collegare reti brevi (ossia l'interesse per la dimensione locale) con reti lunghe (coinvolgendo un numero potenzialmente ampio di partecipanti). La loro caratteristica di comunità permette la creazione di capitale sociale, in grado di generare ulteriori processi di sviluppo locale. Data la loro capacità di auto-organizzazione, possono presentare comportamenti complessi che permettono di affrontare problemi complessi. In questo senso il designer assume un ruolo di facilitatore dell'emergenza di queste comunità, essendo coinvolto in un processo progettuale aperto e paritario (Open Peer-to-Peer). Questo processo di coprogettazione si rivolge alle caratteristiche progettabili che permettono interazione tra i partecipanti e lo sviluppo di una attività condivisa, ossia prodotti, servizi, artefatti comunicativi, che garantiscano ai partecipanti maggiori probabilità di auto-organizzazione. In particolare, l'attivita della comunità può essere co-progettata come un servizio. Le linee guida progettuali riprendono quindi processi elaborati in vari ambiti e soprattutto un processo progettuale tipico delle comunità Open Peer-to-Peer. Attraverso un processo progettuale Open Peer-to-Peer viene quindi co-progettata una organizzazione Open Peer-toPeer. In appendice vengono riportati i casi riscontrati di comunità Open Peer-to-Peer, in quanto rappresentano un esempio della loro possibile estensione in altri ambiti e la loro natura di giacimento di forme organizzative promettenti.

15


16


prima parte: auto-organizzazione Open Peer-to-Peer

17


18


1.

Emergenza delle comunità Open Peer-to-Peer

1.1. Reti collaborative e contesto Open Peer-to-Peer Le reti collaborative rappresentano l'espressione di una forma di organizzazione che si sta diffondendo con crescente velocità e successo, grazie alla sua capacità di affrontare problemi complessi e di coinvolgere un numero potenzialmente elevato di partecipanti. In generale, una rete collaborativa può essere vista come un sistema di connessione e di trattamento delle informazioni che permette a diverse persone di collegarsi tra loro e di organizzarsi per ottenere un risultato1. Nel loro sviluppo, le reti collaborative rappresentano un processo sociale di apprendimento, basato su forme di organizzazione il più possibile decentrate e flessibili; sono cioè sistemi capaci di riconoscere le specificità del contesto, di agire e soprattutto di apprendere dall'esperienza2. La rete è una metafora organizzativa che sta vedendo aumentare la propria diffusione, in quanto rappresenta meglio di altre metafore l'architettura della complessità, riconoscendo l'importanza della partecipazione di un numero potenzialmente elevato di persone. Le reti collaborative rappresentano, quindi, una modalità di cooperazione che, rispetto alle tradizionali forme di cooperazione, risulta amplificata nel numero dei partecipanti e quindi anche nei risultati ottenibili. Forme di cooperazione non sono certamente recenti ma sono sempre esistite; ciò che è interessante notare oggi, come queste forme siano state amplificate a tali livelli da poter essere considerate, in molti ambiti, più promettenti della semplice competizione. Ciò che ha portato all'amplificazione delle forme tradizionali di cooperazione è stata la nascita di due fenomeni nell'ambito dell'informatica e delle telecomunicazioni: da una parte, il movimento del Free Software prima e, in modo maggiore, del software Open Source poi; dall'altra parte l'introduzione di reti di telecomunicazione e soprattutto di software Peer-to-Peer (Peer-to-Peer) per la loro gestione. Questi due fenomeni rappresentano le due facce di una stessa medaglia: forme di organizzazione di reti collaborative in grado di coinvolgere un numero di partecipanti potenzialmente elevato. Sono due fenomeni che si basano principalmente sulla condivisione delle informazioni e dei risultati (open inteso come 'accessibile') con dinamiche relazionali di tipo paritario (Peer-to-Peer, nel senso 'da pari a pari'). Sono questi due concetti che negli ultimi decenni (in particolare, da metà degli anni '90 del secolo scorso) hanno dato luogo alla 1 2

costruzione di reti collaborative sotto forma di comunità, caratteristica questa che amplifica ulteriormente la loro importanza. Questi due concetti, e le forme di organizzazione che sottendono, hanno avuto un notevole successo, tale per cui i loro principi sono stati trasferiti anche in altri ambiti, rispetto al tradizionale ambito dell'informatica e delle telecomunicazioni. Si assiste quindi alla nascita di numerose comunità Open Peer-to-Peer, basate sugli stessi principi, replicabili ed adattabili secondo lo specifico contesto. Comprendere le modalità di organizzazione (o meglio: auto-organizzazione) di tali comunità è un primo passo per poter replicare i loro successi in altri ambiti, costruendo reti collaborative. L'emergenza delle comunità Open Peer-to-Peer è una diretta conseguenza di alcune condizioni presenti nella società attuale, e ricollegabili a tendenze di più lungo corso. Tendenze di innovazione tecnologica ma anche sociali ed economiche. Le comunità Open Peer-to-Peer rappresentano infatti un ottimo esempio di espressione del concetto di individualizzazione attraverso l'attivazione personale, una tendenza di lungo corso che ha inizio con l'Illuminismo. Ma sono anche una conseguenza dell'introduzione delle Information and Communication Technologies (ICT), che hanno rivoluzionato l'economia e la società negli ultimio decenni, con una intensità in continuo aumento. Open Source e Peer-to-Peer nascono proprio in ambito informatico, e il loro sviluppo è stato permesso dalla presenza di Internet. Sono quindi possibili in quanto vi sono dei sistemi distribuiti che le sostengono: la crescente diffusione di questi sistemi può preludere ad una ancor maggior diffusione delle modalità organizzative Open Peer-to-Peer. Infine, sono anche una espressione della presenza di creatività distribuita all'interno della società, ossia di una creatività presente anche al di fuori delle tradizionali discipline professionali creative. L'emergenza del fenomeno della creatività distribuita è stata riscontrata in differenti ambiti e discipline, e salutata generalmente come una possibile fonte di innovazione economica e sociale. Riconoscere la natura di fenomeno di creatività distribuita alle comunità Open Peer-to-Peer può permettere l'utilizzo delle loro modalità di organizzazione anche negli altri ambiti di creatività distribuita, in modo da poterne garantire una maggiore diffusione ed evoluzione.

Manzini, Jegou (2003) Ibidem 19


1.2. Individualizzazione e attivazione Da alcuni anni è venuta via via diminuendo, fino quasi a scomparire, la precedente convergenza della comunità scientifica attorno al termine con cui definire la società contemporanea. Per lungo tempo infatti è prevalso tra gli studiosi il ricorso al termine di società industriale, di società capitalistica o di capitalismo organizzato o anche di società salariata (o salariale), e altri ancora hanno parlato di società fordista o di modello fordista di regolazione sociale. Infine molti altri hanno accettato la definizione di società postindustriale o neoindustriale. Ma tutti, a ben vedere, anche coloro che si sono spinti più avanti nella elaborazione di una denominazione (come coloro che hanno parlato di società della conoscenza o dell'informazione) sono rimasti in realtà nell'alveo di una medesima visione industrialista o produttivista della società. Una concezione, questa, in cui lo sviluppo produttivo, umano e tecnologico, influenza direttamente la struttura della società. Ma, oggigiorno, i forti processi di cambiamento che avvengono intorno a noi rendono la società più fluida e più pragmatica. Per quanto possa sembrare discutibile, si può parlare di una società meno strutturata, o, più esattamente, di una società in via di continua e accelerata ristrutturazione. In questo passaggio si verifica un importante cambiamento di prospettiva: cambia il quadro di riferimento storico-teorico. Ad esempio, Massimo Paci3 effettua una analisi sui cambiamenti attuali del mondo del lavoro e del welfare state basandosi su una prospettiva differente, la tendenza costante all'individualizzazione: "usciamo da una visione della storia europea relativamente recente che ha al suo centro la fase cruciale della società industriale (essendo quelle che l'hanno preceduta e seguita definibili con riferimento ad essa), per entrare in una visione della modernizzazione occidentale di più ampio respiro. Più che alla rivoluzione industriale, come fase di rottura con la società tradizionale, si guarda adesso all'Illuminismo e alle Dichiarazioni, americana e francese, dei diritti dell'uomo. In secondo luogo, mentre nella visione centrata sulla società industriale l'elemento caratterizzante era la costituzione di forti identità e strutture collettive, spostando l'angolo visuale sulla modernizzazione in senso ampio, l'elemento caratterizzante diventa il processo di individualizzazione, come affrancamento dell'individuo dalle appartenenze obbligate"4. Un processo, quindi, di crescita della consapevolezza, autonomia e autodeterminazione universali, che costituisce l'epicentro della modernizzazione occidentale e si manifesta nel crescente grado di autonomia e riflessività della 3 4 20

Paci (2005) Ibidem p.40

popolazione nella società contemporanea. Un processo che sta alla base della diffusione di nuovi tipi di relazioni sociali in un'ampia serie di ambiti, e caratterizzate dalla ricerca di una maggiore libertà e progettualità personale, in un quadro generale di affrancamento da regole e appartenenze prefissate. Si può vedere come le comunità Open Peer-to-Peer rappresentino quindi casi di ricerca progettuale di nuove forme di organizzazione, nuove forme di relazione basate sulla propria autonomia ed auto-organizzazione. In una comunità Open Peer-to-Peer, infatti, vengono valorizzate le caratteristiche individuali, in base alla loro capacità di apportare un contributo alla collettività. L'individualizzazione è anzitutto il processo storico di affrancamento o di emancipazione dell'individuo dalle forme obbligate di appartenenza proprie della società tradizionale o dell'Antico Regime in Europa (la famiglia tradizionale, il lignaggio, il ceto, la denominazione religiosa, il villaggio, perfino l'arte o il mestiere), con i loro vincoli e i loro controlli. Da questo punto di vista, per Paci il principio di individualizzazione è "tuttora attuale e può costituire la chiave per comprendere le difficoltà che conoscono oggi il mondo del lavoro e i sistemi di protezione sociale. Si tratta infatti di chiedersi se l'assetto raggiunto, nella tutela del lavoro e del welfare dalle nostre moderne società industriali, pur avendo permesso il conseguimento di livelli mai raggiunti prima di sicurezza economica e sociale, non contenga elementi di compressione dell'individuo e della sua domanda di autonomia e realizzazione di sé”5. Paci constata infatti che il processo di individualizzazione non è ancora arrivato a conclusione, con il raggiungimento di tutte le persone, ma ha attraversato delle fasi di crescente successo. "È vero che le Dichiarazioni dei diritti miravano ad affermare in generale, i diritti inalienabili e sacri dell'individuo, entro i quali era collocato, senza alcuno status particolare il diritto di proprietà. Tuttavia, il diritto di proprietà ha svolto una funzione discriminatoria di fatto, perché solo alcuni cittadini (coloro che già disponevano della proprietà) potevano agirlo (o erano rispetto ad esso nelle condizione di un effettivo empowerment). Dunque, per tutta la fase di affermazione della società industriale, il processo di individualizzazione ha riguardato essenzialmente i ceti proprietari borghesi. Sono questi ceti che hanno potuto praticare i nuovi spazi di libertà, civili e politici, offerti dalle Costituzioni repubblicane. La proprietà di cui disponevano offriva loro una sicurezza di fondo in grado di prendere il posto delle forme di protezione sociale premoderne (di lignaggio, ceto e chiesa), che adesso erano entrate in crisi. Anche per la massa dei proletari, privi di proprietà, che andavano a formare l'esercito della forza lavoro industriale, le Dichiarazioni dei diritti 5

Ibidem p.14


permettevano, in linea di principio, la liberazione dalle appartenenze obbligate tradizionali (di famiglia, di chiesa, di villaggio, ecc.), ma questo li gettava di fatto in uno stato di insicurezza sociale permanente. [...] Sarà solo a seguito di un lungo e faticoso processo di conquista dei diritti sociali e del lavoro, reso possibile dalla aggregazione di classe o di categoria e dallo sviluppo del movimento sindacale e politico dei lavoratori, che si riuscirà a supplire alla mancanza originaria della proprietà privata da parte della grande massa dei cittadini"6. Con la nascita della società industriale, dunque, il progetto della modernità occidentale (ovvero dell'individualizzazione) si realizza solo a metà. La grande massa dei lavoratori dovrà passare per una lunga fase di lotte e di conquiste sociali prima di raggiungere un minimo di sicurezza, che permetta anche a loro di affacciarsi alle tematiche della libertà sostanziale e della realizzazione di sé: dalla conquista del diritto di associazione sindacale e dal mutualismo operaio allo sviluppo dei diritti sociali e del lavoro, fino alla costruzione del welfare state. L'avvento della grande fabbrica taylor-fordista e della sua organizzazione gerarchica ha comportato, per tutta una generazione di lavoratori, l'abbandono delle iniziali speranze di affermazione lavorativa personale. Le gerarchie fordiste rendevano estremamente difficile (se non impossibile) una libera evoluzione della propria professione, tendendo invece a mantenere fisse le occupazioni dei propri lavoratori (e avendo quindi un lato positivo non trascurabile). Ad ogni modo, questa fase centrale della società industriale, la realizzazione del welfare state e la situazione di (quasi) piena occupazione hanno permesso alle famiglie operaie di sperimentare una condizione di sicurezza sociale e di sviluppo dei consumi, mai conosciuta in precedenza. Nella fase fordista della modernità, quindi, la struttura rigidamente gerarchica della divisione del lavoro e un regime di consumo di massa (quindi massificato, senza una ampia libertà di scelta e personalizzazione), pur ampliando le possibilità individuali, tendono a chiuderne altre: "è come se il soggetto storico della modernizzazione, caduto nelle panie dei consumi, ne restasse momentaneamente assuefatto, dimenticando le sfide più alte, sul piano della autorealizzazione lavorativa e della effettiva capacità di controllo della propria vita"7. Anche la famiglia è stata interessata dal crescente processo di individualizzazione. La famiglia nucleare moderna è stata a lungo (è in molti paesi è ancora) arroccata attorno al modello del male breadwinner, nel quale le donne (mogli e madri) e i figli non sono padroni delle proprie vite: in cambio di una relativa sicurezza economica, essi hanno dovuto spesso rinunciare o ritardare la ricerca di una piena realizzazione di sé. Come appena detto, la grande azienda industriale, nonostante abbia 6 7

Ibidem p.42-43 Ibidem p.45

garantito ai capifamiglia adulti una (relativa) stabilità dal punto di vista economico e lavorativo, ha anche imposto loro di rinunciare, nella maggior parte dei casi, alla piena espressione delle loro attitudini e dei loro talenti personali, schiacciandoli all'interno della organizzazione taylor-fordista del lavoro. Quanto, infine, al welfare state delle grandi associazioni sociali obbligatorie, nato sulle ceneri delle forme ben più partecipate del mutualismo operaio, esso è stato (ed è ancora) caratterizzato da forti elementi di centralizzazione burocratica e di particolarismo categoriale, che hanno portato ad obliterare ogni residuo rapporto individuale diretto, di natura contrattuale, che pure esisteva in origine tra il lavoratore e il sistema delle assicurazioni sociali. Dopo, quindi, un lungo corso di tempo, con gli attuali cambiamenti, solo oggi il messaggio di libertà sostanziale contenuto nell'idea di individualizzazione può essere avviato a effettiva realizzazione per tutti i cittadini. Le comunità Open Peer-to-Peer rappresentano quindi non un semplice esempio di cosa sia il processo di individualizzazione, ma un momento fondamentale del suo sviluppo. Oggi nel mondo del lavoro si assiste ad intensi cambiamenti, il più evidente dei quali è l'emergere di un consistente settore di lavoratori “atipici”. Questo cambiamento deve essere ancora pienamente decifrato, ma esso comprende la possibilità di restituire al singolo lavoratore una maggiore capacità di autorealizzazione professionale. Certo, esso è strettamente connesso con la flessibilizzazione delle strutture produttive e, perciò stesso, è spesso più subito che scelto. E non vi sono dubbi che l'indebolimento delle precedenti forme di tutela del lavoro, sul piano legislativo e contrattuale, comporta per molti un aumento della precarietà e dell'incertezza. D'altra parte è anche vero che questo sentimento di insicurezza sembra costituire, oggi, un fenomeno generale o trasversale, che coinvolge ampie fasce di lavoratori, indipendentemente dalla precarietà del rapporto di lavoro in cui sono inseriti. Contemporaneamente, mentre all'interno del mondo del lavoro assistiamo a questa nuova partizione tra lavoro tipico e atipico, al suo esterno emergono nuove forme di attività fuori mercato socialmente riconosciute. Si tratta prevalentemente del lavoro familiare di cura e del lavoro volontario di impegno civile e sociale, tramite la concessione di una indennità economica, o il conferimento di provvidenze fiscali o previdenziali, o anche l'avvio di misure che ne favoriscano la conciliazione con lo svolgimento di un lavoro per il mercato. Questa crescita delle forme di lavoro non standard (cioè dei lavori atipici e delle attività socialmente riconosciute) è stata favorita grandemente dall'avvento della società dei servizi. È come se dal concetto generale di inattività della popolazione cominciasse a

21


districarsi un insieme di attività che, pur restando fuori dal mercato, acquistano una loro autonomia e una identità paralavorativa. Gran parte di queste attività, come molti dei lavori atipici, ricadono tuttora fuori del sistema vigente di protezione sociale e di tutela del lavoro. Ma ciò che a Paci importa sottolineare, forse, è che anche in questo sviluppo delle attività fuori mercato è possibile vedere aspetti conformi al processo di individualizzazione, nel senso che la legittimazione sociale di questa attività, prima misconosciute, aumenta i margini di libertà dell'individuo il quale desideri impegnarsi in esse. Siamo di fronte quindi alla scomparsa di un sistema in cui esisteva una netta cesura tra lavoro e attività (o inattività) della popolazione. Si sta delineando una via intermedia, di articolazione tra lavori tipici, lavori atipici, attività fuori mercato socialmente riconosciute ed altre attività lasciate alla sfera privata e personale. Questo esito, naturalmente, pone una sfida agli attuali sistemi di tutela del lavoro, che sono stati in larga misura ritagliati sulla figura del lavoro di mercato “tipico” (a tempo pieno e indeterminato). In questa situazione, in cui si espandono le forme non standard di lavoro, acquista concretezza l'ipotesi dello sviluppo di una società pluriattiva. Tramite la flessibilità dell'orario di lavoro, i congedi, il lavoro part-time, le politiche di conciliazione tra famiglia e lavoro, il pensionamento graduale e l'alternanza tra lavoro e altre attività nell'arco della vita (tutte misure, queste, in espansione in molti paesi europei), si creano le condizioni per un aumento dei margini di autonomia dell'individuo che voglia dedicare il suo impegno al lavoro e ad altre attività o sfere della vita. Paradigmatico di questo cambiamento è quanto accade, in alcuni paesi europei, in tema di pensionamento graduale (o “invecchiamento attivo”). In questi paesi, infatti, si assiste ad una graduale flessibilizzazione e individualizzazione del passaggio dal tempo di lavoro al tempo di pensionamento. La cesura tra l'essere lavoratori e l'essere pensionati si fa più labile, nell'ambito di un passaggio a un sistema che valorizza la riappropriazione da parte dell'individuo delle scelte relative alla durata della propria vita lavorativa e ai rapporti tra lavoro ed altre attività. Una società riattivateli, dunque, compatibile con le istanze del processo di individualizzazione, inizia lentamente a districarsi dai vincoli preesistenti e da norme rigide e costrittive, relative al tempo di lavoro, aprendo un campo di azione fino ad oggi limitato se non precluso. Ad ogni modo, non esiste una contraddizione, a livello motivazionale, tra l'impegno nelle attività socialmente utili, come il lavoro di cura o quello volontario resi al servizio degli altri, e il processo di individualizzazione come realizzazione di sé. Certo, queste forme di attività fuori mercato sono oggi socialmente riconosciute anche per le loro motivazioni altruistiche e per la fondamentale relazione simpatetica che si stabilisce tra il provider e il fruitore del servizio. 22

Ma è solo confondendo l'individualizzazione con l'individualismo egoistico di mercato che è possibile ritenere che esista una contraddizione, a livello motivazionale, tra queste attività e il processo di individualizzazione, il quale ricopre uno spazio sociale più ampio rispetto ai comportamenti competitivi di mercato, essendo connotato come processo di libera realizzazione di sé in ogni sfera della vita. Per quanto riguarda in particolare il lavoro volontario, di impegno civile e sociale, è proprio l'aspirazione diffusa di auto realizzazione personale che fornisce oggi una delle spinte motivazionali principali per entrare a far parte di iniziative di lavoro volontario, trovando gratificante aiutare il prossimo, sicché il fenomeno dell'individualizzazione contemporanea si rivela un terreno favorevole per la coltivazione di attività solidali. Si comprende, quindi, come la comunità Open Peer-to-Peer siano espressione di queste caratteristiche, dato che sono basate su una partecipazione volontaria, nella maggior parte non remunerata finanziariamente, dove i partecipanti apportano un contributo personale secondo le proprie capacità e risorse. “Dunque, ci troviamo di fronte alla nascita di una società attiva (o anche pluririattiva): una società cioè dei lavori di mercato e delle attività fuori mercato socialmente riconosciute. Essa è caratterizzata da una frantumazione tipologica del lavoro di mercato (che deve essere ancora pienamente decifrata nei suoi aspetti regressivi o progressivi) e dalla crescita di modalità di impegno fuori mercato, che reclamano un riconoscimento giuridico ed una valorizzazione economica e sociale. [...] In questa società attiva (o pluriattiva), si avvierebbe allora a superamento il paradosso delle società ricche [...] in cui alla crescita della ricchezza nazionale si accompagna quella dei bisogni sociali insoddisfatti a causa dei problemi che incontrano l'offerta privata e quella pubblica di servizi. In essa sarebbe possibile, in ipotesi, un nuovo tipo di piena occupazione: una piena occupazione a due settori, nel lavoro di mercato e nelle attività fuori mercato, che non sarebbe più limitata di fatto ai soli capifamiglia, ma potrebbe coinvolgere tutti i cittadini in età di lavoro. Alla famiglia nucleare ad un reddito (quello appunto del male breadwinner) si sostituirebbe quella a più redditi, a seconda dell'impegno dei coniugi (e degli altri membri adulti della famiglia), a tempo pieno o a tempo parziale, nel lavoro di mercato e/o nelle attività fuori mercato socialmente riconosciute. In un assetto societario di questo tipo, la libertà di scelta e di realizzazione di sé del cittadino attivo, troverebbe certo una più diffusa possibilità di attuazione”8. Una società attiva (o pluriattiva) rappresenta forse il contesto migliore per la nascita e lo sviluppo di comunità Open Peer-to-Peer, di cui può essere riconosciuto quindi lo status di attività. Ma la distruzione dei legami costrittivi della società tradizionale, effettuata dalla individualizzazione, porta anche alla distruzione del loro lato positivo, la funzione cioè di supporto tramite la sicurezza sociale. 8

Ibidem p.20-21


L'insicurezza economica e sociale e, più in generale, il sentimento di incertezza del futuro sono diventati quindi assai diffusi, se non endemici nella società contemporanea. Questo avviene sia a seguito dell'avvento di nuovi rischi, prima sconosciuti, come quelli legati all'inquinamento o alle catastrofi ambientali, sia a seguito della trasformazione dei rischi sociali tradizionali: questi ultimi infatti perdono la loro natura di rischi veri e propri (cioè la loro natura aleatoria e circoscritta) per diventare minacce diffuse, alle quali difficilmente ci si può sottrarre e che, una volta sopraggiunte, perdurano a lungo. Le malattie diventano degenerative; la disoccupazione e l'inoccupazione involontaria diventano di massa e di lunga durata; la vecchiaia è ormai una lunga fase della vita, accompagnata quasi certamente, oltre una certa età, dalla non autosufficienza. A riguardo Bauman afferma: "la storia della modernità può essere interpretata come una ricerca incessante del giusto equilibrio tra libertà e sicurezza, di un "punto di conciliazione", postulato ma sempre non ancora raggiunto tra queste due condizioni, tra questi due aspetti della condizione umana, che sono allo stesso tempo contraddittori e complementari"9. È quindi una visione di lungo periodo, nella quale assistiamo ad una sostanziale instabilità dei sistemi di protezione sociale, alla continua ricerca di un equilibrio tra l'esigenza di emancipazione dalle forme di protezione date e quella di una rinnovata sicurezza contro i rischi della vita. Il processo di individualizzazione innesca prima o poi un rinnovato bisogno di sicurezza, come afferma Paci: "esiste dunque un legame, un rapporto diretto tra la crescita della libertà individuale e l'esigenza di sicurezza sociale. Maggiore è la libertà, come libertà dai precedenti legami sicuritari, e maggiore è l'esigenza di nuova sicurezza. D'altra parte, più cresce la sicurezza, nelle sue nuove forme e istituzioni, e più essa sembra destinata, prima o poi, a fare i conti con il processo di individualizzazione e la sua ricerca di libertà. Da questo punto di vista si può parlare, in prima approssimazione, di una dialettica storica tra libertà e sicurezza"10. Le comunità Open Peer-toPeer rappresentano quindi una forma di riduzione dell'incertezza e del rischio, combinando l'individualizzazione con la creazione di nuove relazioni sociali. È per questo motivo che le reti collaborative Open Source e Peer-to-Peer tendono a costituire delle comunità: per garantire la libertà personale (open significa anche libertà di scelta riguardo a sè e come partecipare) e al contempo ricreare delle relazioni sociali. Questi cambiamenti nei rischi sociali mettono sotto stress il sistema di welfare: in particolare entra in difficoltà finanziaria il sistema dei trasferimenti istituito per fronteggiare i vecchi rischi e sorge l'esigenza di sviluppare un sistema di servizi sociali e personali più complesso e costoso. I nuovi rischi Bauman, Z. (2001), La società individualizzata. Come cambia la nostra esperienza, Il Mulino, Bologna, p.73 cit. in Paci (2005) p.48-49 10 Paci (2005) p.50 9

sociali, infatti, hanno un elemento idiosincratico e personale, che i vecchi rischi più standardizzati non avevano: oggi molte delle risposte necessarie per contrastare questi rischi reclamano una erogazione di servizi ad hoc, dotati della flessibilità necessaria per offrire prestazioni personalizzate. Paci parla in proposito di una "individualizzazione dei rischi sociali", effettuando comunque una precisione: "tuttavia, il rapporto tra il processo storico di individualizzazione e l'emergere di questi nuovi rischi non è diretto. Questi rischi infatti discendono innanzitutto da fattori d'ordine economico o demografico: così è, ad esempio, per la disoccupazione e la precarizzazione del lavoro o per l'invecchiamento e la non autosufficienza. Solo indirettamente essi possono essere ricollegati al processo storico di individualizzazione e cioè come conseguenza dell'indebolimento, che tale processo comporta, delle vecchie modalità di protezione sociale, dalle quali gradualmente l'individuo si affranca. Certamente, incrinandosi le vecchie forme di protezione sociale (come la famiglia del male breadwinner, la grande azienda industriale o il welfare state assicurativo), aumenta l'esposizione ai rischi e l'incertezza del futuro, come fenomeno generale che attraversa le nostre società. Ma è solo in connessione con i cambiamenti economici e demografici che abbiamo ricordato che prendono corpo i nuovi rischi sociali specifici.” La situazione nella quale siamo entrati, dunque, è caratterizzata da una inadeguata copertura sociale dell'attuale sistema di welfare. Questo si verifica, certo, per i cambiamenti economici e demografici in corso e per l'emergere di nuovi rischi che ricadono fuori delle tutele e dei programmi sociali esistenti. Ma questo accade anche, e forse soprattutto, perché la stessa società è in movimento, sospinta dalle esigenze di libertà sostanziale del cittadino connesse con il processo secolare di individualizzazione. Alcuni dei pezzi necessari a comporre il mosaico di un nuovo modello di welfare state sono oggi stati introdotti, sia pure in ordine sparso, in Europa e il concetto di active and dynamic welfare state ('stato sociale attivo') accolto nelle conclusioni del summit di Lisbona del 2003 è particolarmente suggestivo e risponde a questa domanda: alla nascita della società attiva può corrispondere quella di stato sociale attivo? Secondo Paci, per molti segni, la risposta a questa domanda è positiva: “l'idea di un active welfare state appare certamente interessante. Essa comporta innanzitutto una concezione promozionale o abilitante dell'intervento pubblico, che è diretto adesso a favorire una maggiore responsabilità e un maggior empowerment del cittadino. Secondo questo approccio, il cittadino non deve essere essenzialmente protetto nei momenti di difficoltà: egli deve essere messo in grado di costruirsi una propria vita, un proprio percorso di inserimento lavorativo e sociale. (E, da questo punto di vista, il principio informatore delle politiche di attivazione appare chiaramente congruente con le istanze provenienti dal processo di individualizzazione.)”11. 11 Ibidem p.24 23


“Ma il passaggio tendenziale verso il nuovo active welfare state si manifesta pienamente quando lasciamo il terreno tradizionale delle tutele del lavoro e dei trasferimenti a sostegno del reddito ed entriamo in quello dei servizi sociali, dell'inserimento sociale e lavorativo e della formazione. È su questo terreno che il sistema di protezione sociale è chiamato oggi a dare risposta, non solo ai nuovi rischi sociali indotti dai mutamenti economici e demografici, ma anche e soprattutto alla domanda di libertà sostanziale del cittadino, come possibilità di contare di più nel rapporto con l'amministrazione pubblica e di realizzare se stessi. Non a caso questo passaggio è accompagnato ovunque in Europa da un netto spostamento del baricentro del sistema di protezione sociale verso servizi decentrati sul territorio, a più diretto contatto con la domanda sociale e quindi con la possibilità di offrire risposte maggiormente personalizzate. È in questo quadro che hanno preso piede le misure di attivazione dei cittadini, come disoccupati o come beneficiari in genere di prestazioni sociali. Secondo questo approccio il cittadino non deve solo essere protetto nei momenti di difficoltà, ma deve anche essere messo nelle condizioni di inserirsi (o reinserirsi) nel lavoro e nella società, partecipando attivamente a questo processo”12. La nostra società si trova ora in una fase di transizione, su cui Paci, dopo un'attenta analisi delle proposte portate avanti anche da altri autori, formula tre ipotesi. "La prima è quella secondo cui siamo ancora nel pieno della fase di indebolimento delle istituzioni di protezione sociale preesistenti (la famiglia nucleare classica; la grande impresa fordista; il welfare state assicurativo-risarcitorio), con il conseguente diffondersi di sentimenti di rischio e di incertezza. La seconda ipotesi, invece, intravede la fine di questa fase di incertezze, ma in direzione di una vera e propria regressione storica, di un ritorno all'indietro, verso forme illiberali e costrittive di protezione proprie di società olistiche che pensavamo ormai superate. Anche per la terza ipotesi, infine, si intravedono oggi i segni di una uscita dalla attuale situazione, ma si tratta di una uscita progressiva, in direzione di un nuovo e più avanzato equilibrio tra le istanza di libertà individuale e di sicurezza collettiva"13. Le comunità Open Peer-to-Peer, rappresentando sia la piena espressione individuale che la costruzione di relazioni sociali in grado di ridurre il rischio, possono rappresentare un elemento fondamentale nel raggiungimento di questa terza ipotesi.

1.3. Governance: da provider ad enabler La tendenza costante all'attivazione e al desiderio di partecipazione può essere anche riscontrata nella gestione delle questioni urbane, dove un 12 Ibidem p.29 13 Ibidem p.51 24

numero sempre maggiore di persone, ricoprendo differenti ruoli e interessi, reclama un maggiore ascolto. Nel discorso comune, quando si parla di governo della città , si intende sia l'istituzione pubblica che ha l'autorità di governare una certa area, sia le attività poste in essere per implementare le decisioni di questa istituzione. In ogni Stato nazionale esistono istituzioni decentrate che permettono alle comunità locali e alle città di autogovernarsi, con gradi diversi di autonomia dal governo centrale. In inglese esistono due parole diverse, local government, con cui si intende il governo in quanto istituzione, e governance che viene usata quando ci si riferisce all'attività che tale istituzione pone in essere. Da un modello che vedeva al centro l'istituzione locale – in Italia, il Comune – come principale, se non esclusivo, attore dell'attività di governo, a un modello che comprende diversi attori, gruppi e sistemi di relazioni, e la cui capacità di governo deriva da meccanismi di negoziazione e di coordinamento tra diverse organizzazioni, pubbliche e private. La definizione di governance data nel Programma di Sviluppo delle Nazioni Unite è: "l'esercizio dell'autorità politica, economica ed amministrativa nella gestione degli affari di un paese ad ogni livello. Governance comprende i complessi meccanismi, processi ed istituzioni attraverso i quali i cittadini e i gruppi articolano i loro interessi, mediano le loro differenze ed esercitano i loro diritti ed obblighi legali [...] Governance include lo Stato, ma lo trascende includendo il settore privato e la società civile"14. In sintesi si trovano qui tutti gli elementi che caratterizzano i modelli di governance: "pluralità di attori e di interessi che entrano in gioco, forme di autoregolazione sociale sulla base delle quali si arriva al coordinamento e alla collaborazione tra gli attori, ridefinizione del ruolo dell'ente pubblico che diventa facilitatore, enabler, di tali forme, invece che provider, cioè fornitore di regole e di servizi"15. Tale stile di governo viene ritenuto preferibile ed auspicabile per alcune ragioni. In primo luogo si sostiene che il governo locale, come istituzione pubblica chiamata a decidere e implementare le politiche pubbliche, mostri crescenti difficoltà nell'affrontare da solo questi compiti in società che sono sempre più complesse e frammentate. Da qui la necessità di coinvolgere direttamente una molteplicità di soggetti e di interessi nei processi di negoziazione che determinano le politiche pubbliche. In secondo luogo si ritiene che assetti di governance costituiscano la risposta all'emergere e al consolidarsi di una domanda sempre più consistente e articolata di partecipazione ai processi decisionali da parte della società civile, cioè di organizzazioni di interessi, gruppi sociali e associazioni. Queste costituirebbero una risorsa in grado di aprire il processo decisionale a una 14 Vicari Haddock (2004) p.95 15 Ibidem p.96


maggiore democraticità, specialmente in presenza di una crescente disaffezione verso i partiti come forme di rappresentanza democratica e di mediazione degli interessi. In terzo luogo le politiche calate dall'alto, secondo un approccio topdown, si sarebbero rilevate scarsamente efficaci; di conseguenza avrebbe acquistato maggiore legittimità un approccio dal basso, bottom-up, basato sulla interazione tra gli attori interessati e la costruzione negoziale del consenso. Per comprendere maggiormente il passaggio dal government alla governance è necessario guardare alle recenti trasformazioni nell'economia, nella politica e nella società, che hanno portato a queste nuove configurazioni di governo. Le città occidentali hanno goduto di un lungo periodo di sviluppo a partire dalla fine della Seconda Guerra mondiale, dal 1945 al 1975, con una crescita intensa dell'economia, sulla base di uno specifico modo di regolazione dei rapporti tra società, economia e politica. Tale modo di regolazione viene chiamato "patto keynesiano-fordista", poiché trae i suoi principi strutturanti dall'organizzazione della produzione industriale su grande scala e dal ruolo dello Stato nella società. In quel periodo la grande industria manifatturiera caratterizzava il sistema economico locale, in una società organizzata attorno a due blocchi sociali ben distinti e relativamente omogenei al suo interno: da un lato la grande borghesia industriale e finanziaria e, dall'altro, la massa dei lavoratori della grande industria. Il governo locale svolgeva principalmente il ruolo di erogatore di servizi: istruzione, sanità, assistenza, trasporti, ecc., finanziati con trasferimenti dallo Stato centrale. Mentre lo Stato centrale provvedeva alle scelte più generali di politica economica e di infrastrutturazione che determinavano le condizioni per lo sviluppo industriale, il governo locale agiva nella sfera delle politiche sociali e si preoccupava di garantire, idealmente in modo universalistico ed egualitario, la soddisfazione dei bisogni di base, con maggiore o minore efficacia ed efficienza nei vari paesi europei. Con questa azione a livello locale, si tendeva, inoltre, a prevenire o a diluire il conflitto sociale, dando stabilità ai rapporti tra società, economia e politica. Con il passaggio da un'economia urbana di produzione industriale ad una economia dei servizi, si assiste al progressivo consolidarsi dell'intervento dello Stato sociale che risponde ai crescenti bisogni delle nuove classi medie con l'espansione delle politiche sociali, resa possibile dalle risorse fiscali di cui lo Stato dispone, grazie a ritmi intensi di crescita economica che hanno caratterizzato i decenni del dopoguerra. Attorno agli anni '70 questa configurazione dei rapporti tra società, politica ed economia viene messa in crisi dal rallentamento della crescita economica e dalla crescente internazionalizzazione delle imprese che rende sempre più difficile la tassazione dei profitti e delle rendite finanziarie, riducendo le risorse a disposizione dello Stato mentre, al contempo, si va ampliando la necessità dell'intervento pubblico.

Infatti, la competizione sempre più elevata sui mercati internazionali comporta un incremento dei costi per le imprese, per gli individui e per l'ambiente. Inoltre, la nuova economia dei servizi cresce senza creare sufficiente occupazione per assorbire la disoccupazione prodotta dalla deindustrializzazione e dalla ristrutturazione industriale. La società si va frammentando in gruppi sociali e ceti diversi e il sostegno al modello dello Stato sociale, basato su una forte pressione fiscale, si fa sempre più debole, particolarmente presso i ceti emergenti delle nuove professioni ad alta specializzazione. Il governo della città viene quindi messo sotto tensione poiché si trova a rispondere a domande crescenti della popolazione, pur disponendo di capacità di intervento sempre più limitate, in conseguenza della riduzione delle risorse di cui lo Stato centrale dispone. Si rende quindi necessario reperire risorse aggiuntive, attraverso politiche per la promozione dello sviluppo economico locale, che hanno lo scopo di attrarre nuovi investimenti, pubblici ma soprattutto privati. Con nuova determinazione, le città si muovono, ad esempio, per l'assegnazione di funzioni pregiate che creino occupazione altamente qualificata, quali centri di ricerca di prestigio o sedi di organizzazioni nazionali o internazionali, oppure di eventi quali Olimpiadi o manifestazioni culturali di alto livello, che fungano da enzimi all'attivazione di nuovi processi di economia locale, alimentando i consumi. Per queste risorse, le città si trovano a dover competere le une con le altre, in una economia sempre più internazionalizzata e contrassegnata da una grande mobilità dei capitali e delle persone. Inserirsi nella competizione diventa una necessità, nella misura in cui le dinamiche dell'economia, favorendo alcune città a discapito di altre, incrementano i divari di sviluppo, dopo diversi decenni in cui la crescita economica aveva determinato una riduzione delle disparità tra le diverse aree urbane. La messa in pratica e l'efficacia di politiche di promozione dello sviluppo economico dipendono dalla capacità del governo locale di coinvolgere altri attori e di mobilitare le risorse locali attorno a una strategia specifica di sviluppo. Dipendono quindi dal raggiungimento di accordi e dalla formazione di alleanze, con gradi diversi di formalizzazione, ma sufficiente stabilità per permettere agli attori pratiche di collaborazione ripetute nel tempo e resistenti alle difficoltà che la promozione delle sviluppo può via via incontrare. L'Unione Europea spinge a imboccare la via della collaborazione pubblico-privato con diversi programmi a sostegno dello sviluppo e per la promozione di politiche per l'integrazione e la coesione sociale che contrastino i nuovi processi di marginalizzazione e impoverimento delle fasce deboli della popolazione. A partire dagli anni '80, in molte città europee si rileva un nuovo orientamento di carattere imprenditoriale, denominato entrepeneurialism, da 25


parte delle élite locali, in particolare degli amministratori pubblici, che le porta a costruire alleanze per attrarre risorse extralocali e attivare risorse endogene. Gli amministratori locali si fanno imprenditori: i governi locali, soprattutto delle grandi città, ma anche di alcune città medie, si alleano con gruppi privati, principalmente banche, gruppi immobiliari, imprese di costruzione e associazioni di categoria, per formare società o agenzie miste per la trasformazione di parti rilevanti della città, aree industriali dismesse o periferie, oppure per la costruzione di infrastrutture o di grandi progetti. Nel quadro di questo nuovo orientamento imprenditoriale si rende necessario attivare politiche di marketing urbano, cioè attività di comunicazione e promozione della città, in quanto "prodotto" da vendere, rispetto a potenziali investitori, locali, nazionali o internazionali. Sempre più frequentemente avviene che il governo della città dipenda, oltre che dalle istituzioni formali, anche dal coinvolgimento di altri attori pubblici, quali rappresentanti dello Stato nelle sue varie articolazioni locali, e privati, quali grandi imprese, rappresentati degli interessi e delle categorie produttive, centri di ricerca, associazioni e gruppi attivi localmente. Sono quindi visibili, nelle città europee, meccanismi alternativi di negoziazione tra diversi gruppi, reti, sottosistemi che rendono possibile l'azione di governo, grazie ai quali si sviluppano forme di governance dalla varia configurazione. Queste forme sembrano però limitate, frammentate e ancora poco consolidate16. Gli attori pubblici, governo locale o centrale, tendono ancora ad avere un ruolo guida, all'interno di un quadro dove rimangono molto influenti sulla scena locale le scelte politiche nazionali. Inoltre, le élite economiche locali si mostrano poco inclini a entrare in forme istituzionalizzate di collaborazione e di alleanze stabili. Quando si sviluppano alleanze o parternariato, queste forme tendono a essere ristrette alla formulazione e implementazione della politica economica, mentre l'azione del governo locale continua a essere prevalentemente indirizzata verso la fornitura dei servizi, sia nelle forme tradizionali di gestione diretta, sia con modalità nuove. Si assiste quindi alla coesistenza e articolazione tra una forma tradizionale di government e forme ancora sperimentali di governance. Le città europee si trovano, oggi, a sperimentare limitate forme di governance all'interno di un quadro in cui il governo locale, il comune, mantiene ancora forti capacità di regolazione e potere di iniziativa. Il settore pubblico, locale e centrale, vi gioca ancora un ruolo centrale, soprattutto quando confrontiamo le città italiane ed europee con le esperienze delle città americane e le loro forme strutturate e stabili di governance, ove il coordinamento e la collaborazione tra gli attori pubblici e privati si mantiene nel tempo e si riflette in una aumentata capacità di azione di governo.

16 Ibidem 26

Il passaggio da una tradizione di government a una di governance è quindi presente in una fase di transizione all'interno della nascita di una società attiva, come descritto da Paci17. Una fase di transizione che testimonia la crescente tendenza delle persone ad impegnarsi attivamente, sia in ambito lavorativo che al di fuori di questo, reclamando dalle istituzioni una forte attenzione, attraverso un active welfare e una governance che le veda co-protagoniste. Le comunità Open Peer-toPeer rappresentano un modo promettente per reclamare un ruolo attivo nella società, che necessita quindi la presenza di enti che agiscano come facilitatori (enabler) e non come semplici (e castranti) regolatori e fornitori (provider).

1.4. Tecnologia, reti e informazionalismo L'avvento delle comunità Open Peer-to-Peer va contestualizzato anche nell'ambito della rivoluzione tecnologica del mondo delle comunicazioni degli ultimi trent'anni. I fenomeni del software Open Source e Peer-to-Peer, infatti, sono una diretta discendenza delle invenzioni e applicazioni delle nuove tecnologie di trasmissione e conservazione delle informazioni. E i casi Open Peer-to-Peer ante litteram o basati su tecnologie low tech, sono stati osservati con rinnovato interesse proprio in seguito al successo dei casi del software Open Source e Peer-to-Peer. Bisogna quindi analizzare, seppur brevemente, come le ICT influenzino la società attuale, rendendo ancora più importante la conoscenza come fattore economico, per poter poi capire in che modo le comunità Open Peer-to-Peer possano a loro volta influenzarla. In questo contesto risulta quindi fondamentale l'opera di Manuel Castells, che rappresenta forse l'analisi più importante sull'argomento.

1.4.1. La network society Descrivendo la società attuale, Castells parla di network society, ovvero di "una struttura sociale composta di network informazionali alimentati dalle tecnologie dell'informazione caratteristiche del paradigma informazionalista"18. Per struttura sociale Castells intende "dispositivi organizzativi di esseri umani in rapporto con la produzione, il consumo, l'esperienza e il potere, così come vengono espressi in un'interazione significativa nel contesto di una cultura"19. Castells registra quindi un cambiamento di paradigma tecno-economico, verso un nuovo paradigma informazionalista, dove emergono nuove forme di organizzazione a rete basate sulle nuove tecnologie di comunicazione. Senza l'informazionalismo la network society non potrebbe esistere, tuttavia questa nuova struttura sociale non è un prodotto dell'informazionalismo

17 Paci (2005) p.51 18 Castells (2001) p.124 19 Ibidem p.124


Come tendenza storica, le funzioni e i processi dominanti nell'epoca attuale (che Castells chiama "Età dell'informazione") sono sempre più organizzati intorno a reti. Le reti costituiscono la nuova morfologia sociale della società e la diffusione della logica di rete modifica in modo sostanziale l'operare e i risultati dei processi di produzione, esperienza, potere e cultura. Benché la forma di organizzazione sociale a rete sia esistita in altri tempi e in altri spazi, il nuovo paradigma della tecnologia dell'informazione fornisce la base materiale per la sua espansione pervasiva attraverso l'intera struttura sociale. Con l'informazionalismo le reti hanno acquisito una nuova vita, perché le recenti tecnologie aumentano la flessibilità e allo stesso tempo risolvono i problemi di coordinamento e guida che hanno ostacolato le reti nel corso della storia, nella loro competizione con le organizzazioni gerarchiche. L'operatività delle reti viene condivisa attraverso un processo decisionale che ha luogo lungo i nodi secondo uno schema interattivo. Quando i nodi diventano ridondanti, le reti tendono a riconfigurarsi da soli, eliminando alcuni nodi e aggiungendone di nuovi e produttivi. I nodi accrescono la loro importanza per la rete assorbendo più informazione ed elaborandola in modo più efficiente. L'importanza relativa di un nodo non deriva dalle sue caratteristiche specifiche, ma dalla capacità di contribuire alla rete con informazioni di valore. In questo senso, i nodi principali non sono centri ma commutatori e protocolli di comunicazione, nella cui prestazione seguono una logica di rete piuttosto che di dominio. Inoltre, secondo Castells, la logica di rete induce una determinazione sociale di livello superiore rispetto a quello degli interessi sociali specifici espressi nelle reti: "il potere dei flussi afferma la sua priorità sui flussi del potere"20La presenza o l'assenza all'interno di una rete e le dinamiche di ciascuna rete nei confronti delle altre rappresentano fonti critiche del dominio e del cambiamento nella nostra società: una società che, pertanto, può essere, a ragione, definita società in rete, caratterizzata dalla preminenza della morfologia sociale rispetto all'azione sociale. La network society si espande attraverso tutto il nostro pianeta come forma dominante di organizzazione sociale della nostra epoca. Da dove proviene questa network society? Essa è emersa, nell'ultimo quarto del XX secolo, dalla coincidenza accidentale di tre fenomeni indipendenti. Il primo è stato la rivoluzione dell'information technology, la cui componente chiave è arrivata come nuovo paradigma tecnologico negli anni '70. Castells richiama questi eventi: creazione di Arpanet, 1969; di Usenet News 1979; del circuito integrato, 1971; dei personal computer, 1974-76; dei software: i codici Unix progettati nei tardi anni '60, ma fatti uscire nel 1974; dei protocolli TCP/IP, progettati nel 1973-78; del DNA ricombinante, 1973. Le rivoluzioni tecnologiche hanno la caratteristica comune nella diffusione pervasiva, ossia nella capacità di penetrazione in tutti i campi 20 Castells (1996) p.535

dell'attività umana. In altri termini, oltre a generare nuovi prodotti, le rivoluzioni tecnologiche sono orientate al processo. A differenza di qualsiasi altra rivoluzione, però, il nucleo della trasformazione che la società sta vivendo con la rivoluzione attuale riguarda le tecnologie di elaborazione e comunicazione delle informazioni. Per Castells, "la tecnologia dell'informazione sta a questa rivoluzione come le nuove fonti di energia stavano alle rivoluzioni industriali che si sono susseguite, dalla macchina a vapore all'elettricità, ai combustibili fossili e persino all'energia nucleare, in quanto la generazione e la distribuzione dell'energia sono state l'elemento chiave alla base della società industriale"21. La peculiarità della rivoluzione tecnologica attuale consiste non nella centralità della conoscenza e dell'informazione, ma nell'applicazione della conoscenza e dell'informazione a dispositivi per la generazione della conoscenza e per l'elaborazione/comunicazione dell'informazione, in un ciclo di feedback cumulativo tra innovazione e usi dell'innovazione. La seconda tendenza è rappresentata dal processo di ristrutturazione socioeconomica dei due sistemi in competizione, il capitalismo e lo statalismo, che hanno dovuto far fronte a grosse crisi dovute alle loro contraddizioni interne nel periodo 1973-75 (capitalismo) e nel 1975-80 (statalismo). Entrambi hanno indirizzato le loro crisi varando nuove politiche governative e nuove strategie aziendali. La ristrutturazione capitalista ha funzionato, mentre nello statalismo è fallita a causa dei suoi limiti intrinseci nell'interiorizzare e usare la rivoluzione rappresentata dall'information technology. Secondo Castells, il capitalismo è stato capace di superare la propria tendenza strutturale verso l'inflazione incontrollata e distruttiva attraverso la produttività informazionale, la deregulation, la liberalizzazione, la privatizzazione, la globalizzazione e il networking, ponendo le basi economiche della network society22. La terza tendenza posta alle origini di questa nuova società è culturale e politica, e si riferisce ai valori progettati dai movimenti sociali alla fine degli anni '60 e dei primi '70 in Europa e in America, nonché da alcune manifestazioni similari in Giappone e Cina. Questi movimenti furono fondamentalmente libertari, anche se il movimento femminista e quello ambientalista hanno esteso il concetto di libertà fino a sfidare le fondamenta delle istituzioni e delle ideologie del patriarcato e del produttivismo. Questi movimenti furono culturali perché non si concentrarono sulla presa del potere statale o sulla redistribuzione della ricchezza. Invece essi hanno agito sulle categorie dell'esperienza respingendo le istituzioni ufficiali, alla ricerca di nuovi significati della vita e, conseguentemente, di una ridefinizione dei contratti sociali tra individuo e Stato, e tra individuo e mondo aziendale. 21 Ibidem p.31 22 Ibidem 27


Questi tre fenomeni sono comparsi indipendentemente l'uno dall'altro. Si è trattato di una coincidenza storica sostanzialmente casuale, così come la loro combinazione specifica in certe società. Ecco perché la velocità e la forma del processo di transizione verso la network society sono diverse negli Stati Uniti, nell'Europa occidentale e nel resto del mondo. Quanto più consolidate erano le istituzioni e le regole della società industriale, o delle società preindustriali, tanto più lento e difficile è stato il processo di trasformazione. Una delle componenti chiave di questa casualità storica è stata l'emersione di un nuovo paradigma tecnologico, l'informazionalismo.

1.4.2. Un nuovo paradigma tecnoeconomico Il tipo di tecnologia che si sviluppa e si diffonde in una certa società ne plasma in maniera decisiva la struttura materiale. I sistemi tecnologici si evolvono gradualmente, finché si verifica un importante cambiamento qualitativo: una rivoluzione tecnologica che introduce un nuovo paradigma tecnologico. Il concetto di paradigma è stato proposto dallo storico della scienza Thomas Kuhn per spiegare la trasformazione della conoscenza attraverso le rivoluzioni scientifiche: "un paradigma è una struttura concettuale che definisce degli standard per una certa performance"23. Esso integra le scoperte in un sistema coerente di rapporti caratterizzati da una sinergia – vale a dire, dal valore aggiunto posseduto da un sistema rispetto alle sue singole componenti. Un paradigma tecnologico organizza la gamma disponibile di tecnologie intorno a un nucleo che accresce la performance di ciascuna di esse. Per tecnologia di solito si intende "l'uso della conoscenza scientifica per stabilire delle procedure volte a conseguire un certo risultato (performance) in una forma riproducibile”24. Per Castells "un paradigma tecno-economico è un grappolo di innovazioni tecniche, organizzative e manageriali interrelate, i cui vantaggi vanno cercati, non solo in una nuova gamma di prodotti e sistemi, ma soprattutto nella dinamica della struttura dei costi relativi di tutti i possibili input di produzione. In ogni nuovo paradigma è possibile descrivere un particolare fattore produttivo o in insieme di input come il "fattore chiave" in tale paradigma da costi decrescenti e disponibilità universale. L'attuale cambiamento di paradigma può essere visto come il passaggio da una tecnologia basata principalmente su input di energia a buon mercato a una tecnologia prevalentemente basata su input di informazione a buon mercato derivanti dai progressi nella microelettronica e nella tecnologia delle telecomunicazioni. Come sappiamo che il paradigma dell'informazionalismo è dominante nei riguardi di 23 Cit. in Castells (2001) p.117 24 Castells (2001) p.117 28

altri paradigmi, per esempio, l'industrialismo? Per Castells il metro di giudizio è rappresentato dal "miglior risultato ottenuto nell'accumulazione di ricchezza e potere. [...] Noi non sappiamo veramente se il fatto di produrre in maniera sempre più efficiente incarni un valore superiore in termini di umanità. L'idea di progresso è una ideologia. Quanto possa essere buono, cattivo o indifferente un nuovo paradigma dipende dalla prospettiva, dai valori o dai punti di riferimento. Ma noi sappiamo che è dominante perché, nel momento in cui viene implementato, esso cancella la competizione per eliminazione. In questo senso, l'informazionalismo è il paradigma dominante delle nostre società, sostituisce e sussume l'industrialismo”25. Ciò che lo caratterizza non è il ruolo centrale della conoscenza e dell'informazione nella generazione di ricchezza, potere e significato. La conoscenza e l'informazione sono state centrali in molte, se non in tutte, le società storicamente conosciute. Ci sono senza dubbio stati parecchi casi di forme diverse di conoscenza, ma essa, compresa quella scientifica, è sempre storicamente relativa. Nel corso della storia la conoscenza e l'informazione, e i loro puntelli tecnologici, sono state strettamente associate alla dominazione politico-militare, alla prosperità economica e all'egemonia culturale. Quindi, in un certo senso, tutte le economie sono basate sulla conoscenza e tutte le società sono fondamentalmente società dell'informazione. Di sicuro negli ultimi due secoli si è verificata un'interazione più stretta, rispetto al passato, tra scienza, tecnologia, ricchezza, potere e comunicazione. Secondo Castells, ciò che contraddistingue il nostro periodo storico è un nuovo paradigma tecnologico introdotto dalla rivoluzione dell'information technology, incentrata su un gruppo di tecnologie dell'informazione. Ciò che vi è di nuovo è la tecnologia dell'elaborazione dell'informazione e il suo impatto sulla generazione e l'applicazione della conoscenza. Questo è il motivo per cui non usa i concetti di economia della conoscenza o di società dell'informazione, bensì l'idea di informazionalismo: un paradigma tecnologico basato sull'accrescimento della capacità umana di elaborazione delle informazioni. Castells fa rientrare nelle tecnologie dell'informazione l'insieme convergente di tecnologie della microelettronica, dell'elaborazione dati (macchine e software), delle telecomunicazioni/trasmissioni, nonché dell'optoelettronica. Inoltre, a differenza i alcuni analisti, include nel dominio delle tecnologie dell'informazione anche l'ingegneria genetica e l'insieme crescente dei suoi sviluppi e delle sue applicazioni. Ciò, non soltanto per il fatto che l'ingegneria genetica si incentra sulla decodificazione, manipolazione e riprogrammazione dei codici di informazione della materia vivente, ma anche perché la biologia, l'elettronica e l'informatica sembrano convergere e interagire nelle loro 25 Ibidem p.118-119


applicazioni, nei materiali e, in modo fondamentale, nel loro approccio concettuale.

più

Intorno a questo nucleo di tecnologie dell'informazione, ha avuto luogo negli ultimi due decenni del XX secolo una costellazione di conquiste tecnologiche riguardanti l'evoluzione dei materiali, le fonti energetiche, le applicazioni mediche, le tecniche di produzione (in corso o potenziali, quali la nanotecnologia), nonché la tecnologia dei trasporti. Inoltre, si assiste a una fase di espansione esponenziale del processo di trasformazione tecnologica in corso, a causa della sua capacità di creare un'interfaccia tra i diversi campi tecnologici attraverso il comune linguaggio digitale in cui l'informazione viene generata, archiviata, scaricata, elaborata e infine trasmessa. Gli impieghi delle nuove tecnologie delle telecomunicazioni negli ultimi due decenni hanno attraversato tre fasi distinte: l'automazione dei compiti, una sperimentazione degli utilizzi, una riconfigurazione delle applicazioni. Nei primi due stadi l'innovazione tecnologica è avanzata tramite il learning by using, nel terzo stadio i fruitori hanno acquisito la tecnologia tramite il learning by doing e hanno finito per riconfigurare le reti e scoprirne nuove applicazioni. Il ciclo di retroazione tra l'introduzione della nuova tecnologia, il suo uso e l'applicazione a nuove attività diventa molto più veloce con il nuovo paradigma tecnologico. La diffusione della tecnologia, di conseguenza, accresce senza fine il potere della tecnologia stessa, a mano a mano che i suoi fruitori se ne appropriano e provvedono alla sua ridefinizione. Le nuove tecnologie dell'informazione non sono semplicemente strumenti da applicare, ma processi da sviluppare. Inoltre, c'è un rapporto stretto tra i processi sociali di creazione e manipolazione dei simboli (la cultura della società) e la capacità di produrre ed erogare beni e servizi (le forze produttive). Per la prima volta nella storia, la mente umana è una diretta forza produttiva, non soltanto un elemento determinante del sistema produttivo. In tal modo, i computer, i sistemi di comunicazione e la decodificazione e programmazione generica rappresentano tutti amplificazioni ed estensioni della mente umana. Un'ulteriore caratteristica contraddistingue la rivoluzione della tecnologia dell'informazione dai suoi precedenti storici: fino ad ora, le rivoluzioni tecnologiche si sono verificate solo in poche società e si sono diffuse in un'area geografica relativamente limitata, spesso in uno spazio e in un tempo separati rispetto alle altre zone del pianeta. Il contatto tra civiltà dai diversi livelli tecnologici spesso si concludeva con la distruzione di quella meno sviluppata o di quella che aveva applicato la propria conoscenza prevalentemente a tecnologie non militari. Le nuove tecnologie dell'informazione, invece, si sono diffuse in tutto il mondo con velocità fulminea in meno di due decenni, tra la metà degli anni '70 e la metà dei '90, presentando una logica caratteristica di questa rivoluzione tecnologica: l'immediata applicazione al suo sviluppo delle

tecnologie da essa generate, collegando il mondo attraverso la tecnologia dell'informazione. In realtà, ampie aree del globo e parti consistenti della popolazione sono escluse dal nuovo sistema tecnologico, e la velocità di diffusione tecnologica, inoltre, è selettiva sotto il profilo sia sociale sia funzionale. Le differenze di accesso al potere della tecnologia di popoli, paesi e aree geografiche costituisce una causa decisiva dell'ineguaglianza della nostra società, creando una divisione, il digital divide, che rischia di ampliare la distanza tra ricchi e poveri. Il paradigma dell'informazionalismo quindi nasce da una rivoluzione tecnologica di notevole portata e si basa sulle tre importanti caratteristiche distintive delle nuove tecnologie, quali la loro capacità autoespansiva di elaborazione, nei termini di volume, complessità e velocità; la loro capacità ricombinante; la loro flessibilità distributiva. La prima caratteristica del nuovo paradigma è che l'informazione rappresenta la sua materia prima: queste tecnologie servono per agire sull'informazione, non solo per far sì che le informazioni agiscano sulla tecnologia, come è accaduto nelle rivoluzioni tecnologiche precedenti. Il secondo elemento tipico del nuovo paradigma fa riferimento alla diffusione pervasiva degli effetti delle nuove tecnologie. Poiché l'informazione è parte integrante dell'intera attività umana, il nuovo medium tecnologico incide profondamente su tutti i processi della nostra esistenza collettiva o individuale. La terza proprietà riguarda la logica a rete di qualsiasi sistema o insieme di relazioni che fanno uso delle nuove tecnologie dell'informazione. La morfologia della rete appare bene adatta alla complessità dell'interazione e agli imprevedibili modelli di sviluppo derivanti dalla forza creativa di tale interazione. Ora, attraverso le tecnologie dell'informazione di recente rese disponibili, è possibile l'implementazione di questa configurazione topologica, la rete, in tutti i tipi di processi e organizzazioni. Senza queste tecnologie, la logica a rete risulterebbe eccessivamente scomoda da applicare. La logica a rete è necessaria per strutturare ciò che appare destrutturato pur mantenendo la flessibilità, perché destrutturata è la forza motrice dell'innovazione nell'attività umana. Inoltre, quando le reti si diffondono, il loro sviluppo diviene esponenziale, in quanto crescono in modo esponenziale i benefici dello stare nella rete, grazie al più grande numero di connessioni, mentre il costo cresce in modo lineare. Gli svantaggi per chi si trova all'esterno della rete aumentano con lo sviluppo della rete stessa, a causa della diminuzione delle opportunità di raggiungere altri elementi esterni alla rete. Il creatore della tecnologia delle reti locali (LAN), Robert Metcalfe, ha proposto nel 1973 una semplice formula matematica che mostra come il valore di una rete cresca esponenzialmente all'aumentare del numero dei nodi nella rete. La 29


formula è V=n della rete26.

(n-1)

, dove n è il numero dei nodi

Il quarto punto, legato all'interconnessione, ma chiaramente distinto, fa riferimento alla flessibilità del paradigma della tecnologia dell'informazione. Non solo i processi sono reversibili, ma, mediante il riassetto delle loro componenti, è possibile modificare, e persino trasformare radicalmente, anche organizzazioni e istituzioni. Il segno distintivo della struttura del nuovo paradigma tecnologico risiede nella sua capacità di riconfigurazione, proprietà fondamentale in una società contraddistinta dal cambiamento costante e dalla fluidità organizzativa. Il capovolgimento delle regole senza distruggere l'organizzazione è diventato una possibilità, perché gli elementi fondamentali dell'organizzazione possono essere riprogrammati e ristrutturati. Ad ogni modo, la flessibilità potrebbe rivelarsi una forza di liberazione ma anche una tendenza repressiva, prova ne è la insicurezza determinata da una eccessiva precarietà dei nuovi lavori atipici. La quinta caratteristica di questa rivoluzione tecnologica è rappresentata dalla crescente convergenza di tecnologie specifiche in un sistema altamente integrato, entro cui traiettorie tecnologiche anteriori e distinte diventano letteralmente indistinguibili. Microelettronica, telecomunicazioni, optoelettronica e computer sono ormai tutti integrati in sistemi informativi. In sintesi, per Castells "il paradigma della tecnologia dell'informazione non si evolve verso la propria chiusura in quanto sistema, ma verso l'apertura in quanto rete multisfaccettata. Esso è potente e imponente nella propria struttura materiale, ma adattivo e aperto nello sviluppo storico. Comprensività, complessità e reticolarità costituiscono le sue qualità determinanti"27.

1.4.3. L'economia dell'informazionalismo Negli ultimi venticinque anni del XX secolo è nata una nuova economia su scala mondiale. Castells la definisce informazionale, globale e interconnessa per identificarne i tratti distintivi e per mettere in rilievo l'intreccio di tali elementi. È informazionale perché la produttività e la competitività di unità o agenti (che si tratti di aziende, regioni o nazioni) all'interno di questa economia dipendono in modo sostanziale dalla propria capacità di generare, elaborare e applicare con efficienza informazione basata sulla conoscenza. È globale in quanto le attività essenziali di produzione, consumo e circolazione, nonché le loro componenti (capitale, lavoro, materie prime, management, informazione, tecnologia, mercati) sono organizzate su scala globale, o in modo diretto oppure attraverso una rete di collegamenti tra agenti economici. È in rete poiché, nelle nuove circostanze storiche, la 26 Castells (1996) p.75 27 Ibidem p.81 30

concorrenza e la produttività hanno luogo in una ragnatela globale di interazione tra reti aziendali. La new economy è emersa negli ultimi venticinque anni del XX secolo perché la rivoluzione della tecnologia dell'informazione ha fornito l'indispensabile supporto materiale alla sua creazione. È proprio il collegamento storico tra la base di informazione-conoscenza dell'economia, con la sua portata globale e la sua forma organizzativa in reti, e la rivoluzione nella tecnologia dell'informazione ad aver dato vita a un sistema economico nuovo. Certamente, informazione e sapere sono sempre state componenti fondamentali della crescita economica e davvero l'evoluzione tecnologica ha ampiamente determinato la capacità produttiva e il tenore di vita, così come le forme sociali di organizzazione economica. Tuttavia, secondo Castells, siamo testimoni di una discontinuità storica: la comparsa di un nuovo paradigma tecnologico organizzato intorno a nuove tecnologie dell'informazione, più potenti e flessibili, permette all'informazione stessa di divenire il prodotto del processo di produzione. I prodotti delle nuove industrie dell'informazione sono dispositivi per l'elaborazione oppure l'elaborazione stessa di informazioni. Le nuove tecnologie dell'informazione, trasformando i processi di trattamento delle informazioni, intervengono in tutte le sfere dell'attività umana e consentono la creazione di infinite connessioni tra campi diversi, nonché tra elementi e agenti di tali attività. Sorge così un'economia interconnessa in rete, profondamente interdipendente, che sempre più acquisisce la capacità di applicare il proprio progresso in tecnologia, conoscenza e gestione a tecnologia, conoscenza e gestione stesse. Un simile circolo virtuoso dovrebbe condurre a più produttività ed efficienza, date le giuste condizioni in cambiamenti istituzionali e organizzativi di pari straordinarietà. L'economia informazionale costituisce un sistema socio-economico distintivo rispetto all'economia industriale, ma la differenza non sta nelle fonti di aumento della produttività. In entrambi i casi, la conoscenza e l'elaborazione di informazioni rappresentano fattori cruciali per la crescita economica. Per Castells "la peculiarità risiede nella comprensione del potenziale di produttività contenuto nell'economia industriale matura grazie allo spostamento verso un paradigma tecnologico fondato sulle tecnologie dell'informazione"28. Il nuovo paradigma tecnologico ha cambiato innanzitutto il campo d'azione e la dinamica dell'economia industriale, creando un'economia globale e promuovendo una nuova ondata di concorrenza tra gli agenti economici esistenti nonché tra questi e una moltitudine di nuovi arrivati. Anche se l'economia informazionale globale è distinta dall'economia industriale, l'una non contrasta la logica dell'altra; la sussume, piuttosto, 28 Ibidem p.106


attraverso l'approfondimento tecnologico, incorporando conoscenze e informazioni in tutti i processi di produzione e distribuzione materiale, sulla base di un gigantesco balzo in avanti in quanto a raggio d'azione e portata di diffusione. In altre parole, o l'economia industriale diventava informazionale o globale, oppure era destinata al crollo, come è successo nell'Unione Sovietica, incapace di inserirsi nel paradigma informazionale sia di perseguire la propria crescita in relativo isolamento rispetto all'economia internazionale. Il passaggio dall'industrialismo all'informazionalismo, quindi, non costituisce l'equivalente storico della transizione dalle economie agricole alle economie industriali, né è possibile equipararlo alla nascita dell'economia dei servizi. Esiste un'agricoltura informazionale, un'industria informazionale e un terziario informazionale, che producono e distribuiscono sulla base di informazioni e conoscenze incorporate nel processo di lavorazione grazie alla potenza sempre maggiore delle tecnologie dell'informazione. Ciò che è cambiato non è il tipo di attività che impegna l'umanità, ma "la sua abilità tecnologica nell'impiegare come forza produttiva diretta ciò che contraddistingue la nostra specie come eccezione biologica: la sua superiorità capace di elaborare simboli"29.

1.4.4. Sistemi distribuiti 1.4.4.1. Natura dei sistemi distribuiti Nelle ultime decadi l'aggettivo distributed ('distribuito') è stato utilizzato con una frequenza crescente in relazioni a differenti sistemi socio economici: information technologies e distributed computing (calcolo distribuito), sistema energetico e distributed generation (generazione distribuita), sistema produttivo e distributed manufacturing (produzione distribuita). Ma anche altri processi come distributed innovation, distributed creativity, distributed knowledge, ovvero la capacità di un numero elevato di agenti dispersi geograficamente di costituire dei sistemi complessi dedicati allo sviluppo di conoscenze e soluzioni a problemi. Infine, anche un nuovo modello economico, la distributed economy. Questi sistemi, pur condividendo gli stessi principi funzionali, sono emersi in differenti periodi e con differente successo e sviluppo, partendo dal distributed computing (il primo caso, ormai pienamente sviluppato) arrivando fino alla distributed economy (concetto di recente introduzione, in fase di sviluppo). Ad ogni modo, ciò che il termine distributed aggiunge al sostantivo è l'idea che questi debba essere considerato come una rete di elementi 29 Ibidem p.107

interconnessi, capaci di operare autonomamente. Quindi, ciò che l'aggettivo distributed indica è l'esistenza di una architettura sistemica orizzontale in cui attività complesse vengono svolte parallelamente da un numero elevato di elementi connessi, che possono essere sia artefatti (distributed computing, distributed generation) che esseri umani (distributed creativity). Le comunità Open Peer-to-Peer si sono formate grazie ad alcuni di questi sistemi, che permettono una azione locale ma al contempo collegata ad una dimensione maggiore, costruendo cioè delle reti. Inoltre, possono vedere aumentare la propria diffusione con l'aumentare della diffusione di questi sistemi: se ora si basano principalmente su ICT e distributed computing, in futuro potrebbero interessarsi di distributed economy o distributed generation. Ezio Manzini vede, nel complesso, l'emergenza di questa architettura distribuita come il risultato di due principali tendenze e di una nuova piattaforma tecnologica30. Le due tendenze sono di natura tecno-economica e socio-culturale: la prima riguarda la ricerca di flessibilità, efficacia, riduzione dei rifiuti, resistenza e sicurezza del sistema; la seconda riguarda la ricerca di creatività, autonomia e responsabilità come inclinazione umana di base, in crescente presenza all'interno della società attuale. La nuova piattaforma tecnologica, che svolge da supporto, è rappresentata dalle ICT e dall'alto grado di connettività e di possibilità di controllo sistemi altamenti complessi che permette. Secondo Manzini, le prospettive che possono svilupparsi dall'introduzione di sistemi distribuiti possono venire a costituire un modello di innovazione non solo socio-tecnica, ma anche ambientale, culturale e politica31: • implicazioni ambientali: attraverso la riduzione della scala dei propri elementi, i sistemi distribuiti permettono un uso più efficiente delle risorse locali e facilitano forme di simbiosi industriale, riducendo rifiuti e sprechi. Parallelamente, portando la fase di produzione più vicino alle risorse locale e agli utenti finali, questi sistemi distribuiti permettono di ridurre l'intensità dei trasporti necessari (riducendo così traffico e inquinamento); implicazioni sociali ed economiche: • portando una porzione importante dei processi di creazione di valore a scala locale, i sistemi distribuiti generano, e mantengono, una florida economia e un buon livello di occupazione a livello locale. Contemporaneamente, intensificando le attività e interazioni locali, rinforzano il tessuto sociale e preparano un punto di partenza per un utilizzo più efficiente e rigenerante delle risorse sociali esistenti; • implicazioni politiche: portando il potere decisionale più vicino agli utenti finali e 30 Manzini (2005b) p.2 31 Ibidem p.2 31


aumentando la visibilità dei sistemi su cui devono essere prese delle decisioni, i sitemi distribuiti facilitano discussioni democratiche, permettendo a singoli individui e comunità la piena responsabilità nell'effettuare le proprie scelte. Lo sviluppo delle ICT ha portato quindi all'emergenza di una vera e propria intelligenza distribuita, cioè una nuova forma di organizzazione orizzontale basata su forme distribuite di conoscenza e potere decisionale. Quindi tutti i casi di sistemi distribuiti possono essere visti come la declinazione di una intelligenza distribuita relativamente ad una data disciplina o ad un dato problema da risolvere. Due esempi promettenti di sistemi distribuiti sono la distributed economy e la distributed generation: analizzandole brevemente si può comprendere quali siano i cambiamenti che l'introduzione di sistemi distribuiti possono portare (e quindi che ruolo possano avere le comunità Open Peer-toPeer, che sono naturalmente in grado di utilizzare e valorizzare sistemi disttribuiti).

1.4.4.2. Economia distribuita La espressione distributed economy viene dalla messa in discussione dei correnti modelli di produzione, generalmente adottati, dove la visione dell'inseguimento di economie di scala viene sfidata dalla presenza di nuove esigenze di flessibilità e customizzazione, dall'importanza della dimensione locale e della sua identità, e dalle possibilità offerte dalla diffusione delle ICT. Prende così forma una nuova visione economica basata su nuove organizzazioni reticolari dei processi di produzione, uso e consumo, aperte ai flussi di persone e conoscenza ma integrate nella loro dimensione locale. Un esempio di distributed economy può essere visto nella riscoperta del prodotto "locale", legato all'identità del luogo di origine e ai suoi valori sociali e culturali specifici. Gli esempi più classici riguardano produzioni enogastronomiche, ma anche produzioni artigianali rinomate, come i vetri di Murano. Tutti questi prodotti sono caratterizzati da un valore aggiunto che è dato dalla identità locale che veicolano: sono l'espressione della storia di un luogo, da cui ne ricevono una garanzia di qualità e a cui contribuiscono. Infatti, se i prodotti portano con sé la qualità del luogo, questa deve esistere veramente, portando così i produttori a interessarsi ad essa. Vi è quindi un doppio legame tra la comunità locale e il prodotto: la qualità locale è motivo di successo del prodotto, e il prodotto, per avere successo, deve garantire la qualità locale o addirittura rigenerarla. Una economia distribuita significa anche che molte attività produttive possono produrre solamente per un mercato locale, con successo. In questo modo si ha un legame molto stretto tra produttori, prodotti e comunità locale: un esempio tipico è la crescente tendenza alla 32

vendita di prodotti enogastronomici locali e stagionali, slegati dalla grande distribuzione. Questa de-intermediazione permette un abbattimento dei costi e un utilizzo delle risorse locali. Un ulteriore aspetto, ancora in fase di sperimentazione, riguarda il concetto di distributed manufacturing, ovvero la produzione localizzata di prodotti progettati altrove. Questa tipologia produttiva si basa sulla diffusione delle ICT, che permettono una flessibilità produttiva.

1.4.4.3. Generazione energetica distribuita L'espressione distributed generation riguarda un sistema energetico costituito principalmente di generatori elettrici di dimensioni medio-piccole, in grado di produrre autonomamente energia e di scambiarla reciprocamente senza intermediazioni. Un sistema di questo tipo implica un cambiamento radicale nel sistema di generazione e distribuzione di energia elettrica, con la possibilità di dare luogo ad una nuova relazione tra le comunità e le loro dotazioni tecnologiche, attraverso una gestione più democratica. Anche se sono ancora pochi i casi funzionati di distributed generation, è diffusa ovunque l'idea che rappresentino una opportunità per il futuro. La possibilità di organizzazione di reti di distributed generation deriva dalla convergenza di alcuni fattori tra i quali l'esistenza di generatore elettrici efficienti di dimensioni medio-piccole e la esistenza di una rete di distribuzione elettrica basata su ICT. Una generazione energetica distribuita può essere effettuata con tecnologie convenzionali, come generatori elettrici a gas o diesel, ma anche da risorse rinnovabili attraverso celle fotovoltaiche. Negli ultimi venti anni la diminuzione di questi generatori, associata con una crescente affidabilità e una parziale deregulation del mercato elettrico in alcuni Stati, hanno reso la distributed generation un tema di ricerca e sperimentazione molto diffusa. La generazione e distribuzione di gas e di energia elettrica hanno seguito lo stesso percorso di centralizzazione e monopolizzazione. Un esempio è dato dal caso della Gran Bretagna, come raccontato da Mathew Lockwood e Robin Murray32. Alla fine del XIX secolo, le tecnologie di trasporto del gas e dell'energia elettrica cominciarono a poter supportare un consumo di massa in ogni casa, attraverso la costruzione di infrastrutture. Le imprese dedicate alla costruzione di questa infrastruttura costruirono centrali generatrici alla ricerca di economie di scala sempre maggiori. All'inizio del XX secolo nella sola Londra erano presenti 135 differenti imprese dedicate alla fornitura di energia elettrica, ognuna con differenti standard, fino a che le imprese di maggiori dimensioni non ebbero il permesso dallo Stato di occupare tutto il mercato. In seguito, alla fine della 32 Lockwood, Murray (2005)


Seconda Guerra Mondiale, il sistema elettrico venne nazionalizzato e accorpato in un unico sistema distributivo33. Domanda, fornitura e controllo dei flussi di energia erano centralizzati, e negli anni '60 la stessa sorte toccò al sistema di distribuzione del gas. Nemmeno le privatizzazioni e la deregulation degli anni '90 hanno intaccato questo sistema monopolistico e centralizzato di generazione e distribuzione di energia, ancora basata su grandi centrali, in grado di raggiungere economie di scala ma con perdite di energia34. I sistemi di distribuzione attuali sono stati progettati per un flusso di energia a senso unico, dalle centrali agli utenti, dall'alto voltaggio al basso voltaggio, dove gli utenti hanno un ruolo esclusivamente ricettivo, quindi passivo. Un tale sistema è caratterizzato da alcuni punti critici, come l'alta dipendenza da idrocarburi importati, un alto grado di inquinamento, perdite di energia durante la distribuzione e la necessità di una manutenzione continua delle strutture di distribuzione. Oggi, all'inizio del XXI secolo, stanno emergendo segnali di nuove possibili forme di organizzazione della generazione e distribuzione di energia, più flessibili e decentralizzate, in cui gli utenti diventano anche attivi come produttori di energia a livello locale e come rivenditori del surplus ad altri utenti. Già ora, molte fabbriche, uffici e soprattutto ospedali, che richiedono fonti di elettricità e riscaldamento affidabili, hanno installato impianti di co-generazione, spesso utilizzando rifiuti (come le acque utilizzate nelle lavorazioni dalle fabbriche) per la generazione di energia. L'utilizzo di generatori di energia elettrica di piccole dimensioni, prodotti in grandi serie, può riuscire a coprire il loro costo in un periodo di 4-5 anni35. Una generazione di energia localizzata, inoltre, riduce la necessità di imponenti linee e piloni di trasmissione, con gli sprechi che questi comportano. Una generazione decentralizzata significa che la rete di distribuzione cambia, dall'essere passiva, a senso unico, all'essere attiva, a doppio senso. Una rete di distribuzione energetica Peer-to-Peer, da pari a pari, senza (quasi) intermediazioni e controllo centrale.

1.4.4.4. Creatività distribuita Tra i sistemi emergenti di intelligenza distribuita, sta assumendo una notevole importanza la presenza di una creatività distribuita, diffusa, nel senso di una diffusione di comportamenti creativi all'interno della società. Questa diffusione deriva da differenti fenomeni: dalla diffusione di professioni creative (come sostiene Richard Florida36) alla crescente attivazione di singole persone o comunità che cercano soluzioni creative 33 34 35 36

Ibidem p.15 Idem Ibidem p.17 Florida, R., (2002), The Rise of the Creative Class. And How it is transforming work, leisure, community and everyday life, Basic Books, New York

ai problemi che incontrano. Il concetto di distributed creativity, relativamente recente, può essere visto come complementare ai concetti di distributed economy, distributed generation, ecc., come fonte di richiesta di sperimentazione e messa in pratica di questi concetti, che possono anche essere visti come infrastrutture per la diffusione di comportamenti creativi nella società. In questo senso: persone e comunità che si attivano e trovano soluzioni ai loro problemi, richiedono più risorse a livello locale, pur mantenendo ottimi legami a livello globale, e sistemi economici ed energetici distribuiti possono gestire le risorse in maniera più democratica. Allo stesso modo, la presenza di tali sistemi può favorire, rendendo più facile, l'insorgenza di comportamenti creativi autonomi. Gli episodi di creatività distribuita riguardano contesti e problemi molto differenti, e per questa ragione hanno attirato l'attenzione di studiosi di differenti campi: le persone e le comunità creative, hanno la particolare caratteristica di rappresentare dei laboratori di sperimentazione ed innovazione, in anticipo rispetto al mercato e alla società, riuscendo a risolvere problemi condivisi da molte persone. Sono state, quindi, segnalati episodi di creatività diffusa all'interno di organizzazioni aziendali (communities of practice), oppure nella risoluzione di problemi legati alla insostenibilità economica, sociale ed ambientale della propria dimensione locale (Comunità Creative), come modo di ricostituire legami sociali e sviluppare innovazioni radicali senza basarsi su un riconoscimento formale delle capacità (Pro-Am), oppure nello sviluppo di innovazioni di prodotto, servizio, processo (lead users e innovation communities). Le comunità Open Peer-to-Peer rappresentano anch'esse degli episodi di creatività distribuita, che hanno sviluppato delle particolari forme di organizzazione, che possono essere applicate anche agli altri episodi di creatività distribuita riscontrati e aumentare così le loro possibilità di successo.

1.4.4.5. Communities of Practice Il teorico dell'organizzazione Etienne Wenger ha coniato l'espressione communities of practice, ossia 'comunità di pratica', per indicare un certo tipo di comunità che si formano autonomamente dalla continua interazione di persone che condividono una stessa pratica37. Le comunità di pratica sono gruppi di persone che condividono una preoccupazione, un insieme di problemi, o l'interesse su di un tema, e che approfondiscono la propria conoscenza e capacità in questo tema attraverso una interazione continua. Gli ingegneri che progettano alcuni tipi di circuiti elettronici trovano utile comparare i progetti regolarmente e discutere le problematiche relazionate. 37 Wenger (1998), Wenger, McDermott, Snyder (2002) 33


I genitori di bambini che svolgono attività sportive spesso utilizzano i momenti di incontro a queste attività per discutere sui problemi legati ai figli. Tutte queste persone non lavorano assieme ogni giorno necessariamente, ma si incontrano perché riscontrano un valore nelle proprie interazioni. Dedicandosi assieme a un'impresa, nel corso del tempo, le persone vengono a sviluppare una pratica comune, ossia dei modi condivisi di agire e di relazionarsi l'una all'altra che permettono loro di raggiungere quello scopo che si sono prefissate. Col passare del tempo, la pratica che ne risulta diventa un legame riconoscibile che unisce coloro che sono coinvolti in questa impresa comune. Per Wenger, una comunità di pratica deve avere tre proprietà caratteristiche: la presenza di un legame reciproco fra i suoi membri, l'esistenza di una qualche impresa comune e lo sviluppo – col passare del tempo – di un insieme di routine, di regole di condotta (sia pur implicite) e di conoscenze che siano condivise da coloro che appartengono alla comunità stessa. La loro caratteristica che ne ha decretato un enorme interesse è la loro relazione con conoscenza ed apprendimento. L'apprendimento è il motore della pratica, e la pratica è la storia dell'apprendimento. Di conseguenza, le comunità di pratica hanno un ciclo di vita che riflette questo processo. Si formano, sviluppano, evolvono, disperdono in relazione ai propri tempi, logiche, ritmi, e all'energia sociale del loro apprendimento. A differenza delle strutture di organizzazione formali, non è mai chiaro dove inizino e finiscano, perché possono iniziare e finire in periodi differenti dalle loro attività principali. Basate sull'apprendimento reciproco e collettivo più che da operazioni formalizzate, le comunità di pratica necessitano di un certo tempo per svilupparsi, e possono continuare ad esistere anche quando il gruppo da cui si formano venga sciolto. Affermare che l'apprendimento è ciò che dà luogo alle comunità di pratica, è come affermare che l'apprendimento è una forma di struttura sociale, una struttura emergente. Infatti, la pratica viene prodotta dai membri attraverso la negoziazione del significato, un processo aperto, con il potenziale di accogliere in continuazione nuovi elementi ma anche di recuperare e ricordare elementi. Il risultato è che, come struttura emergente, la pratica è altamente perturbabile e altamente resiliente allo stesso tempo. Questa combinazione è una caratteristica dell'adattabilità. La continuità di una struttura emergente deriva non dalla stabilità ma dalla adattabilità38. Le comunità possono creare degli strumenti, standard, progetti generici, manuali e altri documenti oppure possono semplicemente sviluppare una comprensione tacita che condividono. Qualunque sia il modo in cui accumulano conoscenza, diventano legati informalmente dal valore che riscontrano 38 Wenger (1998) 34

nell'apprendere collettivamente. Valore non solo strumentale, visto che spesso si formano delle nuove relazioni o interazioni, fino ad arrivare a un senso di comunità condiviso. Le comunità di pratica sono quindi una forma di organizzazione autonoma che vivono grazie alla creazione di conoscenza attraverso l'apprendimento. È proprio questa capacità di gestione della conoscenza che le ha rese interessanti per la gestione di organizzazioni aziendali. La conoscenza è diventata la chiave del successo, e le organizzazioni aziendali devono capire con precisione e tempestività quale conoscenza darà loro un vantaggio competitivo sviluppandola e diffondendola al proprio interno. "Coltivare" le comunità di pratica in aree strategiche è un modo pratico di gestire la conoscenza come una risorsa sistematicamente come vengono gestite le altre risorse. Infatti le rivoluzioni attuali nelle scienze e nelle tecnologie creano un paradosso dalla difficile soluzione. Mentre l'aumento della complessità delle conoscenze richiede una maggiore specializzazione e collaborazione, le conoscenze stesse diventano obsolete molto più rapidamente. Senza la presenza di comunità orientate su aree critiche, è difficile seguire questo ritmo. Questi cambiamenti stanno avvenendo in un periodo in cui le organizzazioni aziendali stanno riformando molte relazioni internamente ed esternamente per rispondere ai cambiamenti del mercato. Internamente, le organizzazioni aziendali si stanno suddividendo in unità più piccole orientate ad opportunità di mercato ben definite, mentre esternamente stanno sviluppando partnership con altre organizzazioni. Entrambe le relazioni diffondono la produzione e la distribuzione di valore su molte entità distinte, e le comunità di pratica possono aiutare a connettere le persone di differenti organizzazioni e di differenti sottounità, rendendo unito tutto il sistema attorno ad un nucleo di specifiche conoscenze. All'interno di ogni organizzazione è possibile individuare varie comunità di pratica fra loro interconnesse. Quanto più le persone sono coinvolte in queste reti informali e quanto più le reti stesse risultano essere sviluppate ed elaborate, tanto migliori saranno le capacità, da parte dell'organizzazione, di imparare, di rispondere con creatività di fronte al presentarsi di nuove inaspettate circostanze, di cambiare e di evolversi. In una organizzazione c'è una continua azione reciproca fra le reti informali e le strutture formali. Le comunità di pratica sono ovunque, ma con forme diverse e a volte non riconosciute esplicitamente. Le Comunità di Pratica non sono quindi una novità in sé, ma il bisogno delle organizzazioni di sviluppare approcci più intenzionali e sistematici per la "gestione" della conoscenza, a dar quindi un ruolo centrale nelle organizzazioni aziendali a queste forme di comunità. Oltre a contribuire al successo delle organizzazioni nel mercato mondiale, queste comunità portano un altro vantaggio. Nella


continua globalizzazione di una economia basata sul paradigma dell'informazionalismo, le organizzazioni aziendali non competono solo per quote di mercato, ma anche per i talenti: persone con esperienze e capacità per generare e sviluppare idee innovative. Nonostante abbiano varie forme e sviluppi, tutte le comunità di pratica condividono la stessa struttura di base. Una comunità di pratica è una combinazione di tre elementi: un campo di conoscenze (che definisce un insieme di argomenti), una comunità di persone che sono interessate a questo campo, e la pratica condivisa che sviluppano per essere efficaci in questo campo. Il campo delle conoscenze crea una base comune e un senso di identità comune. Un campo ben definito da legittimità alla comunità affermando i suoi obiettivi e valori per i membri e i vari stakeholder. Il campo incoraggia la partecipazione dei membri, guida il loro apprendimento e dà senso alle loro azioni. Sapere quali sono i confini del campo e la frontiera più avanzata può permettere ai membri di effettuare decisioni su cosa sia importante condividere e quali attività si debbano intraprendere e riconoscere quali siano le idee promettenti. La comunità crea il tessuto sociale dell'apprendimento, incoraggiando le interazioni, le relazioni su una base di mutuo rispetto e fiducia, condivisione di conoscenze, supporto reciproco. La pratica è costituita da una serie di framework, idee, strumenti, informazioni, linguaggi, modalità di azione, esperienze e documenti che i membri della comunità condividono. Mentre il campo delle conoscenze stabilisce l'argomento su cui si basa l'interesse collettivo, la pratica definisce le conoscenze specifiche che la comunità condivide, sviluppa e mantiene. Per capire a fondo il ruolo delle Comunità di Pratica all'interno delle organizzazioni aziendali, possiamo identificare cosa non è: •

una Comunità di Pratica non è una sottounità dell'organizzazione: le unità delle organizzazioni sono responsabili per la gestione di obiettivi come il servire un determinato segmento di mercato, produrre un determinato prodotto o svolgere una determinata funzione amministrativa. Questa responsabilità include l'allocazione di risorse, la gestione di processi, l'assegnazione di ruoli, la gestione delle relazioni e responsabilità dei risultati. Le Comunità di Pratica principalmente sviluppano conoscenze e non sono quindi un buon veicolo per lo svolgimento di una determinata attività. Sono più lasche, informali, autoorganizzate delle unità, non sono basate sulla gestione delle relazioni ma sulla collegialità, sulla partecipazione e non sull'appartenenza all'organizzazione; una Comunità di Pratica non è un team:

l'essenza di un team è costituita da una serie di azioni che contribuiscono al raggiungimento di un obiettivo condiviso e predefinito. Il team si impegna verso questo obiettivo e si assicura che si impegnino anche tutti i suoi membri. Il team leader mantiene l'orientamento dei singoli membri in contributi coordinati verso l'obiettivo. In contrasto con ciò, l'essenza di una Comunità di Pratica è il coinvolgimento personale dei membri nel campo delle conoscenze, che è molto differente da una azione predefinita: i membri sono connessi grazie a conoscenze interdipendenti, non azioni interdipendenti. Un coordinatore di una Comunità di Pratica non guida la comunità nel senso tradizionale, ma raccoglie i partecipanti e facilita i processi che portano a direzioni comuni. Le azioni che intraprende non sono mai definite a priori ma si sviluppano in relazione al campo delle conoscenze; una Comunità di Pratica non è una comunità di interesse o una rete informale: tutte le organizzazioni hanno reti informali di persone che comunicano, condividono informazioni, costruiscono relazioni e reputazioni. Una Comunità di Pratica non è soltanto questo, ma è orientata da un argomento comune ai suoi membri che va ben oltre dando uno scopo preciso alle attività da intraprendere.

Allo stesso modo, un interesse comune non necessariamente porta alla formazione di una Comunità di Pratica, in quanto non sempre porta allo sviluppo di una pratica. Mentre in una Comunità di Pratica l'interesse per un argomento comune (il campo delle conoscenze) sviluppa una pratica condivisa che a sua volta influenza direttamente i comportamenti e le capacità dei membri. Ma ancora, la presenza di una pratica condivisa non costituisce una Comunità di Pratica. Molte organizzazioni professionali, ad esempio, agiscono più come lobby, sebbene possano includere sottogruppi specializzati che creano relazioni fra i membri al fine di sviluppare pratiche. Ovviamente, queste distinzioni esistono con differenti sfumature, per capire se un gruppo di persone forma una Comunità di Pratica bisogna analizzare le modalità con cui combina il campo delle conoscenze, la pratica e la comunità.

1.4.4.6. Comunità Creative La realizzazione dell'importanza di episodi di creatività distribuita avviene anche nel campo del design, più specificatamente nello studio del ruolo del design per lo sviluppo sostenibile. Oggi, il 20% della popolazione mondiale che vive seguendo il modello di benessere occidentale consuma l'80% delle risorse fisiche del nostro pianeta. Se nulla dovesse cambiare, il rimanente 80% della popolazione mondiale, che cerca di inseguire lo stesso modello di benessere, dovrà utilizzare il rimanente 20% delle risorse ambientali, 35


consumandole totalmente (un vero e proprio disastro ambientale) ed in ogni caso senza una speranza di giungere ai risultati promessi. In altre parole: il sogno di un benessere basato su consumo è basato su una promessa che ora riconosciamo come impossibile da mantenere. Per Manzini39 la transizione verso la sostenibilità richiede cambiamenti radicali nel modo in cui produciamo e consumiamo e, più in generale, nel modo in cui viviamo. Infatti, la società deve imparare come vivere meglio e, allo stesso tempo, riducendo la sua impronta ecologica e migliorando la qualità del tessuto sociale. La proposta di vivere bene consumando meno risorse e generando un senso di comunità si riferisce ad un'idea di prosperità, di benessere (e il suo corrispondente modello economico e produttivo) completamente opposto a quello che la società industriale ha generato e proposto finora a livello mondiale. Manzini sintetizza questo modello di prosperità come: più comfort / benessere è uguale a maggiori consumi e ad un minor senso di comunità. Questo profondo contrasto porta ad un'osservazione fondamentale: non è possibile intraprendere passi significativi verso la sostenibilità che se ci si limita a migliorare le idee e i metodi esistenti. Ogni passo verso la sostenibilità deve implicare una discontinuità sistemica in relazione alla situazione attuale. Il riconoscimento e l'osservazione di queste micro-trasformazioni può dare alcune anticipazioni su degli aspetti del nuovo sistema che, ad un certo punto, emergerà. In questo scenario il collegamento tra le dimensioni ambientali e sociali di questo problema appaiono chiaramente, mostrando la necessità di forme radicali di innovazione sociale nel raggiungimento di stili di vita più sostenibili. E con innovazioni sociali Manzini intende cambiamenti nel modo in cui individui o comunità agiscono per trovare un risultato (cioè risolvere un problema o generare nuove opportunità). Queste innovazioni sono guidate da cambiamenti nei comportamenti (più che dalla tecnologia o dal mercato) ed emergono da processi bottom-up (più che da processi topdown). Se il modo di trovare un risultato è totalmente nuovo (o se è lo stesso risultato ad essere totalmente nuovo), può essere denominato una innovazione sociale radicale. È quindi necessario un cambio di direzione radicale, dove le energie progettuali e il potenziale tecnologico siano concentrati sull'obiettivo di rendere gli individui e le comunità di tutto il mondo capaci, in misura maggiore, di lavorare insieme e trovare un modo di vivere meglio, in autonomia; o piuttosto, imparare a vivere meglio, consumando molte meno risorse ambientali. La natura radicale dell'obiettivo (imparando a vivere meglio lasciando un'impronta ecologica e leggera) richiede una sperimentazione enorme, una capacità enorme per ascoltare e un grande grado di flessibilità per cambiare quando diviene evidente che il percorso intrapreso non porta nella direzione desiderata.

39 Manzini (2005a) 36

La transizione verso una società sostenibile è quindi un processo sociale e culturale di notevole portata, un ampio processo di apprendimento collettivo (wide-reaching social learning process) in cui le forme più differenti di conoscenza e capacità organizzazionali devono essere valorizzate nel modo più aperto e flessibile. Dovranno essere utilizzate tutte le capacità possedute dagli individui e dalle comunità: dalle conoscenze tecniche e scientifiche a quelle pratiche, dalle riflessioni filosofiche alle esperienze artistiche, dalla logica deduttiva alla creatività individuale e collettiva. Un particolare ruolo lo avranno le iniziative locali, che possono essere viste come segnali di nuovi comportamenti e nuovi modi di pensare. Manzini, infatti, osserva che, nella complessità e nelle contraddizioni della società contemporanea, alcuni casi di innovazioni sociali stanno emergendo continuamente, sotto forma di nuovi comportamenti, nuovi modi di organizzazione, nuovi modi di vivere. Alcuni sono ancora più insostenibili dei modelli del passato, ma alcuni sembrano molto promettenti: esempi di iniziative dove, in differenti modalità e per differenti motivazioni, alcune persone hanno riorientato i loro comportamenti e le loro aspettative in una direzione che sembra coerente con i principi di sostenibilità sociale e ambientale. Questi esempi rappresentano comportamenti esterni a quelli dominanti nella società, presa nel suo insieme: sono esempi di comunità che, dovendo risolvere un proprio problema, si sono organizzate autonomamente in maniera tale da risolverlo direttamente personalmente. Gruppi di persone che riorganizzano il proprio modo di vivere nella loro casa (come nel movimento del cohousing) e nel proprio vicinato (ridandogli vita, creando le condizioni affiché i bambini possano andare a piedi a scuola, o affinché si svilupppi una maggiore mobilità basata sull'andare a piedi o in bicicletta). Comunità che organizzano nuovi servizi sociali per anziani e per genitori, basati sulla partecipazione (giovani ed anziani che vivono insieme e micro-asili nido per bambini organizzati dalle stesse mamme) e che organizzano nuove reti di distribuzione del cibo favorendo alimenti organici e tipici (come nel caso di Slow Food, dei Gruppi di Acquisto Solidale o di Commercio Equo e Solidale). Queste comunità creative hanno molti tratti in comune: sono profondamente radicate nella loro località, si basano su risorse locali e, direttamente o indirettamente, promuovono nuove forme di socializzazione. Allo stesso tempo, sono organizzati in reti di iniziative simili su una scala internazionale, dove condividono le proprie esperienze e i propri problemi (sono perciò entità locali ma anche cosmopolite). Infine, ciò che è più interessante, propongono soluzioni che riescono nel fare convergere l'interesse individuale con quello collettivo e ambientale (ed è per questo che sono iniziative che hanno una buona possibilità di essere davvero soluzioni sostenibili). Anche se, al momento, questi casi promettenti


sono l'espressione di alcune minoranze sociali, e a confronto coi modi di pensiero e di comportamento più mainstream tendono a scomparire, sono cruciali per promuovere ed orientare la transizione verso la sostenibilità. Infatti si presentano come esperimenti sociali e, nell'insieme, come un grande laboratorio di possibili scenari futuri. Un laboratorio differenti sentieri orientati verso la sostenibilità possono essere percorsi e valutati. Come in ogni laboratorio, anche in questo nessuno può dire a priori quale esperimento avrà successo: ogni tentativo diventa quindi importante. Queste comunità creative, e le loro iniziative promettenti, mostrano che è già possibile intraprendere dei passi verso la sostenibilità. Inoltre, anticipando esempi concreti di ciò che potrebbe essere considerato “normale “in una società sostenibile, alimentano una discussione collettiva e la generazione di visioni condivise su questo tema. Allo stesso tempo, esprimono, in un modo esplicito o implicito, domande di nuovi prodotti e servizi, generando delle nuove possibilità di mercato nello sviluppo di soluzioni sostenibili. La loro presenza dimostra che il processo di apprendimento verso la sostenibilità ambientale e sociale sta cominciando a costruire su un ampio insieme di esperimenti e conoscenze, che c'è un'inversione di tendenza dai processi disabilitanti del passato. Le comunità creative sono tali perché, nel loro contesto, hanno inventato modi diversi di comportarsi e pensare, emergendo in condizioni molto specifiche e, soprattutto, grazie all'impresa di persone molto speciali. Persone che sono state in grado di pensare ed agire in maniera creativa, progettuale; tuttavia questo aspetto, seppure rappresenti forse il lato più affascinante, rappresenta un limite alla loro diffusione e durata. I casi promettenti riscontrati sono scaturiti da problemi posti dalla vita quotidiana nella società contemporanea. Sia in una metropoli nel Nord, sia in un villaggio nel Sud del mondo, sono risposte a domande che emergono quando i problemi tipici della realtà contemporanea incontrano la vita di ogni giorno; domande alle quali il sistema dominante di produzione e consumo, nonostante la sua enorme offerta di prodotti e servizi, non è in grado di dare una risposta adeguata dal punto di vista della sostenibilità. Nel rispondere alle domande poste dalla vita quotidiana, le comunità creative hanno trovato collegamenti più o meno forti ed espliciti con modi di fare e pensare tipici delle culture pre-industriali. Questo collegamento non deve però condurci alla idea che siano dei movimenti nostalgici: riprendono comportamenti tradizionali attualizzandoli alle tecnologie e necessità attuali. Il “passato” emergente in questi casi è una risorsa straordinaria, assolutamente moderna, sociale e culturale: è il valore del senso di vicinato, del cibo stagionale e locale, ecc. Questi casi promettenti sono il risultato di una forma speciale di creatività. Una creatività sociale, diffusa, il cui sviluppo richiede condizioni ambientali favorevoli. La creatività a cui Manzini si

riferisce non è quella dei "creativi di professione", la cosiddetta "classe creativa". Piuttosto, è la creatività di persone e comunità che inventano modi nuovi di comportarsi perché ne hanno bisogno: persone che non sono creative per la professione che svolgono ma per le necessità che hanno. Da questo punto di vista, il numero delle comunità creative non dipende da una crescita delle professioni creative, ma si basa su una sensazione condivisa della necessità di migliorare le proprie vite nell'insicurezza “invidualizzata” della società contemporanea. Le comunità creative non emergeranno automaticamente, ma solo dove è diffusa la capacità di immaginare, organizzare e gestire modi nuovi di comportamento. Più grande è la capacità in termini di immaginazione ed iniziativa distribuita in tutta la società, più grande è la possibilità che si sviluppino comunità creative. Allo stesso modo, la nascita e sviluppo di tali imprese dipende anche dal livello di tolleranza del loro contesto, data la loro radicalità.

1.4.4.7. Pro-Am Charles Leadbeater e Paul Miller parlano di Pro-Am, Professional Amateurism: dilettantismo professionale, cioè persone che legano i due mondi svolgendo attività amatoriali per passione ma con standard e risultati a livello professionale40. Questo notevole impegno spiega i risultati ottenuti. Risultati a volte anche complessi, come la programmazione di un intero sistema operativo (Linux), o la gestione di una intera campagna di pressione pubblica (Jubilee Debt Campaign) o la diffusione di un nuovo stile musicale (musica rap). Questi sono tutti esempi di persone che, utilizzando le proprie conoscenze e in collaborazione con altre persone, sono riuscite ad ottenere risultati che prima solo organizzazioni professionali potevano ottenere. Proprio questo fatto li distanzia dalle persone che svolgono le classiche attività hobbystiche, basate su attività individuali e semplici. I Pro-Am non considerano il divertimento che deriva dall'utilizzo del proprio tempo libero come una forma passiva di consumismo, ma attivo e partecipatorio. I Pro-Am utilizzano il proprio tempo libero non per “rilassarsi” ma per migliorare le proprie capacità e conoscenze, creare qualcosa (spesso veri e propri prodotti e servizi), collaborare con altre persone che presentano gli stessi interessi. Tutte queste sono attività per le quali non vengono comandati dall'alto ma su cui hanno un controllo personale e vi possono rinunciare liberamente. Attraverso queste attività riescono a costruire il proprio capitale culturale (le proprie conoscenze e abilità) e il capitale sociale (i legami personali) delle comunità di Pro-Am, creando un senso di identità personale e collettivo. In una comunità di Pro-Am, le conoscenze sono distribuite tra i partecipanti che le condividono, considerandosi tutti di pari livello. Quando qualche partecipante aumenta la sua reputazione e la sua 40 Leadbeater, Miller (2004) 37


influenza all'interno della comunità, lo fa grazie alle sue conoscenze e capacità. Il capitale sociale che i Pro-Am sviluppano è molto importante nella situazione attuale di perdita del senso di comunità locale. Queste comunità si sono sempre formate e sviluppate in base alle caratteristiche della propria dimensione locale, ma anche in base a una visione, una cultura, delle regole e degli interessi comuni. Le comunità Pro-Am possono ricostituire il tessuto sociale locale. Inoltre, possedere delle capacità e conoscenze a livello professionale, ma al di fuori del proprio lavoro, fornisce una garanzia di sicurezza maggiore in caso di perdita del lavoro. Leadbeater e Miller41 credono che la presenza di questi Pro-Am in una società siano sintomo di democrazia, in quanto rappresentano la presenza attiva dei cittadini nella vita pubblica. Mentre da un lato la partecipazione politica classica, legata all'appartenenza a partiti politici, è in crisi, dall'altro la presenza di cittadini coinvolti in grandi campagne di pressione politica o in associazioni di volontariato e non profit è in aumento. Spesso queste campagne sono organizzate da poche persone che riescono a costruire, con delle semplici tecnologie di comunicazione, una rete di partecipanti estremamente estesa: queste organizzazioni sono più economiche, leggere ed efficaci nel coinvolgimento attivo dei cittadini. Per identificare con una precisione maggiore i ProAm, Leadbeater e Miller li posizionano all'interno di un una serie di tipologie di attività: professionisti, pre-professionisti (apprendisti e tirocinanti), semiprofessionisti (che guadagnano dalla loro attività una parte importante del loro reddito), postprofessionisti (pensionati che continuano a svolgere l'attività lavorativa), amatori (con un forte impegno nell'attività). I Pro-Am hanno anche un ruolo di crescente importanza nello sviluppo di innovazioni, soprattutto nei campi emergenti che sono troppo recenti oppure non sufficientemente ampi per essere soggetto di ricerche ben organizzate. In primo luogo, i Pro-Am possono sviluppare delle innovazioni dirompenti creando nuove opportunità e nuovi modi di operare attività economiche, nuovi prodotti e nuovi servizi, in maniera più economica. Queste innovazioni solitamente hanno luogo in mercati marginali e sperimentali, dove è difficile avere a disposizione ingenti fondi per lo sviluppo di nuove tecnologie o prodotti o servizi, per poterle poi diffondere in mercati più ampi. In questa situazione è cruciale la presenza di Pro-Am, che spesso sviluppano innovazioni anche senza ricercare un beneficio economico diretto. In secondo luogo, i Pro-Am guidano le innovazioni nell'utilizzo di prodotti e servizi. Più una innovazione è radicale dal punto di vista tecnologico, più difficile è capire in anticipo a cosa può portare. Ma utenti Pro-Am, appassionati 41 Ibidem 38

utilizzatori e sperimentatori, possono guidare nuovi utilizzi e quindi nuove direzioni dei mercati. Una cocreazione di valore tra utenti e imprese, basate su un'attività innovativa aperta e portata avanti da un numero elevato di partecipanti parallelamente. Di conseguenza, più capacità e conoscenze (quindi più Pro-Am) sono distribuite in una economia, migliore l'innovazione e la flessibilità di questa. Proprio per la loro capacità di creare capitale sociale e di sviluppare innovazioni, Charles Leadbeater e Paul Miller propongono anche che i Pro-Am vengano impiegati nella gestione di servizi pubblici. In questo modo produttori e utenti del servizio rivestiranno ruoli differenti da quelli attuali ma più complementari e innovativi. Dalla istituzione del welfare state, i servizi pubblici sono sempre stati definiti dai professionisti che li gestiscono ma, a causa del loro crescente costo del lavoro e decrescente produttività, l'apertura alla partecipazione di Pro-Am (quindi di tutti i cittadini in possesso di conoscenze e capacità) può essere una mossa strategica critica nello sviluppo di nuovi servizi sociali. Leadbeater e Miller concludono la loro riflessione sui Pro-Am affermando che in futuro le innovazioni verranno dalla collaborazione fra professionisti e Pro-Am in un nuovo tipo di organizzazione, collaborativa, a rete, flessibile e in gran parte autoregolante42. Le capacità dei Pro-Am sono comunque limitate dal fatto che non esercitano solamente l'attività preferita, a cui quindi non possono dedicare troppo tempo. Quindi difficilmente la loro attività può portare a teorie scientifiche, oppure a risultati in altri campi dove è richiesta una attenzione continua. Tuttavia sarà sempre più difficile capire, in una collaborazione professionistiPro-Am, il confine fra questi.

1.4.4.8. Lead User e Innovation Communities Negli ultimi venti anni è emersa lentamente la consapevolezza che semplici cittadini (e non professionisti) possono avere un'enorme influenza sugli aspetti culturali ed economici della società. L'interesse per la creatività diffusa tra i normali cittadini è tema di interesse anche di altri studiosi; nel campo degli studi economici e gestionali uno degli esponenti più importanti è forse Eric von Hippel, economista del Massachusetts Institute of Technology. Da molto tempo è ormai opinione comune che le innovazioni di prodotto siano solitamente sviluppate dalle imprese che li producono. Nel suo libro “The sources of innovation”43 Eric von Hippel presenta una serie di studi che dimostrano invece che le fonti di innovazione (sources of innovation) di cui si servono le imprese variano enormemente. In alcuni campi, sono gli utenti a sviluppare innovazioni, in altre sono i fornitori di materiali e 42 Ibidem p.71 43 Von Hippel (1988)


componenti relazionati con innovazioni, e in altri ancora sono i produttori stessi. Von Hippel esplora le cause della presenza di fonti di innovazione all'esterno delle imprese che le commercializzano, al fine di trovare strumenti per cercare di predirne l'esistenza e l'ubicazione. Infine, propone di sostituire il concetto di produttore come innovatore con una visione del processo innovativo distribuito tra utenti, produttori, fornitori ed altri agenti. Nell'analizzare le fonti di innovazione, von Hippel utilizza una variabile che definisce functional source of innovation ('fonte funzionale di innovazione'), che suddivide imprese ed individui in termini della relazione funzionale attraverso cui traggono beneficio da una certa innovazione di prodotto, di processo di servizio. Ne traggono beneficio usandola? Allora sono utenti. Ne traggono beneficio producendola? Allora sono produttori. Ne traggono beneficio fornendo componenti o materiali necessari per costruire o utilizzare l'innovazione? Allora sono fornitori. Ovviamente, il functional role ('ruolo funzionale') di un individuo o di una impresa non è fisso nel tempo, ma dipende invece dalla specifica innovazione esaminata. Inoltre, molte functional relationships ('relazioni funzionali') possono esistere tra innovatore e innovazione, oltre a quelle di utente, produttore e fornitore: ad esempio, imprese o individui possono trarre beneficio dalle innovazioni come distributori, assicuratori e così via. Il primo indizio che la functional source of innovation sia potenzialmente un metodo efficace per la suddivisione degli innovatori in categorie deriva dalla scoperta che la fonte di innovazione varia notevolmente tra le categorie di innovazione. In alcuni campi, come in quello degli strumenti scientifici, le innovazioni di prodotto più importanti vengono sviluppate solitamente dagli utenti. Ci sono molti fattori che influenzano la functional source of innovation. Hippel propone di analizzare i profitti provvisori (economic rents) aspettati da potenziali innovatori. Nei casi studiati da Hippel, è apparso che le imprese innovative potrebbero anticipare ragionevolmente profitti più alti delle imprese che non innovano. Le imprese organizzano e forniscono di personale le loro attività indirizzate alle innovazioni sulla base delle loro considerazioni riguardo alle fonti dell'innovazione. Hippel trova che le imprese organizzano le loro attività sulla base dell'assunto che nuovi prodotti sono - o dovrebbero essere sviluppati dalla impresa che li fabbricherà per la vendita. Questo conduce i fabbricanti a formare reparti R&D (ricerca e sviluppo) capaci di adempiere al compito di sviluppare nuovi prodotti all'interno dell'impresa e ad organizzare ricerche di mercato indirizzate a cercare necessità invece che innovazioni. Infatti, se un fabbricante dipende solamente dallo sviluppo interno di innovazioni per i propri prodotti, tale organizzazione risulta appropriata. Ma se le fonti di innovazione sono utenti, fornitori o altre

tipiche fonti di innovazioni esterne, questa organizzazione può risultare inappropriata. Ad esempio, il reparto R&D di una impresa non sarà molto interessato ai prototipi sviluppati da un utente, se i suoi ingegneri sono stati addestrati e motivati ad intraprendere lo sviluppo di prodotto in isolamento. Una volta che la fonte attuale dell'innovazione viene compresa, la natura delle modifiche necessarie alle organizzazioni delle imprese possono essere comprese a loro volta. Nuove fonti di innovazione richiedono nuovi strumenti di gestione e di organizzazione. I metodo tradizionali di ricerca del marketing devono essere modificati per lo svolgimento di ricerche effettive su possibili innovazioni da parte degli utenti. In molte categorie di prodotto, le esperienze degli utenti, limitate al proprio contesto personale, non impediscono alle ricerche di marketing di valutare bisogni per nuovi prodotti. Il "nuovo" è relativamente familiare, perciò anche l'utente tipico può avere un ruolo prezioso nello sviluppo di nuovi prodotti nuovi. In contrasto, nelle industrie ad alta tecnologia, il mondo si muove così rapidamente che le esperienze degli utenti sono rese spesso obsolete nel tempo in cui un prodotto viene sviluppato o durante la durata della sua vita commerciale. Per tali industrie Von Hippel propone che i lead users ('utenti pionieri' o 'utenti innovatori'), che hanno sviluppato esperienze reali con la necessità di nuovi prodotti e processi, siano essenziali per ricerche di marketing accurate. Sebbene le intuizioni dei lead users siano limitate alle loro esperienze personali, questi hanno una certa familiarità con condizioni del futuro prossimo, e sono quindi in una posizione di fornire dati accurati sulle necessità generate da tali condizioni. Von Hippel definisce i lead users di un nuovo prodotto, processo o servizio come quelli che mostrano due caratteristiche relativemente a questo44: 1. i lead users si trovano ad affrontare bisogni che, in futuro, saranno ampiamente diffusi nel mercato, ma lo fanno mesi o anni prima; 2. i lead users sono posizionati in modo da trarre un significante beneficio ottenendo una soluzione a questi bisogni. In questo modo, una impresa manifatturiera con un forte bisogno di un'innovazione di processo, di cui molti fabbricanti avranno bisogno nel giro di due anni, potrebbe essere definita come lead user relativamente a quel processo. Entrambe le caratteristiche dei lead users offrono un contributo indipendente al tipo di bisogno di nuovo prodotto nuovo e dati per la soluzione che tali utenti si pensa possiedano. Il primo specifica che un lead user possiederà la particolare esperienza che i produttori devono analizzare se vogliono capire le necessità del mercato con cui dovranno confrontarsi un domani. 44 Ibidem p.107 39


Questi utenti esistono semplicemente perché le nuove importanti tecnologie, i prodotti, le preferenze, e gli altri fattori relazionati alle opportunità di nuovi prodotti solitamente si diffondono nella società, spesso durante il corso di molti anni, piuttosto che con un impatto simultaneo su tutti i suoi membri. La seconda caratteristica dei lead user è una applicazione diretta dell'ipotesi sviluppata da Von Hippel: gli utenti che si aspettano profitti alti dalla soluzione ad un bisogno sotto studio devono essere stati spinti da queste aspettative nel tentativo di risolvere il loro bisogno. Questo lavoro in cambio avrà prodotto le intuizioni dei bisogni e forse delle soluzioni utili che saranno di valore per le ricerche di mercato. In conclusione, i lead user sono utenti le cui forti necessità attuali diverranno generali nel mercato nel giro di mesi o anni. Dato che i lead users hanno familiarità con le condizioni che si avranno nel futuro, Von Hippel ipotizza che possano servire come un laboratorio di ricerca per le ricerche di marketing. Inoltre, dato che i lead users spesso tentano di soddisfare i loro bisogni, al momento insoluti, V on Hippel ipotizza che possano offrire nuovi concept di prodotto e suggerimenti progettuali di estremo valore per i produttori. Eric von Hippel, proseguendo la sua ricerca, mostra nel suo libro “Democratizing innovation”45 come stia emergendo un processo di innovazione democrizzata, ruotante attorno all'utente (usercentric), che rappresenta un complemento necessario alle innovazioni sviluppate dai produttori. Quando von Hippel dice che la innovazione si trova in un processo di “democratizzazione”, intende il fatto che gli utenti di prodotti e servizi (sia imprese che singoli consumatori) sono sempre più capaci di sviluppare autonomamente delle innovazioni. Processi di innovazione user-centered offrono grandi vantaggi in più rispetto a sistemi di sviluppo di innovazioni quali quelli presenti, ormai da secoli, all'interno delle imprese. Gli utenti che innovano possono sviluppare esattamente ciò di cui hanno bisogno, invece che affidarsi esclusivamente ai produttori e alle loro offerte. Inoltre, non devono sviluppare da sé tutte le innovazioni di cui hanno bisogno: possono condividerle con altri utenti e trarne beneficio collettivamente. La tendenza verso una democratizzazione dell'innovazione può essere riscontrata sia in prodotti basati su informazioni (come il software) che in prodotti fisici (come nel caso delle attrezzature sportive per il windsurf, sviluppate da un gruppo informale di appassionati nelle isole Hawaii46). Il processo innovativo user-centered rappresenta un forte contrasto con il modello tradizionale, in cui prodotti e servizi sono sviluppati dai produttori in segreto, attraverso brevetti, 45 von Hippel (2005) 46 Shah (2000), Shah, Franke (2001) 40

copyright, e altre protezioni nel tentativo di prevenire che imitatori possano trarre vantaggio scorrettamente (free riding) dalle loro innovazioni. In questo modello tradizionale, l'unico ruolo dell'utente è quello di avere dei bisogni, che i produttori identificano e soddisfano progettando e producendo nuovi prodotti. Sebbene questo modello, manufacturer-centric, sia appropriato in alcuni casi, siamo in presenza di un sempre più alto numero di prodotti (sia industriali che commerciali) sviluppati da utenti. Inoltre, questa tendenza allo sviluppo di innovazioni autonomamente si sta rafforzando con l'ulteriore sviluppo e diffusione di computer e ICT. Gli utenti di cui parla Von Hippel sono imprese o singoli consumatori che si aspettano dei benefici dall'utilizzare un prodotto o un servizio. Invece, i produttori sono chi si aspetta dei benefici dalla vendita di un prodotto o di un servizio. Una stessa impresa o individuo può avere differenti relazioni a differenti prodotti ed innovazioni. Innovation user e innovation manufacturer sono quindi le due relazioni funzionali generalmente osservabili tra un innovatore e una innovazione. Tutte le altre (i produttori) devono prodotti o servizi derivanti dalle innovazioni agli utenti, direttamente o indirettamente, per ottenere un profitto dalle innovazioni. In questo modo, per ottenere dei profitti, gli inventori devono vendere o concedere sotto licenza le conoscenze relative alle innovazioni, e i produttori devono vendere prodotti o servizi che incorporano queste innovazioni. Allo stesso modo, i fornitori di materiali o servizi relazionati ad innovazioni (a meno che non ne abbiano un uso diretto) devono venderli per ottenere un profitto da queste innovazioni. Von Hippel riporta i risultati di studi empirici che mostrano come dal 10% al 40% degli utenti si impegni nella modifica di prodotti47. Egli riscontra come questa creatività diffusa rappresenti un esempio molto importante dei lead users riscontrati anni prima. Ciò che è avvenuto in questi anni è stato l'aumento di lead users e la crescente consapevolezza della presenza di lead users. Gli utenti possono innovare se desiderano qualcosa che non sia disponibile sul mercato e che possano essere disposti a pagare per il suo sviluppo. Le imprese che producono su grande scala tendono a seguire una strategia di sviluppo di prodotti indirizzata ad incontrare i bisogni di segmenti di mercato abbastanza grandi da indurre all'acquisto un grande numero di consumatori. Quando i bisogni dei consumatori sono eterogenei, questa strategia non è più appropriata. Inoltre, vi sono molti fattori che spingono gli utenti ad innovare anziché a comprare, come la presenza di costi ulteriori (agency costs) e la passione per il processo di innovazione. Quando un utente sviluppa un prodotto per sé, lo fa nel suo miglior interesse, mentre quando contatta un produttore per farlo, la situazione è molto più complessa. Se gli interessi di entrambi non sono gli stessi, 47 von Hippel (2005)


possono emergere dei costi ulteriori (agency costs), derivanti da: 1. costi per il monitoraggio del produttore, al fine di assicurarsi che stia seguendo gli interessi dell'utente; 2. costi derivanti dalla scelta di non agire contro gli interessi dell'utente; 3. costi derivanti dall'eventualità di un prodotto finale che non soddisfi a pieno l'utente. Nel caso specifico dello sviluppo di prodotti e servizi, spesso ci si trova in presenza di una divergenza di interessi tra il produttore e l'utente: quest'ultimo vuole ciò di cui ha precisamente bisogno, mentre il primo vuole abbassare i costi di sviluppo incorporando soluzioni di cui è già in possesso o che pensa che altri desidereranno in futuro. Una accurata esplorazione dei processi di base per lo sviluppo di prodotti e servizi porta Von Hippel a trarre la conclusione che utenti e produttori tendono a sviluppare differenti tipi di innovazione. Ciò è causato da asimmetrie delle informazioni: utenti e produttori sono in possesso di differenti informazioni. Gli sviluppatori di prodotto necessitano di due tipi di informazioni: i bisogni e il contesto d'uso (informazioni generate dall'utente) e informazioni generiche su possibili soluzioni (spesso inizialmente generate dai produttori specializzati in quella particolare soluzione. Unificare questi due tipi di informazioni non è semplice: acquisire queste informazioni è un processo costoso. Di conseguenza, gli utenti hanno informazioni più accurate riguardo alle proprie esigenze, mentre i produttori hanno informazioni più accurate riguardo alle soluzioni che sviluppano. Una conseguenza della asimmetria informativa è che gli utenti tendono a sviluppare innovazioni dal punto di vista funzionale, che richiedono una grande quantità di informazioni riguardanti i bisogni dell'utente e del suo contesto d'uso. Invece i produttori tendono a sviluppare innovazioni che riguardano miglioramenti su bisogni ben conosciuti e che richiedono una profonda comprensione delle soluzioni per il loro sviluppo. Procedendo su questa strada, Von Hippel nota come i costi delle informazioni hanno come conseguenza che le informazioni saranno differenti anche tra gli utenti e tra le imprese. Le informazioni di determinati utenti (o determinati produttori) saranno più adatte allo sviluppo di una determinata innovazione, e così il costo di sviluppare quell'innovazione sarà relativamente basso per quell'utente o produttore. Il risultato netto è che le attività di innovazione da parte di utenti saranno distribuite attraverso molti utenti secondo le loro dotazioni di informazioni. Relativamente all'innovazione, nessun utente è un sostituto perfetto di un altro utente. L'efficienza sociale di un sistema nel quale le innovazioni individuali sono sviluppate da utenti individuali aumenta se gli utenti diffondono, in qualsiasi modo, quello che loro hanno sviluppato, ad altri. I produttori innovatori realizzano ciò solo in

parte quando vendono un prodotto o un servizio sul libero mercato (parzialmente perché diffondono il prodotto che incorpora l'innovazione, ma spesso non tutte le informazioni di cui altre persone avrebbero bisogno per capirla pienamente e replicarla). Se gli utenti innovatori non diffondono i loro risultati, molti utenti con necessità molto simili dovranno sviluppare indipendentemente innovazioni molto simili, con uno scarso utilizzo delle risorse dal punto di vista sociale. Von Hippel, basandosi su ricerche empiriche, nota che gli utenti spesso raggiungono una diffusione di inaspettate dimensioni attraverso un sistema inaspettato: spesso "rivelano liberamente” ciò che hanno sviluppato, donando volontariamente ogni proprietà intellettuale e tutti gli agenti che ne sono interessati ne hanno libero accesso. L'informazione sviluppata diventa un bene pubblico. Le metodologie di sviluppo tipiche delle comunità di sviluppo di software Open Source sono state importanti nel portare questo fenomeno alla consapevolezza generale. Dal successo del software Open Source e della sua modalità di organizzazione collettiva ci si è quindi accorti degli altri esempi, in altri campi, che seguivano principi molto simili. Gli innovatori spesso rivelano liberamente le loro scoperte perché spesso è la migliore o la sola opzione pratica disponibile: nascondere una innovazione come segreto commerciale è una strategia che non può avere successo a lungo termine. Troppe persone possiedono conoscenze molto simili, e molti potrebbero rivelarle. La rivelazione delle informazioni viene fatta perchè, anche se può comportare rischi di perdite, porta anche dei vantaggi: altri utenti possono migliorare ulteriormente le innovazioni o dare consigli per farlo, a vantaggio collettivo. Altri vantaggi sono la costituzione di una forte reputazione personale e da effetti di network dovuti alla diffusione della propria innovazione. L'innovazione da parte di utenti tende ad essere distribuita in maniera estesa piuttosto che concentrata fra pochi utenti innovativi. Di conseguenza, è importante per gli utenti innovatori trovare modi di combinare i loro sforzi, attraverso molte forme di cooperazione: diretta, informale, cooperazione di utente-a-utente (assistendo altri utenti, rispondendo a domande e così via; in questo caso, gli utenti interagiscono in modo paritario, Peer-to-Peer). La formazione di comunità di innovazione può aumentare la velocità e l'efficacia con cui utenti ed anche produttori possono sviluppare, testare e distribuire innovazioni. Von Hippel definisce quindi le innovation communities (comunità di innovazione) come nodi che consistono di individui o imprese interconnessi da trasferimenti di informazioni che possono comportare comunicazioni faccia-a-faccia, elettroniche o altro ancora. Questi possono, ma non ne hanno necessità, esistere all'interno dei confini di un gruppo di appartenenza. Spesso, ma 41


non ne hanno bisogno, incorporare le qualità delle comunità di partecipanti, dove la “comunità” è definita come reti di legami interpersonali che forniscono socievolezza, appoggio, informazioni, un senso di appartenenza e identità sociale48.

48 Ibidem p.96 42


2. Open Source

macchina. Ogni programma deve quindi essere scritto in un linguaggio macchina, ovvero con un alfabeto binario.

2.1. Source code, Binary code, Hacker Il termine composto Open Source nasce dal mondo della programmazione informatica e sta ad indicare alcune caratteristiche tecniche del software: è quindi un concetto che necessita alcune conoscenze tecniche sui processi di progettazione dei programmi per calcolatore. Un programma informatico non è altro che un insieme di istruzioni per far sì che il computer svolga determinate funzioni. Il computer “ragiona” in un sistema binario in cui ogni informazione deve essere codificata in una serie composta da sole due cifre: lo zero e l'uno. A seconda di come 0 e 1 vengono disposti e raggruppati abbiamo dei dati che possono essere riconosciuti ed elaborati dalla

Questo alfabeto viene detto binario perché comprende due soli simboli, generalmente indicati con 0 e 1. Un simbolo di questo alfabeto viene detto bit1. Il linguaggio macchina si basa quindi su un sistema numerico binario2, utilizzato per la sua semplicità nel descrivere numeri, lettere, simboli, ma anche per la corrispondenza con i valori logici vero e falso. Ad ogni numero o lettera corrisponde una sequenza di 0 e 1, come si vede nella tabella 1.

a

01100001

A 01000001

0

00000000

! 00100001

b

01100010

B 01000010

1

00000001

" 00100010

c

01100011

C 01000011

2

00000010

# 00100011

d

01100100

D 01000100

3

00000011

$ 00100100

e

01100101

E 01000101

4

00000100

% 00100101

f

01100110

F 01000110

5

00000101

& 00100110

g

01100111

G 01000111

6

00000110

' 00100111

h

01101000

H 01001000

7

00000111

( 00101000

i

01101001

I 01001001

00001000

) 00101001

j

01101010

J 01001010

9

00001001

* 00101010

k

01101011

K 01001011

10

00001010

+ 00101011

l

01101100

L 01001100

11

00001011

, 00101100

m

01101101

M 01001101

12

00001100

- 00101101

n

01101110

N 01001110

13

00001101

. 00101110

o

01101111

O 01001111

14

00001110

/ 00101111

p

01110000

P 01010000

15

00001111

: 00111010

q

01110001

Q 01010001

16

00010000

; 00111011

r

01110010

R 01010010

17

00010001

< 00111100

s

01110011

S 01010011

18

00010010

= 00111101

t

01110100

T 01010100

19

00010011

> 00111110

u

01110101

U 01010101

20

00010100

? 00111111

v

01110110

V 1010110

21

00010101

@ 01000000

w

01110111

W 01010111

22

00010110

[ 01011011

x

01111000

X 01011000

23

00010111

\ 01011100

y

01111001

Y 01011001

24

00011000

] 01011101

z

01111010

Z 01011010

25

00011001

^ 1011110

8

Tabella 1: Corrispondenza alfabeto alfanumerico - alfabeto binario (Fonte: http://www.netlingo.com/more/binary.html, http://www.kerryr.net/pioneers/ascii3.htm) 1 2

http://it.wikipedia.org/wiki/Linguaggio_macchina http://it.wikipedia.org/wiki/Sistema_numerico_binario 43


La scienza informatica ha però creato diversi linguaggi, detti linguaggi di programmazione3, dotati di sintassi ed espressioni caratteristiche, che permettono di dialogare con la macchina senza dover inserire direttamente serie indeterminate e disorientanti di 0 e di 1. Perciò il programmatore scrive il programma in uno di questi linguaggi, dopo di che un altro programma (chiamato compilatore) trasformerà automaticamente le istruzioni in linguaggio binario rendendole così assimilabili da parte del computer. Nel gergo informatico si usa chiamare il codice binario come codice oggetto, mentre il codice con cui è stato sviluppato il software come codice sorgente, il quale è comprensibile e modificabile a qualunque programmatore che conosca il determinato linguaggio informatico usato. Un esempio pratico può essere quello del codice sorgente di un banale programma scritto nel linguaggio di programmazione denominato C (fig.1). Il semplice scopo del programma di esempio, e` quello di individuare due punti giacenti su uno stesso piano. float distance (p0 , p1 ) struct point p0 , p1 ; { float x dist= p1.x -p0.x; floatydist= p1.y -p0.y; return sq rt (x dist * x dist + y dist * y dist); } Fig. 1: Codice sorgente per l'individuazione di due punti giacenti sullo stesso piano (Fonte: Stallman 2003b) éà ÿÿÿ1Ã^‰áƒäðPTRhðƒ##hÆ’##QVhlÆ’# #e`¿ÿÿÿô??U‰ Ã¥Se`të#ƒÀ#£""##ÿo`¡""##‹#…o`uëÆ#Å ’•###ÉÉöU‰ Ã¥QQ‹#p•#ƒÀ#ƒÀ#à e`#à à #)ăìhx„##e`#ÿÿÿƒÄ#ÉÃ??????U‰ Ã¥WVSēe`¾þÿÿ?Æ’#ÿÿÿ?“#ÿÿÿ‰Eð )à 1öà ø#9Æs#‰×ÿ#²‹Mð) Fig. 2: Codice binario di un programma, aperto con un normale editor di testo 01100110 00001101 01110100 00100000 00101100 00101001 01110010 01110000 00100000 00100000 00001101 01100110 00100000 01110011

01101100 00001010 01100001 00101000 00100000 00001101 01110101 01101111 01110000 01110000 00001010 01101100 01111000

01101111 01100100 01101110 01110000 01110000 00001010 01100011 01101001 00110000 00110001 01111011 01101111 00100000

01100001 01101001 01100011 00110000 00110001 01110011 01110100 01101110 00100000 00100000 00001101 01100001 01100100

01110100 01110011 01100101 00100000 00100000 01110100 00100000 01110100 00101100 00111011 00001010 01110100 01101001

Si tratta del codice binario del programma, chiaramente incomprensibile. Inoltre, appare chiaro come neanche in questo modo si riescano a comprendere come siano disposti i vari 0 e 1, in quanto un normale lettore di testi non è in grado di decodificarli, in quanto li raggruppa in sequenze di 8 cifre e poi li tramuta in un carattere. È quindi difficile comprendere il codice binario nel linguaggio binario, ma è anche difficile riuscire a leggerlo in quel linguaggio. Occorrono programmi appositi che, per l'esempio di fig.1, si ottengono sequenze come quelle mostrate in fig.3, comunque incomprensibili. Sorgente in Inglese (la lingua madre dell'informatica) si traduce 'source' e sottintende in un'unica parola il sostantivo "codice": è per questo che, per trasposizione, nel gergo corrente italiano è più facile trovare "il sorgente", unendo un articolo maschile con un sostantivo femminile. Ogni volta che si legge "il sorgente" bisogna intendere "il codice sorgente". La traduzione letterale di Open Source diviene dunque 'sorgente aperto' (e non 'sorgente aperta'). L'aggettivo open sta a significare che il codice sorgente rimane accessibile a chiunque voglia intervenire sul programma, correggerne gli errori (detti in gergo bug) sorti durante la sua compilazione, aggiornarlo, perfezionare le sue funzioni, oppure semplicemente studiarne i meccanismi e prendere spunto per altri programmi. Il codice sorgente, contenente le istruzioni da eseguire e (spesso) alcuni dati noti e costanti, può essere poi eseguito passandolo ad un interprete4, che eseguirà le istruzioni in esso contenute, il che è la prassi normale per i linguaggi di scripting; oppure può venire compilato, cioè tradotto in istruzioni di linguaggio macchina da un programma compilatore: il risultato è un file binario eseguibile che non ha bisogno di altri programmi per andare in esecuzione, ed è anche molto più veloce di un programma interpretato. La compilazione è la norma per tutti i linguaggi di programmazione di uso generale; ma esistono le eccezioni, come il linguaggio Java, che applica un ibrido fra le due soluzioni, utilizzando un compilatore per produrre del codice intermedio che viene successivamente interpretato5.

2.2. Tre generazioni di hacker Bisogna inoltre precisare, sfatando una credenza diffusa, che i termini hacker e hacking, non 4

Fig. 3: Codice binario per l'individuazione di due punti giacenti su un piano, in formato numerico

Dopo la fase di compilazione lo stesso programma, in forma di codice eseguibile, se letto con un normale programma di lettura di testi, appare come in fig.2. 3

44

http://it.wikipedia.org/wiki/Linguaggio_di_programmaz ione

5

In informatica, un interprete è un programma che esegue altri programmi. Un linguaggio interpretato è un linguaggio di programmazione i cui programmi vengono eseguiti da un interprete. Tale approccio si distingue da quello dei linguaggi compilati: a differenza di un interprete, un compilatore non esegue il programma che riceve in ingresso, ma lo traduce in linguaggio macchina (memorizzando su file il codice oggetto pronto per l'esecuzione diretta da parte del processore). (Fonte: http://it.wikipedia.org/wiki/Interprete_%28informatica %29) http://it.wikipedia.org/wiki/Linguaggio_di_programmaz ione


derivano dalle pratiche di pirateria informatica. Si tratta infatti di un concetto che esula da qualsivoglia connotazione negativa e che nasce ancora prima della comparsa dei pirati informatici, a cui è poi stato collegato erroneamente e che dovrebbe essere sostituito con il più appropriato cracker. Infatti, i veri hacker non mantengono nascosta la propria identità, non avendo nulla da temere in quanto non infrangono alcuna legge. Un hacker, nell'accezione originaria di questo neologismo, è solo e semplicemente un esperto di informatica a cui piace programmare, che lo fa non con intenti di profitto ma per una sorta di irrefrenabile passione, quasi per vocazione. Il termine hacker può essere traslato a qualsiasi campo: un designer che con passione progetta, studia altri progetti e condivide le conoscenze acquisite con altre persone può essere considerato un hacker del design, e così via.

Fig. 4: Modello IBM 7094, operativo nel 1965 (Fonte: http://www.columbia.edu/acis/history/7094.html)

I primi calcolatori (a valvole e poi a transistor) comparvero nei primi anni '50; si trattava di congegni dalle enormi dimensioni (fig.4) con limitate funzioni, che rimasero operativi a livello di università e centri militari e rappresentavano ancora una fase semi-sperimentale della scienza informatica. La prima generazione di programmatori informatici (o hacker) si formò quindi attorno a questi centri, dove sviluppavano programmi indipendentemente. Nonostante le distanza fra gruppi impedissero una ampia collaborazione, all'interno dei gruppi tutti i programmatori condividevano i programmi sviluppati e le conoscenze acquisite, incoraggiando ulteriori modifiche. Queste abitudini vennero a formare una vera e propria etica, detta etica hacker. Nell'anno 1969 la prima ristretta comunità hacker venne costretta (dalla rivoluzione culturale in atto

in quel periodo) ad uscire dal suo originario isolamento nelle università e nei centri di ricerca e ad affacciarsi al mondo reale. In quell'anno infatti vide la luce il sistema operativo Unix, grazie al lavoro di uno sviluppatore dei laboratori Bell. Unix era il primo sistema operativo sviluppato in linguaggio C (un particolare linguaggio di programmazione) e non in linguaggio macchina (binario) ed era il primo a ricercare l'idea di portabilità e compatibilità. Prima di Unix, cioè, ogni computer necessitava un apposito sistema di software (sistema operativo e programmi vari); ogni volta che la macchina veniva aggiornata o sostituita era necessario riprogettare gran parte del sistema software. Il ruolo del software si fece più dinamico e più facilmente gestibile, indipendentemente dal supporto hardware su cui era installato; inoltre, le imprese produttrici di hardware concedevano il codice sorgente, considerandolo secondario rispetto all'hardware. Fu dunque possibile affacciarsi su un mercato dell'informatica decisamente più ampio ed elastico. Il 1969 è inoltre l'anno in cui vennero collegati per via telematica i nodi dei centri di ricerca informatici di quattro grandi università statunitensi (Los Angeles, Santa Barbara, Stanford, Utah): nacque così ARPANET, riconosciuta da tutti come l'effettivo embrione dell'attuale Internet. Si passa così, con l'inizio degli anni '70, ad una seconda generazione di hacker fedele ai principi etici originari, ma interessata più che altro alla diffusione del mezzo su cui amavano operare. Il loro obbiettivo era quello di fare uscire lo strumento "computer" dai grandi centri di ricerca, per renderlo più familiare alla grande massa degli utenti; si impegnavano affinché le apparecchiature fossero più piccole, maneggevoli ed economiche. Nacque nei primi anni '80 il personal computer, grazie all'impegno degli hacker nel “liberare l'hardware”, e in seguito anche per interessi economici da parte delle imprese come IBM e Atari. I primi personal computer vennero infatti progettati da semplici appassionati che si riunivano nell'associazione Homebrew Club, e da cui alcuni componenti fondarono l'impresa Apple e commercializzarono il primo personal computer da tavolo. IBM adottò inizialmente una politica aziendale piuttosto “illuminata”, cercando di incoraggiare la diffusione e lo sviluppo del software e stimolando la collaborazione di altre importanti imprese, come la Microsoft che realizzò il sistema operativo per i nuovi computer: il sistema MS-DOS, tuttora fondamentale per il funzionamento della gran parte PC. In questo mondo una utenza molto più ampia venne a contatto con il campo dell'informatica, con una conseguenza nel mondo dei programmatori: più gli utenti divenivano numerosi e più questa terza generazione di hacker risultava frazionata e composita. Non più solo gli studiosi di informatica e di tecnologia, ma anche una sempre più numerosa schiera di curiosi, ai quali era però difficile trasmettere in modo completo e autentico certi principi etici nati in una sorta di ristretta casta. Con molta rapidità l'informatica, da elitaria scienza 45


al servizio del progresso, si trasformò in un grande business al quale l'imprenditoria statunitense (prima, e poi anche mondiale) non ha saputo rinunciare. Gli investimenti divennero massicci e il margine di profitto potè solo aumentare vertiginosamente con gli anni; perciò le imprese che si affacciano su questo mercato diventano istintivamente gelose dei propri sforzi e ricorrono sempre più spesso alle tutele che il diritto industriale (copyright e brevetti) prevede. E ciò è ben possibile che avvenga senza che nessuno degli utenti comuni (quelli a cui quel mercato si rivolge) gridi allo scandalo per il soffocamento dei canoni di libertà e condivisione che aveva caratterizzato per gli scorsi decenni l'evoluzione del software. Nel pieno del boom degli anni '80, nessuno degli acquirenti dei primi PC si preoccupava di quanto lavoro di progettazione collettiva nel corso dei decenni precedenti ci fosse dietro il giochino e le applicazioni che maggiormente adoperava. Si verificò, come prevedibile, un progressivo sovvertimento di quanto ereditato dalla tradizione hacker: quantità invece di qualità, controllo invece di libertà, profitto invece di personale dedizione, divisione invece di cooperazione, segretezza invece di condivisione. Nasce quindi da una costola della figura dell'hacker autentico la figura del programmatore professionista il quale svolge le stesse funzioni tipiche dei suoi predecessori, ma inquadrato nella gerarchia aziendale e non più unico padrone delle proprie creazioni informatiche. La speranza che la diffusione dei computer avrebbe potuto portare ha una diffusione dell'etica hacker si incrinò.

"Gnu"s Not Unix" ('Gnu non è Unix') (fig.6) con un'espressa vena di antagonismo e di sfida. Ovviamente tutti i potenziali “adepti” avrebbero dovuto poter avere un punto di riferimento unico che si facesse portavoce e mecenate dell'impresa; nacque così, sempre per opera di Stallman e sotto la sua stretta supervisione, la Free Software Foundation (fig.7): un'organizzazione no-profit mirata alla raccolta di fondi, al coordinamento dei progetti e alla sensibilizzazione del popolo dell'informatica. Nei primi anni di vita entrambi i progetti (che si potrebbero considerare come due manifestazioni di un unico progetto) faticarono ad ingranare, a causa della già accennata situazione di frammentazione della comunità degli informatici. Le cose cambiarono invece con la raggiunta maturazione della rete telematica: quando infatti Internet verso la fine degli anni '80 iniziò a connettere stabilmente un numero cospicuo di utenti, il messaggio della Free Software Foundation (FSF) poté raggiungere gli hacker di vecchio stampo sparsi per il mondo, che erano rimasti anch'essi disorientati e isolati dal cambiamento. Si ricominciò così a recuperare lo spirito di condivisione tipico dell'etica hacker e ad applicarlo alla realizzazione del nuovo sistema operativo libero GNU.

2.3. Free software È proprio in questo periodo che si innesta l'opera di Richard M. Stallman (fig.5): abile ed esperto programmatore indipendente, appartiene a quella prima generazione di hacker, di cui ne rappresenta lo stereotipo integerrimo e incontaminato. Nel 1983 egli è il primo ad avvertire repulsione per quel nuovo modello d'informatica che andava a configurarsi; ed è il primo a muoversi concretamente e visibilmente nella direzione del risveglio delle coscienze di coloro che l'informatica l'avevano simbolicamente partorita. Il problema da affrontare non era la gratuità del programma ma l'accesso al codice sorgente: all'epoca i programma che egli poteva utilizzare al MIT erano forniti gratuitamente dalle imprese sviluppatrici, a scopo promozionale. Non un problema economico ma un problema etico, il declino dell'etica hacker6. Stallman si sentiva l'ultimo vero hacker sopravvissuto al cambiamento del suo habitat naturale. Nel 1983 decise dunque di abbandonare il MIT, per dedicarsi alla realizzazione di un sistema operativo di tipo Unix che fosse però libero dall'impostazione esclusiva del copyright e distribuibile liberamente. Nacque appunto il Progetto GNU, acronimo ricorsivo che sta per 6

46

Marleen Wynants, Free as in Freedom, not Gratis! An interview with Richard Stallman, p.74-75 in Wynants, Cornelis (2005)

Fig. 5: Richard Stallman (Fonte: http://commons.wikimedia.org/wiki/Category:Richard_S tallman)

Stallman escogitò un meccanismo atipico di copyright basato su particolari licenze, chiamato appunto copyleft, con il quale costringeva chiunque volesse apporre modifiche al software distribuito liberamente dalla FSF a ridistribuirle altrettanto liberamente. Ciò significava mantenere accessibile il codice sorgente. Il sito della FSF, quello del Progetto GNU e quello personale di Stallman iniziarono a riportare (e riportano tuttora) molto materiale di matrice ideologica, in cui si esternavano i cardini di tale filosofia. Stallman, nei suoi scritti e nelle sue (numerose quanto eccentriche) apparizioni a convegni e conferenze, amava parlare di “software libero” proprio per marcare la contrapposizione con il software proprietario e la distorsione di ideali che quest'ultimo aveva comportato.


Fig. 6: Il logo di GNU's Not Unix (Fonte: http://en.wikipedia.org/wiki/GNU)

Fig. 7: Il logo della Free Software Foundation (Fonte: http://en.wikipedia.org/wiki/Free_software_foundation)

Il software non libero mantiene i propri utenti divisi e senza aiuto: divisi, perché accettando la licenza hanno promesso di non condividere, e senza aiuto perché non possono capire ciò che il programma faccia realmente. Questa totale integrità morale, unita ad una personalità alquanto egocentrica e insofferente, hanno fatto di Stallman una sorta di ideologoquasi-profeta, idolatrato per certi versi, ma spesso osteggiato come interlocutore o nella messa in pratica dei progetti comuni e per molti destinato ad un inevitabile autoisolamento.

2.4. Linux e Open Source Nonostante il mercato del software proprietario in vertiginosa espansione provocasse un progressivo soffocamento di risorse e possibilità, il progetto proseguiva in modo anche piuttosto soddisfacente; ma presto avrebbe pagato lo scotto della sua congenita frammentarietà. Il repertorio di applicazioni prodotto con il metodo del copyleft era decisamente ampio e ben funzionante; ma non si poteva ancora parlare di un sistema operativo completo poiché non era ancora disponibile un vero e proprio kernel. Il kernel è il “nucleo” del sistema operativo, l'insieme di informazioni che permettono alla macchina di “fare girare” correttamente tutte le applicazioni che compongono l'intero sistema operativo. Senza di lui, il sistema operativo GNU non poteva far altro che appoggiarsi su una piattaforma di software proprietario, indebolendo così gli intenti ideologici e dimostrativi del progetto. Tale grossa pecca dipendeva proprio dalla difficoltà di amalgamare

un lavoro così composito e di coordinare una squadra tanto indefinita e mutevole di sviluppatori. Per un risultato completo e perfetto si pensava ci fosse bisogno di un certo grado di controllo e centralizzazione del lavoro; un lavoro di una certa solennità, simile all'opera di un geniale architetto nel realizzare una grande edificio. Tuttavia nel 1991 Linus Torvald (fig.11), un giovane studente di informatica dell'Università di Helsinki, sviluppò il kernel del sistema operativo GNU con un approccio opposto, basato sull'assenza di un progetto predefinito e l'apertura alla partecipazione di molti programmatori. Questo successo fu reso possibile dall'avvento dei primi accessi ad Internet, che permettevano la coordinazione di un ampio numero di programmatori. Tutto nacque infatti da un semplice messaggio postato da Torvalds in un newsgroup (fig.9). L'idea iniziale era quella di un passatempo, senza obiettivi specifici e senza la sicurezza di sviluppi futuri. Questo kernel venne in seguito migliorato e, dal nome del suo ideatore, venne denominato Linux, mentre l'intero sistema operativo fu descritto come GNU/Linux, anche se ormai normalmente conosciuto semplicemente come Linux. Nell'arco di pochi anni la stampa (non più solo settoriale) cominciò a puntare i suoi riflettori su questo fenomeno che si espandeva a macchia d'olio quanto più si diffondeva l'uso di Internet. L'imprenditoria (prima quella più piccola e indipendente, poi anche quella grande e di rilievo) iniziò a cogliere gli aspetti di business che potevano celarsi dietro questa rivoluzione. Bisogna ricordare che lavorare nell'ambito del software libero non significa fare del puro volontariato o rifiutare a priori ogni forma di commercializzazione: lo sottolinea tutta la saggistica di matrice economica che si occupa di marketing e distribuzione del software, e lo gridano a grande e unanime voce gli ideologi del software libero, primo fra tutti Stallman in persona. Il software libero come modello di business si presentava al mondo degli affari non solo come un pericoloso nemico da contrastare ma anche come un'allettante valvola di sfogo per un nuovo orizzonte di sviluppo. Anche se in quell'ambito non si poteva più fare affidamento sul profitto derivato dalla vendita dei pacchetti “chiusi” di software proprietario, si prospettava tutta una gamma di servizi collegati che comportavano guadagni sì meno massicci, ma anche più elastici, più duraturi e accompagnati da un taglio netto sulle spese di produzione e di distribuzione; garantendo inoltre un'alta qualità del prodotto. Tali servizi andavano dalla manutenzione del software, al suo periodico aggiornamento, ma soprattutto alla sua customizzazione: una “personalizzazione” delle funzionalità del software più adatte al singolo cliente. I produttori che non rendono Open Source i loro programmi trovano difficile competere con chi lo fa, dal momento che gli utenti imparano ad apprezzare quei diritti che avrebbero dovuto sempre essere loro. Nel 1998 la Netscape, importante impresa statunitense di 47


software, decise di diffondere il suo prodotto di punta, il browser Navigator, con il codice sorgente accessibile. Una mossa abbastanza inaspettata che fu un grande segnale che i tempi erano maturi. Era giunto quindi il momento di fare una mossa importante: uscire dal mercato pur ampio ma comunque sotterraneo della comunità hacker e affacciarsi sul vero mercato mondiale dell'informatica, sfidando le grandi imprese del software proprietario sul loro stesso campo.

Era un passo pieno di insidie, dato che, uscendo allo scoperto, era più difficile mantenere incontaminati i principi etici e tecnici che per decenni avevano accompagnato il movimento per la libertà nel software; diventava anche più facile che si formassero ingombranti interessi economici e inopportune divisioni all'interno di quell'immenso gruppo di lavoro. Per di più era necessario riuscire a far digerire il concetto di software libero alle imprese nuove possibili finanziatrici, rendendolo tangibilmente appetibile ed epurandolo da ogni scomoda componente ideologica e propagandistica. A ben vedere, il principio che Free Software potesse andare d'accordo con investimento proficuo circolava più facilmente nelle facoltà di economia piuttosto che nei consigli di amministrazione: questo per dire che il passaggio dalla teoria accademica/filosofica alla pratica delle effettive strategie di marketing non fu decisamente automatico. Ad incutere diffidenza nelle alte dirigenze era l'ancoraggio indissolubile (a volte anche solo subconscio) che sussisteva fra l'idea di software libero e l'idea di gratuità e non-commerciabilità del prodotto, con l'aggiunta di una certa riluttanza verso il mantenimento di tutto l'apparato etico che ne stava dietro. Non bisogna dimenticare che in inglese la parola free mantiene i due significati di libero e di gratuito.

Fig. 8: Linus Torvalds (Fonte: http://en.wikipedia.org/wiki/Linux_Torvalds)

Ma la scelta dell'aggettivo free non era stata compiuta per leggerezza; anzi, Stallman all'epoca dei primi progetti GNU voleva proprio sottolineare – con scopi appunto altamente propagandistici – la doppia implicazione di libertà e gratuità. Il software libero viene quindi spesso descritto co l'espressione “free speech, not free beer”, cioè libero come la libertà di parola ma non gratuito. Questo argomento viene trattato da Stallman con queste parole: “Molta gente crede che lo spirito del progetto GNU sia che non si debba far pagare per distribuire copie del software, o che si debba far pagare il meno possibile: solo il minimo per coprire le spese. In realtà noi incoraggiamo chi ridistribuisce il software libero a far pagare quanto vuole o può. […] I programmi liberi sono talvolta distribuiti gratuitamente, e talvolta ad un prezzo

Message-ID: 1991Aug25.205708.9541@klaava.helsinki.fi From: torvalds@klaava.helsinki.fi (Linus Benedict Torvalds) To: Newsgroups: comp.os.inix Subject: What would you like to see most in minix? Summary: small poll for my new operating system Hello everybody out there using minix-I’m doing a (free) operating system (just a hobby, won’t be big and professional like gnu) for 386 (486) AT clones. This has been brewing since april, and is starting to get ready. I’d like any feedback on things people like/dislike in minix, as my OS resembles it somewhat Any suggestions are welcome, but I won’t promise I’ll implement them :-) Linus Fig. 9: Messaggio di proposta del progetto sistema operativo Linux (Fonte: http://groups.google.com/group/comp.os.minix/msg/b813d52cbc5a044b?hl=en)

48


Fig. 10: Schermata di Linux, versione Ubuntu 6.10

consistente. Spesso lo stesso programma è disponibile in entrambe le modalità in posti diversi. Il programma è libero indipendentemente dal prezzo, perché gli utenti sono liberi di utilizzarlo. Programmi non-liberi vengono di solito venduti ad un alto prezzo, ma talvolta un negozio vi darà una copia senza farvela pagare. Questo non rende comunque il software libero”7.

Fig. 11: Tux, il simbolo di Linux (Fonte: http://commons.wikimedia.org/wiki/Image:NewTux.svg)

Alcuni esponenti della cultura hacker cercarono quindi una maniera per rendere più accettabile il concetto di accessibilità del codice sorgente alle imprese, sempre seguendo l'etica hacker ma non ponendola in primo piano come se fosse una sfida. I nomi che maggiormente destano attenzione sono quelli di Tim O'Reilly, editore di manuali informatici, e soprattutto Eric Raymond (fig.12), attento osservatore della cultura hacker e grande personalità all'interno della comunità. Entrambi avevano da poco collaborato, assieme a Linus Torvalds, al progetto di "liberazione del 7

sorgente" di Netscape Navigator, creando una famosissima licenza (la MPL, Mozilla Public License) alternativa a quella redatta da Stallman per la distribuzione dei prodotti GNU (la GPL, General Public License). La MPL era risultata più funzionale al caso Netscape (oltre che epurata da componenti ideologiche) e parsa subito ben accetta alla comunità hacker mondiale. Sull'onda di questo successo Raymond, O'Reilly e altri opinion leader crearono un gruppo di lavoro per riuscire ad escogitare la congeniale chiave con cui presentarsi alle imprese e accedere così sul mercato. L'avvento di Linux aveva rappresentato, d'altronde, l'emersione di una nuova generazione di hacker, che ormai erano cresciuti in un mondo in cui il software proprietario era la normalità. Ciò comportava che essi non sentissero il retaggio etico di coloro che avevano visto la scienza informatica negli anni d'oro della totale libertà; a questi nuovi hacker (o più semplicemente “programmatori indipendenti”) non premeva tanto l'aspetto ideologico della libertà, quanto quello funzionale e pratico . In altre parole, la massima libertà anche nelle scelte: libertà anche di scegliere un software proprietario o un software libero a seconda di ciò che più è congeniale, senza dover rendere conto ai dettami di associazioni o pensatori più o meno carismatici. Ad ogni modo, la prima “scelta di campo” di Raymond e colleghi fu proprio coniare un termine che identificasse in modo limpido, neutrale ed accattivante il tipo di prodotti che si offrivano. Ci voleva qualcosa che sottolineasse, piuttosto che gli aspetti etici e gestionali del software liberamente distribuito, le sue caratteristiche tecniche più interessanti: ovvero, la flessibilità, la adattabilità e la specificità, che rendevano i programmi decisamente più affidabili, meglio modificabili e personalizzabili e quindi più efficienti ed economici.

Stallman (2003a) 49


Fu Eric Raymond a pensare l'espressione Open Source. Open Source, ad un sguardo attento, mantiene in parte una sfumatura di matrice etica, per il riferimento al concetto di apertura (open) che appunto è col tempo uscito dal suo senso puramente tecnico (aperto nel senso di “codice disponibile e modificabile”), assumendo una connotazione più ampia (aperto nel senso di “privo di vincoli” tout court). Nel 1998 Raymond propose inoltre la creazione di una organizzazione che vigilasse sul corretto uso del termine Open Source e coordinasse i vari progetti: la Open Source Initiative (OSI) (fig.13). In pratica, con una immagine matematica, la OSI sta al concetto di Open Source come la FSF sta al concetto di Free Software. Due distinte e rilevanti strutture organizzative per progetti che nella maggior parte dei casi andavano verso la stessa direzione. Il canone dell'unità e della cooperazione poteva essere ormai depennato dalla lista dei punti cardine dell'etica hacker, e Stallman reagì allargando le distanze del Free Software dall'Open Source software. Ad ogni modo, con questa altalenante frattura (un giorno più ampia, un giorno più stretta), si è giunti alla situazione odierna, dove il Software Libero od Open Source, come lo si voglia chiamare, ha raccolto una generale approvazione e ha dato veramente un giro di vite al mercato del software. Oggi il sistema operativo Linux è entrato con successo nelle case di tutto il mondo, anche se non si può ancora dire che abbia scalzato Windows di Microsoft nell'uso più comune. Linux, d'altronde, è certamente più affidabile e stabile del concorrente, ma risulta anche meno intuitivo e meno indispensabile per l'utente medio, che non ha le grandi esigenze di un network o di un impresa. Tuttavia ormai le grandi compagnie di hardware o di software non mettono più nulla sul mercato che non sia almeno compatibile con Linux; e alcune (sempre più numerose) addirittura ne incoraggiano l'uso, in previsione di una miglior gestione dei servizi di manutenzione e aggiornamento. In generale, grazie alla risonanza mediatica che proprio Linux ha generato, anche gli utenti comuni (e non più solo i professionisti del campo) cominciano a cogliere le peculiarità e i vantaggi del software aperto e a capire che spesso, pur con le due diverse definizioni, si tratta dello stesso concetto. Attualmente, esistono almeno 129043 progetti di Software Libero e Open Source, ospitati nel sito Sourceforge.net8. L'iniziativa Open Source di Raymond ha finalmente fatto quel tanto atteso passo nel mercato. Stallman, dal canto suo, sembra aver raccolto i frutti della sua inattaccabile coerenza e, forse proprio grazie ad essa, ha mantenuto la sua credibilità e il suo carisma. Può anche darsi che Stallman non possa più considerarsi leader incontrastato del movimento software libero, ma rimane comunque la calamita dell'intera comunità. Ad ogni modo, nella comunità di programmatori e soprattutto utenti non viene percepita una forte 8

50

Ultimo accesso effettuato il 09/02/2006, http://sourceforge.net/softwaremap/trove_list.php

dicotomia tra Free Software e Open Source software. Molto spesso infatti non viene fatta distinzione fra le due tipologie/filosofie, indicando con il termine Open Source anche Free Software. In questo testo si farà d'ora in poi riferimento solamente al termine Open Source, includendo al suo interno anche le caratteristiche tipiche del movimento Free Software.

Fig. 12: Eric Raymond (Fonte: http://en.wikipedia.org/wiki/Eric_Raymond)

Fig. 13: Marchio di certifica Open Source Initiative (Fonte: http://www.opensource.org/)

Come notato da Marianne van den Boomen e Mirko Tobias Schäfer9 i tre hacker Richard Stallman, Linus Torvalds e Eric Raymond rappresentano tre aspetti complementari del movimento Free Software/Open Source: una nuova etica, l'etica hacker; una nuova economia, hacker; una nuova concezione di comunità di hacker. Stallman rappresenta l'hacker con una missione etica, mentre Eric Raymond l'hacker on una nuova strategia di business. Linus Torvalds rappresenta l'hacker "con una famiglia". Torvalds scrisse una autobiografia10 della sua esperienza di hacker, in cui non parlava di missioni etiche né di strategie commerciali, ma solo della sua vita personale e della sua famiglia. Linus Torvalds rappresenta quindi l'hacker con uno stretto legame con la dimensione di comunità.

9 van den Boomen, Schäfer (2005) 10 Linus Torvalds, David Diamond, Just for Fun: The Story of an Accidental Revolutionary, Harper Business, 2001


2.5. Successo e prospettive future La nascita e l'esplosione della filosofia Open Source sono fenomeni recenti, e quindi non si è ancora giunti ad una visione comune e stabile sulle sue implicazioni e sul suo futuro. Certamente, il concetto di Free Software risale ai primi anni '80 e, negli anni precedenti, a partire dalla nascita della programmazione, qualsiasi software era un Free Software od Open Source software ante litteram. E i principi di condivisione e collaborazione non sono certamente una scoperta recente ma hanno accompagnato da sempre la storia dell'umanità. Ma la definizione di Open Source risale al 1998, la descrizione di Manuel Castells del paradigma dell'informazionalismo risale al 1996 11, la stessa apertura di Internet ai privati dalla prima metà degli anni '90, e la constatazione della diffusione della filosofia Open Source in altri ambiti risale al 200312. Si capisce come sia ancora presto per poter trarre delle conclusioni: molti ricercatori stanno studiando le implicazione della filosofia Open Source, da diverse discipline e da diverse prospettive. È comunque chiaro come sia importante però studiare ora il fenomeno, per capire come questa "rivoluzione" possa cambiare la società nel futuro. Possiamo quindi presentare alcuni contributi, tra i più importanti, che cercano di spiegare le cause del successo e le sue prospettive future dal punto di vista informatico. Secondo Marleen Wynants e Jan Cornelis13, sono due le ragioni principali del successo del software Open Source: lo sviluppo di Internet e l'eccesso di controllo sopra la proprietà intellettuale. Internet ha reso possibile la creazione di progetti di massa, a grande scala, e allo stesso tempo decentralizzati, per la prima volta nella storia dell'umanità. La proprietà intellettuale è uno strumento legale che è diventato un simbolo dell'esatto opposto di ciò per cui era stata introdotta: la protezione dei processi creativi. Di conseguenza, nuove modalità di condivisione dei processi creativi e dei loro risultati sono in costante sperimentazione. Ikka Tuomi riassume invece le cinque principali ragioni comunemente apportate al successo del software Open Source14. La prima riguarda il costo. I software Open Source normalmente non richiedono il pagamento di somme per la cessione di licenze di utilizzo, e gli utenti possono effettuare download gratuiti da Internet. La seconda riguarda la opinione diffusa della qualità superiore del software Open Source rispetto al software proprietario, dovuta al suo modello di sviluppo. Basandosi su un numero alto di collaboratori, questo processo di sviluppo permette una risoluzione più veloce e completa di tutti gli errori presenti. La terza ragione riguarda la possibilità di modifica del codice sorgente da parte dell'utente, 11 12 13 14

Castells (1996) Goetz (2003) Wynants e Cornelis (2005), pp.12-13 Tuomi (2005)

in relazione alle proprie esigenze. I software proprietari, non permettendo la consultazione né la modifica del proprio codice sorgente, limitano un possibile ruolo attivo dell'utente nel modificarli. La quarta ragione riguarda l'opinione diffusa che i modello di sviluppo Open Source riesca ad incorporare idee innovative più rapidamente e con più efficacia, grazie alla presenza di un numero elevato di partecipanti. La ultima ragione, riguarda il fatto che la presenza del codice sorgente permette la verifica della funzionalità del software, permettendo l'eliminazione di errori e vulnerabilità ai propri utenti. Queste cinque ragioni rappresentano le opinioni più diffuse riguardo il software Open Source, e sebbene siano oggetto di discussione, sono una espressione delle caratteristiche principali della filosofia Open Source. Tim O'Reilly15 propone una spiegazione più completa sul successo del software Open Source partendo dalle caratteristiche principali del software e di Internet. Già altri autori hanno citato queste caratteristiche, ma la spiegazione di O'Reilly presenta una sfumatura più precisa e specifica nello spiegare le ragioni del successo del software Open Source, dalla prospettiva del software e del suo sviluppo. L'analisi di O'Reilly parte dalla constatazione dell'avvenuto cambiamento di alcuni paradigmi. Come Manuel Castells nella sua descrizione dell'informazionalismo16, O'Reilly fa riferimento alla definizione data Thomas Kuhn del concetto di paradigma17. Per Kuhn il progresso scientifico non è graduale ma una sorta di equilibrio più o meno costante con alcuni momenti di cambiamento epocale, come è avvenuto con Copernico e Darwin. Una scoperta scientifica non è un incremento alle conoscenze attuali ma richiede la riconsiderazione di intere teorie e concetti già acquisiti: egli chiama questi rivoluzionari processi come cambiamenti di paradigma (paradigm shifts). Per O'Reilly un cambiamento di paradigma avvenne nel 1981 con l'introduzione, da parte di IBM, di una architettura standard per i personal computer. In contrasto con le consuetudini, IBM incominciò a produrre computer a partire da componenti comprati e rendendo i progetti accessibili (ogni computer veniva venduto con la descrizione degli schemi elettronici), aprendo le porte ad un numero elevato di imprese dedite alla copia e produzione di questi computer. In questo modo, l'architettura per personal computer sviluppata da IBM divenne uno standard, rimpiazzando gli altri tipi di computer esistenti. Tuttavia, i vertici di IBM non seppero comprendere appieno le conseguenze delle loro decisioni. All'epoca, le imprese dedite allo sviluppo di software erano semplicemente dei satelliti delle imprese produttrici di hardware: il software veniva considerato di scarsa importanza, e IBM decise di 15 O'Reilly (2005) 16 Castells (2001) 17 Kuhn, T. (1962), The Structure of Scientific Revolutions, University of Chicago Press, Chicago 51


lasciare il compito di fornire i propri computer con un sistema operativo ad una piccola impresa, la Microsoft. In seguito, altre imprese dedite alla copia degli standard IBM divennero leader in quel mercato, e il software divenne l'aspetto più importante dei computer, rendendo Microsoft molto più importante di IBM. Secondo O'Reilly, il movimento Open Source e Free Software si trovano ora nella stessa posizione di IBM nel 1981, quando cambiò le regole dell'industria del computer, ma non seppe comprenderne le conseguenze. Il futuro di questi movimenti, delle loro filosofie e dei loro software dipende dalla comprensione della direzione che il mercato informatico sta prendendo. Per avere questa comprensione, O'Reilly propone di vedere il movimento Open Source come l'espressione di tre tendenze di lungo corso: la commodization del software, la possibilità di collaborare attraverso reti e la modificabilità e personabilità del software (inteso quindi come un servizio)18. La commodization del software (la sua trasformazione in una commodity) è causata dalla emergenza di standard, provenienti dallo sviluppo di sistemi di comunicazione come Internet. La comunicazione infatti può avvenire con successo solo se i computer comunicano con gli stessi protocolli, quindi con gli stessi standard. Per O'Reilly la nuova natura di commodity del software porta come conseguenza che i guadagni nel futuro verranno non dalla vendita del software, ma dall'offerta di servizi ad essi associati. La possibilità di effettuare collaborazioni attraverso reti è una proprietà di Internet che il movimento Open Source ha sfruttato sin dall'apertura di Internet ai privati, effettuata nella prima metà degli anni '90. Per O'Reilly la metodologia di sviluppo software Open Source rappresenta il "linguaggio naturale" di una comunità collegata da reti, che emerge naturalmente19. Il movimento Open Source si trova quindi in vantaggio, se continuerà a saper sfruttare le caratteristiche delle future reti di comunicazione. La natura modificabile del codice sorgente, e il fatto che non tutti gli utenti possiedono le conoscenze per farlo, porta all'emergenza di nuove possibilità commerciali attraverso la customizzazione del software, ovvero con la considerazione del software non come un bene, un artefatto, ma come un servizio. Normalmente siamo abituati a considerare il software come un artefatto, anziché un processo. E certamente, nel nuovo paradigma, ci sarannoo software-artefatti, quei software che secondo O'Reilly diventeranno una commodity per il fatto di rappresentare uno standard di comunicazione. Ma vi sarò anche del software che non potrà essere considerato come una commodity, ma come qualcosa che dovrà 18 O'Reilly (2005) 19 "It appears that Open Source is the “natural language” of a networked community. Given enough developers and a network to connect them, opensource-style development behavior emerges." O'Reilly (2005) P.98 52

essere modificato costantemente: quindi, un processo. Soprattutto quelle attività che richiedono una partecipazione di utenti (come Google, Amazon, eBay), di per sé di natura dinamica, non si basano su dei prodotti ma su dei processi. I software quindi come un servizio, non solo come una commodity a cui affiancare dei servizi. Per O'Reily quindi la necessità del movimento Open Source per continuare ad avere successo sarà comprendere l'evoluzione del software e trovare modelli di business adatti. Un'altra analisi molto importante deriva da un articolo di Thomas Goetz, apparso nel novembre 2003 sulla rinomata rivista di nuove tecnologie Wired, intitolato Open Source Everywhere20. Già dal titolo si può comprendere l'importanza di questo articolo: può essere considerato la prima constatazione della estensione della filosofia Open Source verso ambiti differenti dal mondo della programmazione software. La sua pubblicazione su una rivista importante come Wired ha un ulteriore significato: da questo momento la estensione della filosofia Open Source è famosa anche per il grande pubblico, data la fama e diffusione di Wired, ritenuta da molti come la più auteorevole rivista riguardante Internet, il World Wide Web e il mondo dell'informatica in generale. Innanzitutto, per Thomas Goetz una caratteristica fondamentale contraddistingue le comunità Open Source (sia software che derivate): la condivisione degli obiettivi, delle attività, dei risultati, da lui espressa con la frase "share the goal, share the work, share the result". Secondo Thomas Goetz ci troviamo ora di fronte ad un momento dove una filosofia, una strategia e una tecnologia si sono allineate e hanno prodotto una grande innovazione. La filosofia Open Source ha grandi prospettive proprio per il fatto che rappresenta una alternativa allo status quo, più veloce, più ambiziosa e con maggiori capacità di sfruttare il potenziale creativo collettivo. La filosofia Open Source si è sviluppata nel mondo del software per primo grazie alla centralità che ha il codice e alla familiarità con Internet, ma i suoi valori possono estendersi anche ad altri campi, come gli esempi di ThinkCycle21, Linux, Wikipedia22 dimostrano. Goetz ritrova le radici della filosofia Open Source in due teorie: quella riguardante la distribuzione del lavoro fra più lavoratori di Frederick Taylor, e quella dell'interesse personale illuminato di Adam Smith, dove comportamenti "egoistici" individuali portano ad un bene collettivo. Sebbene questi collegamenti possano essere fonte di discussione, la loro importanza risiede nel fatto che rendono la filosofia Open Source strettamente legata al mondo industriale ed economico, e quindi non come una teoria antagonista. Per Thomas Goetz la filosofia Open Source rappresenta il perfetto esempio di un libero mercato. Come prima 20 Goetz (2003) 21 http://www.thinkcycle.org (si veda in appendice a p.289) 22 http://www.wikipedia.org (si veda in appendice a p.273)


accennato, questa posizione è spesso fonte di discussione, e la filosofia Open Source viene descritta secondo le teorie filosofiche ed economiche più disparate. Per altri commentatori la filosofia Open Source rappresenterebbe invece la perfetta applicazione dei principi dell'Anarchia23. Per altri ancora rappresenta una forma di Comunismo: spesso è questa l'accusa che viene rivolta agli hacker, soprattutto negli Stati Uniti, per i quali è molto importante sottolineare il fatto che una filosofia di collaborazione e condivisione come la loro sia ben differente dai regimi comunisti. Stallman stesso esprime la situazione in questo modo, ribaltando l'accusa: "Il comunismo per come fu praticato nell'Unione Sovietica era un sistema di controllo centralizzato dove tutta l'attività era irreggimentata, apparentemente per il bene comune, ma in realtà a vantaggio dei membri del partito comunista. E dove i dispositivi per la copia erano sorvegliati da vicino onde evitare la copia illegale. Il sistema americano del diritto d'autore sul software impone il controllo centralizzato sulla distribuzione di un programma, e i dispositivi per la copia sono sorvegliati tramite sistemi anti-copia automatici onde evitare la copia illegale. All'opposto, il mio lavoro punta alla costruzione di un sistema in cui la gente sia libera di decidere sulle proprie azioni; in particolare, libera di aiutare i vicini, e libera di alterare e migliorare gli strumenti che usano nella vita quotidiana. Un sistema basato sulla cooperazione volontaria e sulla decentralizzazione. Perciò, se dovessimo giudicare le posizioni sulla somiglianza al comunismo russo, sarebbero i proprietari di software a essere comunisti”24. Lawrence Lessig, professore di Giurisprudenza alla Stanford University e figura principale nell'elaborare gli aspetti legali della filosofia Open Source, risponde con ironia dicendo che chi cerca di riformare le leggi sul copyright non sono Communists ('comunisti') ma bensì Commonists (gioco di parole tra comunisti e common, il bene pubblico)25. Ciò che è importante sottolineare, al di là di queste dispute, è che il movimento Open Source non solo rappresenti una filosofia, ma anche un modello economico, ed entrambi rappresentano una rottura con il pensiero capitalista dominante attualmente. Goetz si spinge poi ancora più in là: come Taylor e Smith posero le basi intellettuali per la rivoluzione della produzione di massa, la filosofia Open Source rappresenta il punto di partenza per una rivoluzione basata sulla innovazione di massa. Come la linea di montaggio fordista supportò lo sviluppo della produzione di massa, la metodologia di sviluppo software Open Source supporterà una economia basata sulla conoscenza.

23 Moglen (1999) 24 Stalmann (2003b) p.15 25 Dean (2005)

2.6. Estensione della filosofia Open Source 2.6.1. Caratteristiche fondamentali La filosofia Open Source è stata applicata in molti campi esterni al mondo del software, in alcuni casi con successo, in altri senza successo, mentre in altri ancora questo processo di trasferimento di know-how è iniziato recentemente, e bisognerà attendere per vederne i risultati. Indubbiamente, si possono individuare tre motivi dell'emergenza di questa filosofia Open Source nella natura delle informazioni. Infatti le origini di questa filosofia derivano dal fatto che l'informatica e la programmazione si basano sulla gestione di software, informazioni per la gestione di hardware, di macchine. Il primo motivo riguarda quindi la natura della programmazione, una disciplina dedita alla creazione, modifica, sperimentazione e scambio di informazioni, sotto forma di un codice (sorgente o binario che sia). Il secondo motivo riguarda la standardizzazione di queste informazioni: i linguaggi di programmazione rappresentano un rigido standard, il che facilita la comunicazione. Infatti, programmatori di differenti nazionalità, che parlano differenti lingue, potrebbero non capirse se si parlassero, ma un codice sorgente scritto in un linguaggio di programmazione conosciuto ad entrambi rappresenta una base di comunicazione comune. Infine, ciò che ha permesso la collaborazione di un ampio numero di programmatori, è stata l'apertura di Internet ai privati. Internet rappresenta la possibiltà di distribuire informazioni fra gli utenti connessi, e il codice sorgente rappresenta l'informazione più leggera (in termini di dimensioni, in byte) e quindi la più facilmente e velocemente distribuibile. È possibile quindi elencare tre caratteristiche fondamentali per il funzionamento di una comunità che basa le sue attività sulla filosofia e metodologia Open Source: 1. la produzione di informazioni, che devono essere accessibili, modificabili e distribuibili: per la loro natura di beni non rivali, le informazioni possono essere condivise e riutilizzate in infiniti modi. La natura delle informazioni permette quindi la collaborazione collettiva; 2. la standardizzazione delle informazioni, che permette la facilità di comunicazione nella collaborazione collettiva; 3. l'utilizzo di reti che possano distribuire queste informazioni, le quali a loro volta dovranno tenere conto delle caratteristiche delle reti, al fine di poter essere distribuite e scambiate con facilità. Inoltre, è utile considerare l'analisi del fenomeno Open Source e della sua diffusione effettuata da

53


Geoff Mulgan, Tom Steinberg e Omar Salem26 e una think tank pubblicata per Demos27 indipendente dedicata allo studio delle problematiche sociali e politiche e le loro possibili trasformazioni tramite un approccio bottom-up. Gli autori del saggio elencano una lista28 delle principali caratteristiche condivise dai progetti Open Source: • trasparenza: riguarda il progetto ed il suo funzionamento, visibile ai partecipanti, che possono così decidere se impegnarsi o meno e in che modo e con che obiettivo. Sin dall'inizio dei progetti, ruoli e reputazione sono visibili, permettendo così la coordinazione collettiva; • controllo sui partecipanti solo ad inserimento avvenuto: le organizzazioni tradizionali erigono barriere sempre più sofisticate per le proprie attività, applicando meccanismi di analisi e promozione dei propri partecipanti, al fine di scegliere quelli dotati di maggiori conoscenze e capacità. I progetti Open Source, al contrario, permettono a chiunque la partecipazione: l'unica discriminazione riguarda la qualità del contributo che forniscono. Non vi è quindi un controllo all'ingresso della comunità: spesso sono presenti leader o nuclei centrali (i cosiddetti core group29) che controllano i contributi e la direzione generale della comunità. Normalmente, la posizione di leadership proviene dalla reputazione guadagnata con il proprio contributo apportato: gli autori sottolineano l'importanza del fatto che questo tipo di organizzazione non ha ancora un nome preciso, causata dalla sua novità; • basso costo e facilità di impegno: una reale apertura di una attività dipende dalla economicità e dalla facilità con cui è possibile partecipare. Il movimento di software Open Source si è sviluppato poiché i suoi partecipanti già possedevano computer e connessioni ad Internet, senza dover effettuare investimenti aggiuntivi; una struttura legale e meccanismi di • applicazione: per poter rendere pubblici ai partecipanti i risultati della loro collaborazione, evitando che persone esterne possano approfittarne in maniera scorretta. Le licenze diventano quindi un vero e proprio contratto sociale che regola la collaborazione; leadership: è necessaria la presenza di una • o più persone che, grazie alla loro reputazione, riescano a indirizzare la direzione della comunità e gestire le controversie. Questa caratteristica mette in crisi la visione anarchica del movimento Open Source; 26 27 28 29 54

Mulgan, Steinberg, Salem (2005) http://www.demos.co.uk Mulgan, Steinberg, Salem (2005), p.16-17 p.159

standard comuni: la comunicazione avviene secondo standard condivisi, e soprattutto aperti (open standard), essendo così modificabili dalla comunità secondo esigenza; peer review e cicli di feedback: la presenza di un alto numero di partecipanti porta più velocemente alla individuazione e risoluzione di errori e punti critici; obiettivi condivisi: la presenza di obiettivi condivisi rappresenta un punto di forza nella risoluzione di controversie, che riguardano quindi soltanto aspetti secondari. Infatti, chi non accetta gli obiettivi condivisi, decide di non partecipare; natura incrementale, anche i contributi più piccoli sono importanti: la natura delle infrastrutture telematiche e informatiche permette la partecipazione ad un numero molto elevato di partecipanti, permettendo così anche piccoli contributi. Moltiplicati per il numero elevato dei partecipanti, danno un risultato complessivo notevole; importanti incentivi non monetari: le persone partecipano molto spesso non per diretti guadagni economici, ma per la risoluzione di un problema personale ma condiviso a livello collettivo, per l'utilizzo di un bene prodotto collettivamente, per una convinzione etica diretta alla cooperazione.

Geoff Mulgan, Tom Steinberg e Omar Salem individuano anche alcuni punti critici30 e alcune possibili applicazioni future31 della filosofia Open Source. I punti critici sono: • minority capture: ogni progetto che si apre senza limiti alla partecipazione collettiva si apre anche al rischio che entri una relativa minoranza di partecipanti che desiderino cambiarne la direzione e alterare gli obiettivi (minority capture, una sorta di dittatura della minoranza). Episodi di questo genere sono stati osservati nei partiti politici, in riunioni pubbliche, nelle attività delle lobby e nei forum online. Questo punto critico rende necessaria la presenza di un leader o di un nucleo centrale in grado di mantenere costante la direzione della comunità e dirimere le controversie, e di meccanismi di controllo distribuiti a tutti i partecipanti, come il peer review32, che permettono una votazione collettiva dell'operato di tutti i partecipanti; • differenze e dissensi: i progetti Open Source funzionano efficacemente in presenza di un largo consenso sulle priorità e sui principi. Una volta che il consenso generale viene meno, la comunità si disgrega: sono quindi necessari meccanismi di discussione di principi e priorità a livello collettivo, evitando perciò che una parte della comunità prenda il 30 Mulgan, Steinberg, Salem (2005) p.23-26 31 Ibidem 27-34 32 p.161


controllo e imponga altre direzioni; difficoltà nell'accesso a risorse finanziarie: dato che i progetti Open Source normalmente rilasciano i risultati della cooperazione collettiva come un bene pubblico (o quasi), difficilmente riescono a generare un capitale finanziario da investire nelle proprie attività. Spesso progetto molto innovativi richiedono determinate infrastrutture di ricerca e quindi finanziamenti. Sono quindi necessari nuovi modelli economici per la generazione del capitale indispensabile al funzionameno delle comunità, ma questi sono già presenti e in fase di sviluppo; monopoli "necessari": gli autori sottolineano il fatto che spesso, affinché una innovazione si sviluppi e nasca un suo mercato relativo, sono necessari dei monopoli, seppur temporanei, al fine di recuperare gli investimenti finanziari indispensabili per sviluppare ulteriormente le innovazioni; beni rivali: secondo gli autori i progetti Open Source possono funzionare solo se riguardano beni non-rivali, ovvero quei beni il cui consumo da parte di più persone non ne diminuisce il valore ma anzi lo aumentano. Infatti il bene non rivale per eccellenza è l'informazione, grazie alla quale la filosofia Open Source si è sviluppata nell'ambito del software . Tuttavia i progetti Open Source possono benissimo riguardare anche beni materiali, oppure informazioni che possono essere utilizzate per intervenire su beni rivali. Ad esempio, la produzione collettiva di beni fisici, se questi vengono consumati individualmente, potrebbe non avere molto successo se non ben bilanciata (ovvero se qualche partecipanti riesce ad ottenere una quantità maggiore di questi beni rispetto agli altri). Ma un progetto Open Source può riguardare la produzione collettiva di informazioni legate alla produzione personale di beni fisici: le informazioni, se condivise, non diminuiscono di valore, e ogni partecipante può produrre per sé i beni fisici necessari, evitando così il rischio di appropriazione indebita da parte di agenti esterni; determinate idee necessitano di tranquillità e isolamento per svilupparsi: non tutti i progetti possono essere sviluppati collettivamente, in mezzo al clamore come in un bazaar33. Anche una introduzione anticipata nel mercato può portare ad un fallimento precoce, senza possibilità di soluzione degli errori e ulteriore evoluzione. Anche la presentazione al grande pubblico può portare a critiche feroci e demotivanti. Tuttavia gli autori non considerano il fatto che un progeto Open Source parte

33 Raymond (1998)

solitamente da una idea preesistente34 su cui in seguito si forma una comunità di collaboratori. Deve quindi essere scelta con cura la data di pubblicazione (nel senso letterale del termine: rendere pubblico) di un progetto e delle sue future azioni; innovazioni che si sviluppano ambiguamente: è stato osservato che molte innovazioni di successo si sviluppano improvvisamente, in percorsi non lineari, e quindi non facilmente contenibili entro un percorso. Secondo gli autori i progetti Open Source si sviluppano in maniera molto rigida e con confini ben stabiliti. In realtà, i confini delle comunità non sono mai netti, ma sfumati, dato che la partecipazione è libera e non vincolante a lungo termine: nuovi partecipanti possono portare nuove idee e approcci, al fine di arricchire le conoscenze da cui attingere. È quindi importante favorire la diversità all'interno della comunità35; informazioni private o sensibili: chiaramente, un approccio totalmente trasparente risulta inappropriato quando i contenuti del progetto riguardano temi sensibili o privati. Un governo non potrebbe cercare di progettare delle nuove armi con approccio Open Source, ne minerebbe la segretezza e quindi la sicurezza nazionale.

Anche se la filosofia Open Source può essere l'ispirazione per nuove discussioni pubbliche sui temi più svariati, ma queste, anche se si proclamano Open Source, non necessariamente lo sono. Non è corretto chiamare un progetto Open Source se questo non presenta un "codice", qualunque esso sia. Geoff Mulgan, Tom Steinberg e Omar Salem propongono tre ampie categorie di attività, osservate sul campo36. In alcuni casi, uno stesso progetto può rientrare in tutte e tre le categorie, e queste sono, almeno in parte, trasferibili a contesti estranei al software. Le categorie sono: • open knowledge: progetti dove la conoscenza viene concessa liberamente e trasformate e controllata (e in alcuni casi usata) da una ampia comunità di partecipanti. In questi casi il valore condiviso della conoscenza è l'obiettivo principale; • open team working: progetti formati da comunità di interesse che si organizzano per lo svolgimento cooperativo di attività comuni, con obiettivi ben definiti; • open conversation: forme tradizionali di discussione pubblica estese online e in grado di coinvolgere con efficacia un numero maggiore di partecipanti di quanto non si riuscisse a fare con strumenti tradizionali. In questi casi il processo è importante quanto gli obiettivi. 34 Idem 35 p.124 e seguenti 36 Mulgan, Steinberg, Salem (2005) pp.27-34 55


Secondo Geoff Mulgan, Tom Steinberg e Omar Salem queste tre categorie possono essere applicate in progetti sotto questi ambiti: media, settore pubblico, giurisprudenza, mondo accademico, arti, sanità, finanza e innovazione sociale. Come tutti i progetti Open Source basati su una comunità, il successo dei progetti Open Source esterni all'ambito software dipenderà molto dalla capacità di costruzione di una comunità, oltre che dalla validità della proposta di attività. Ad ogni modo, possiamo qui ricordare alcuni dei filoni principali che queste sperimentazioni stanno seguendo: Open Publishing, Open Content, Open Design, Open Source Biotechnology, Open Source Religion, Open Drinks.

2.6.2. Open Publishing Per Open Publishing37 si intende la possibilità di pubblicare delle notizie o altri contenuti in totale trasparenza rispetto ai lettori. Questi possono contribuire con contenuti, che vengono filtrati il meno possibile, proprio per mantere il processo trasparente. Tutte le decisioni editoriali vengono prese con totale trasparenza: i lettori possono controllarle e proporre modifiche, come succede in una comunità di software Open Source, riguardo alla direzione e agli obiettivi da intraprendere. Le notizie possono essere copiate e ridistribuite, come un codice sorgente software. L'Open Publishing si avvale principalmente di siti web, attraverso cui è possibile pubblicare e ricevere informazioni in maniera molto rapida. Spesso le organizzazioni che li gestiscono seguono alcuni principi (anche se ognuna con un suo proprio grado), come l'assenza di gerarchie, la partecipazione pubblica, un controllo editoriale minimo e trasparenza dei processi. Esempi di Open Publishing sono dati da Indymedia38, OhMyNews39, Slashdot e Kuro5hin40.

2.6.3. Open Content Open Content41 è termine inglese che significa contenuto libero. Pur traendo ispirazione dal concetto di Open Source code, la differenza sta nel fatto che ad essere liberamente disponibile ed utilizzabile non è il codice sorgente di un programma ma contenuti editoriali quali testi, immagini, musica e video. Il concetto venne introdotto nel 1998 da David Wiley, con la fondazione del progetto OpenContent e la pubblicazione delle prime licenze. Non tutti i contenuti "open content" sono liberamente disponibili e riproducibili allo stesso modo. Spesso i termini e le condizioni di utilizzo, riproduzione e di modifica dei contenuti vengono 37 http://en.wikipedia.org/wiki/Open_publishing 38 http://www.indymedia.org (si veda in appendice a p.267) 39 Http://www.ohmynews.com (si veda in appendice a p.269) 40 Htttp://slashdot.org, http://kuro5hin.org (si veda in appendice a p.271) 41 http://en.wikipedia.org/wiki/Open_content 56

stabiliti da una licenza di pubblicazione che viene scelta dall'autore. Esistono vari tipi di licenza, spesso molto differenti tra loro, tuttavia è possibile definire alcune variabili che sono comuni alla maggior parte delle licenze: • paternità dell'opera: la licenza stabilisce se è necessario o meno dichiarare il nome dell'autore originale dei contenuti ed eventualmente di coloro i quali vi apportino modifiche; • utilizzo dei contenuti a fini di lucro: la licenza stabilisce se i contenuti possono essere utilizzati/riprodotti anche per scopi commerciali o solo per fini amatoriali o di ricerca; • possibilità di apportare modifiche: la licenza stabilisce se è possibile modificare i contenuti da parte di terzi oppure no. Nel caso in cui fosse possibile apportare modifiche da parte di terzi, generalmente viene richiesto che il lavoro modificato venga pubblicato con una licenza uguale a quella del lavoro originale. Il primo esempio di Open Content su larga scala proviene dal Massachusetts Institute of Technology (MIT). Nel 1999, il MIT decise di rendere accessibili a chiunque i propri corsi universitari, con la convinzione che una disseminazione di conoscenza e informazione potesse portare benefici collettivi in tutto il mondo. A questo progetto venne dato il nome di “OpenCourseWare”42, Nel dicembre 2005, i corsi pubblicati erano 125043, con licenza Creative Commons Attribution – Noncommercial – Share Alike44.

2.6.4. Open Design Con il termine Open Design45, si intende esprimere il tentativo di portare la filosofia Open Source con le discipline di design, specialmente il design di prodotti. Sebbene i primi progetti orientati a ridefinire meglio questo legame stiano nascendo ora, vi sono alcuni esempi un pò meno recenti, alcuni con successo altri ancora in fase di sviluppo. Probabilmente i primi due esempi di open designer sono rappresentati da Martí Guixé e da Ronen Kadushin. Martí Guixé propone, nel suo progetto del 2003 "The Meta-territorial Kitchen Sytem-3" (fig.14), una cucina che definisce "Open Source", vista non come un laboratorio ma come una interfaccia tra le persone e le risorse che possono essere "installate" ed utilizzate come un codice informatico ("resources that we can open or not, install, uninstall, execute, etc. The basis is an open operative platform")46, ovvero gli alimenti, visti 42 http://ocw.mit.edu/index.html 43 Ultimo accesso effettuato il 10/02/2006, http://ocw.mit.edu/OcwWeb/Global/AboutOCW/aboutocw.htm 44 http://creativecommons.org/licenses/by-nc-sa/2.0/ 45 http://en.wikipedia.org/wiki/Open_design 46 http://www.guixe.com/


come software, e la cucina come il sistema operativo. Un sistema operativo modulare, che è possibile assemblare facilmente e quindi da chiunque: è questo il vero significato del concetto "Open Source "del progetto di Guixé. Non un vero progetto di Open Design, ma una metafora, un progetto concettuale. Infatti il progetto non è stato sviluppato collettivamente, né vi sono codici accessibili.

Il progetto ThinkCycle rappresenta il migliore esempio di riflessione sulle possibili sinergie tra il mondo del design e quello della filosofia Open Source. Alcuni tra gli ideatori di questo progetto hanno dato in vita in seguito all'iniziativa instructables, ossia un sito web che permette la condivisione di progetti attraverso la descrizione dei processi di produzione51.

È quindi più propriamente Ronen Kadushin47, un designer e docente universitario israeliano, la cui opera è stata presentata nel 2005 al Salone del Mobile di Milano e a DesignMai a Berlino48 il primo esempio di open designer. Ronen Kadushin ha reso disponibile dal suo sito web http://ronenkadushin.com/ undici progetti di design scaricabili. Ogni progetto include il disegno tecnico (in formato DXF), due immagini del prodotto finito e una breve descrizione (in formato DOC). I progetti vengono concessi con licenza Creative Commons49. Pur se i concetti di base della filosofia Open Source vengano seguiti (accessibilità, modificabilità e ridistribuibilità del codice sorgente), questo caso non rappresenta una comunità Open Peer-to-Peer: non esiste una comunità di discussione o progettazione, il sito web che ospita i progetti non è nemmeno organizzato per la sua formazione e Ronen Kadushin non presenta questo desiderio. Non sono infatti progetti di comunità di designers, dediti alla risoluzione di qualche problemi, ma una sorta di dimostrazione. I progetti presentati riguardano soprattutto accessori per la casa, come la lampade Man Holding Flower50 (fig.15 e 16), e rappresentano quindi solo una esemplificazione di come la filosofia Open Source possa applicarsi all'industrial design. Al contrario, il primo esempio di riflessione sul concetto di Open Design (e fino ad ora il più completo e l'unico ad aver raggiunto un buon successo) è addirittura antecedente: il progetto ThinkCycle. Nel marzo 2000, alcuni dottorandi del MIT Media Lab proposero una iniziativa atta a facilitare processi di problem solving su problemi reali, basati su una metodologia simile a quella utilizzata dalle comunità di sviluppo di software Open Source, tra studenti universitari e comunità locali dei paesi in via di sviluppo. In questo modo, non solo la metodologia rifletteva la filosofia Open Source dal punto di vista progettuale, ma anche dal punto di vista etico: la collaborazione tra designer per la risoluzione di problemi presenti nella vita delle persone più povere. Venne costruito un archivio online di problemi critici da risolvere, con strumenti per la collaborazione online tra designer, studenti, esperti. Le relative soluzioni progettuali elaborate vengono ospitate in tutte le loro fasi di evoluzione sul sito web, divenendo così accessibili a chiunque. 47 http://ronen-kadushin.com/Open_Design.asp 48 http://www.core77.com/corehome/2005/03/opendesign.html 49 http://creativecommons.org/licenses/by-nc-sa/2.0/ 50 http://ronenkadushin.com/uploads/1655/Man%20Holding%20Flow er%20light.zip

Fig. 14: Martí Guixé, The Meta-territorial Kitchen Sytem-3 (Fonte: http://www.guixe.com/exhibitions/2003_mtkslisboa/index.html)

Non specificatamente rivolto verso la disciplina del design, ma verso appassionati sportivi è Zeroprestige52, un sito web che permette la progettazione e condivisione di accessori necessari per praticare il kitesurfing. Questo progetto è legato ai due precedenti dalla stretta collaborazione fra i loro ideatori; non a caso rappresentano le iniziative per lo sviluppo di pratiche progettuali collaborative Open Design di maggior successo. 51 http://www.instructables.com/about/ (si veda in appendice a p,299) 52 http://www.zeroprestige.org (si veda in appendice a p,302) 57


Fig. 15: Ronen Kadushin, disegno tecnico del progetto Man Holding Flower (Fonte: http://www.ronenkadushin.com/Open_Design.asp)

Fig. 16: Ronen Kadushin, foto del progetto Man Holding Flower realizzato (Fonte: http://www.ronenkadushin.com/Open_Design.asp)

Negli ultimi anni sono nati anche altri esempi di comunità (o tentativi di costruzione di comunità) per una riflessione sugli aspetti sia teorici che pratici riguardante il design di prodotti e la filosofia Open Source: Synusia.org, OpenDesigns e Designbreak. Synusia.org (in realtà synusia.com53) è una organizzazione non-profit ideata per attrarre designers, artisti, ingegneri, sociologi e qualsiasi persona "non-designer" per collaborare su progetti.

rete di scienziati, ingegneri e designer al fine di risolvere alcuni problemi globali, come la degradazione dell'ambiente, aumentare l'accesso alle medicine da parte dei più poveri e aumentare la qualità delle condizioni di vita delle persone risiedenti nelle nazioni più povere. Designbreak si pone come facilitatore per lo svolgimento di progetti, e come gestore della loro introduzione nel mercato. Inoltre, per diffondere i contenuti della filosofia Open Source / Open Design attraverso una pubblicazione elettronica. Data la sua recente attivazione, è ancora troppo presto per formulare un giudizio; tuttavia, si può constatare che, fino ad ora, l'unica iniziativa degna di nota riguarda ThinkCycle, dato che è l'unica che è riuscita a costruire una comunità di utenti attiva e a portare avanti una riflessione teorica sull'argomento.

La sua attività intende colmare la distanza fra la disciplina del designe e la filosofia Open Source: tuttavia la pagina web non dà nessuna informazione, né sulle attività né su come contattare i suoi organizzatori. Non vi è quindi modo di sapere se si tratti di una speculazione o di una iniziativa autentica. OpenDesigns54 è un sito web attivo dal 2003 che si propone di ospitare progetti accessibili, con tando di disegno tecnico come source code, ma sino ad oggi solo un progetto (un mattone) è stato pubblicato55. Più recente, ma meglio organizzata, anche Designbreak56 è una organizzazione dedicata a colmare la distanza tra il mondo del design e la filosofia Open Source. Con la consapevolezza che il concetto di Open Design è stato solo suggerito per il momento, Designbreak si propone di reare una 53 http://www.synusia.org 54 http://opendesigns.ourproject.org/ 55 http://opendesigns.ourproject.org/article.php3?id_artic le=10 56 http://www.designbreak.org/index.html 58

Mentre ThinkCycle e Designbreak sono delle comunità costituite da gruppi dediti a più progetti con finalità etiche, gli altri esempi di Open Design legati alla progettazione di prodotti, sono caratterizzati dall'interesse verso un singolo progetto, di un particolare prodotto: OSCar e Open Source Green Vehicle sono comunità dedite alla progettazione di automobili. Il progetto OSCar (Open Source Car)57 è stato fondato nel 1999 da Markus Merz, ex marketing manager della BMW, con l'intento di diventare una 57 http://www.theoscarproject.org (si veda in appendice a p.285)


comunità di developers (cioè di sviluppatori, come vengono anche chiamati i programmatori informatici) di automobili intenti a sviluppare un progetto attraverso Internet. I car designer sono appassionati al loro lavoro almeno quanto gli hacker informatici: le macchine sono al centro dei loro pensieri durante il lavoro e anche al di fuori di esso. Ed oltre ai car designers, vi sono innumerevoli appassionati di automobili che possono fornire consigli e richieste utili. Dopo un periodo di inattività causata dall'inagibilità del sito web, la comunità ha ripreso le sue attività, e al momento rappresenta l'esempio più avanzato di Open Design di un singolo prodotto. Esiste anche un altro progetto di Open Design legato alla progettazione di un veicolo: Open Source Green Vehicle (OSGV)58. Nato sul finire del 2005, questo progetto si propone di influenzare l'industria automobilistica attraverso la competizione, con il fine di limitare i danni che essa sta portando all'ambiente, attraverso il consumo di materie prime e la costruzione di autoveicoli inquinanti. OSGV è una organizzazione non-profit che si propone di progettare, certificare e produrre veicoli caratterizzati da standard ambientali e di sicurezza notevolmente più avanzati rispetto agli attuali. A questo punto, le altre imprese produttrici, se vorranno continuare ad essere competitive sul mercato, dovranno inseguire OSGV sulla stessa strada di produzione sostenibile. OSGV si propone di utilizzare un processo progettuale ispirato alla filosofia Open Source, sviluppando un progetto Open Source ex novo, ma affidandosi, per i componenti, alle imprese esistenti. In questo modo, quando le altre imprese automobilistiche vorranno costruire autoveicoli più sostenibili, potranno rifornirsi dei componenti necessari dai fornitori esistenti. L'organizzazione si propone di iniziare con un autoveicolo desiderato da molti consumatori, per garantire una ampia diffusione al veicolo prodotto. Ha quindi deciso di iniziare con il progetto di un SUV, le cui caratteristiche però devono ancora essere decise. Differente è il caso della RED Unit59 del Design Council britannico: qui per Open Design si intende non il progetto di prodotti, ma la co-progettazione (co-creazione) di servizi pubblici attraverso una filosofia progettuale che riprende elementi dalla filosofia Open Source e dal concetto di relazioni Peer-to-Peer. Nei due progetti riguardanti i servizi sanitari, sviluppati lungo il 2005 a Kent 60 e Bolton61, la RED Unit (sotto la guida di Hilary Cottam e Charles Leadbeater) ha cercato di sviluppare un approccio progettuale in grado di mobilitare le risorse, le conoscenze e le esperienze distribuite nella popolazione, per renderle attive nella prevenzione di malattie derivanti da stili di vita poco salutari (Kent) oppure per renderle attive nella cura del diabete (Bolton). I cittadini vengono infatti considerati di pari livello rispetto agli esperti 58 http://www.osgv.org/; (si veda in appendice a p.285) 59 http://www.designcouncil.org/red (si veda in appendice a p.317) 60 Design Council (2006b) 61 Design Council (2006b)

(medici, infermiere, ecc.), e viene incoraggiato loro la costituzione di comunità (Kent) o di rapporti paritari (Bolton) per lo scambio di informazioni necessarie ad affrontare la malattia. I servizi pubblici divengono così co-creati, al fine di risolvere i problemi specifici di ogni persona e comunità. Dei servizi distribuiti, collaborativi e cocreati richiedono una forma di organizzazione innovativa, e la Red Unit la trovano negli esempi di comunità di software Open Source, che chiamano comunità di co-creazione (communities of cocreation)62. Questo tipo di comunità, secondo loro, permette la mobilitazione di risorse distribuite, a livello locale, la risoluzione di problemi complessi a la mobilitazione di iniziative bottom-up. In questo modo dei nuovi servizi pubblici basati sulla distribuzione, collaborazione e co-creazione possono essere erogati63. Per Hilary Cottam e Charles Leadbeater, quindi, la filosofia Open Source, più che una metodologia progettuale, è un fonte di ispirazione per la identificazione di obiettivi progettuali. Non si progetta un servizio attraverso una collaborazione collettiva e un "codice sorgente" accessibile, ma si "progettano" comunità che condividono alcune caratteristiche con quelle di software Open Source, principalmente alcuni meccanismi di auto-organizzazione. Più che filosofia Open Source e Peer-to-Peer applicata al design dei servizi, i concetti di open e Peer-to-Peer applicati all'oggeto del progetto finale.

2.6.5. Open Source Biotechnology La protezione di scoperte scientifiche attraverso brevetti era impensabile alcuni decenni fa, ma recentemente si è espansa in ogni campo, fino ad invadere anche il campo della ricerca medica e delle biotecnologie. Certamente le cause possono essere riscontrate nell'aumento di importanza delle imprese farmaceutiche nel finanziamento delle ricerche: queste tendono ad essere orientate verso gli interessi delle imprese, che a loro volta brevettano i risultati per assicurarsi maggiori guadagni possibili. Purtroppo, l'aumento incontrollato dei brevetti su scoperte scientifiche, comporta una riduzione dei flussi di informazione tra i ricercatori, minacciando così la continuità del processo scientifico. Le biotecnologie, sebbene vi siano esponenti della comunità scientifica con posizioni molto critiche a riguardo64, possono essere considerate come un esempio della ricerca scientifica nell'era delle telecomunicazioni e delle informazioni. Manuel Castells, nel suo studio sui cambiamenti causati dalle recenti rivoluzioni tecnologiche La nascita della società in rete65, afferma addirittura che l'ingegneria genetica e le tecnologie delle telecomunicazioni sono alla base 62 Cottam, Leadbeater (2004) p.24 63 Ibidem p.25 64 Per una descrizione chiara e ben documentata dei rischi e delle implicazioni delle ricerche biotecnologiche e delle loro applicazioni all'agricoltura, si veda Vandana Shiva, (1995) 65 Castells (1996) 59


del paradigma dell'informazionalismo: non una conseguenza, l'applicazione di un paradigma ad una disciplina distante da quella in cui si è generato, ma la sua origine66. Risulta quindi chiaro come sia comprensibile la nascita di esperimenti di Open Source Biotechnology. Una analisi accurata di questa tendenza può essere considerata la tesi di dottorato di Janet Elizabeth Hope67, la quale sostiene che una Open Source Biotechnology può essere fattibile non solo come uno schema di regolamentazione delle licenze, ma anche come metodologia di ricerca e di commercializzazione dei risultati. L'emergenza di un approccio Open Source alla ricerca sulle biotecnologie potrebbe risolvere i suoi problemi strutturali. Già alcune imprese stanno cominciando ad adottare questa filosofia. I casi SNP Consortium Ltd68, International HapMap Project69, Drugs for Neglected Diseases Initiative (DNDi)70, CAMBIA Bios71 , Tropical Disease Initiative (TDI)72 rappresentano i primi esempi di questo fenomeno.

2.6.6. Open Source Religion La filosofia Open Source è stata atto di alcuni tentativi di utilizzo nella creazione e discussione di sistemi di credenze religiose, sotto il nome di Open Source Religion73. In questo modo, i valori e i principi religiosi vengono creati attraverso un processo continuo di rifinimento ed estensione dagli stessi credenti. In contrasto con le religioni tradizionali, considerate autoritarie, gerarchiche e resistenti ai cambiamenti – queste religioni enfatizzano la partecipazione, la autodeterminazione, la decentralizzazione e la evoluzione. I fedeli di queste religioni si ritengono parte di un movimento Open Source più vasto, nella creazione di una intera cultura Open Source. Tutti gli esempi più significanti di religioni Open Source sono basati su Internet e sono quindi fenomeni molto recenti. Un'altro vantaggio specifico di queste religioni è che rompono il legame tra la fede e il luogo di nascita. I fedeli di queste religioni credono che la maggior parte delle persone credano in una determinata religione perché vi sono cresciuti assieme. Una religione Open Source, aperta ai contributi esterni da tutto il mondo, può evitare questo stretto legame e diviene, al contempo, una religione non fissa, non assoluta. La prima religione Open Source documentata risale alla metà degli anni '90, con nome Yoism. Attorno al 2001, i credenti di questa religione (detti Yoans) costruirono un sito web simile a quello di Wikipedia per la discussione collettiva sui principi e i valori 66 67 68 69 70 71 72 73 60

Castells (1996, 2001) Hope (2004) p.279 p.282 pp.280-281 pp.282-283 p.279 http://en.wikipedia.org/wiki/Open_source_religion

della loro religione.Questa discussione collettiva avviene attraverso un processo che chiamano Open Source Truth Process, che garantisce la costante evoluzione delle credenze e la necessaria apertura verso i contributi esterni. I credenti di questa religione infatti credono che la Verità possa essere raggiunta solamente attraverso il confronto collettivo, attraverso la condivisione delle esperienze personali: ciò li porta a valorizzare la diversità. La religione e le sue credenze sono il codice sorgente, che le persone possono "testare" attraverso la propria esperienza74. Tuttavia le religioni Open Source non riguardano solamente credenze nate ex novo, ma anche discussioni teologiche sopra religioni antichissime. Nel 2001, Douglas Rushkoff organizzò un summit per tentare la organizzazione di una comunità di discussione Open Source sul Giudaismo75. In seguito Rushkoff pubblicò il libro Nothing Sacred: The Truth about Judaism, dando così luogo alla creazione di un movimento di Open Source Judaism. Un altro esempio simile è quello di Open Source Haggadah76. Tentativi simili sono stati organizzati anche per quanto riguarda la religione cristiana da Open Source Thelogy (OSG)77, nel tentativo di capire fino a che punto la filosofia Open Source possa essere utilizzata per la discussione teologica e fino a che punto la religione cristiana possa inserirsi nella cultura emergente dell'Open Source. Va notato che, seppur basandosi su una comunità, questo progetto considera la filosofia Open Source solamente come una metodologia, attraverso la quale suddividere le credenze in moduli per una migliore discussione collettiva78.

2.6.7. Open Drink La filosofia Open Source è stata utilizzata anche per la "progettazione" di due bevande: OpenCola e Vores Øl, entrambe ideate semplicemente come una esemplificazione del concetto di codice sorgente accessibile contro il controllo dilagante della proprietà intellettuale. OpenCola79 venne ideata nel 2001 da una impresa canadese di sviluppo di software Open Source dallo stesso nome. L'idea infatti nacque come trovata pubblicitaria, ma venne in seguito prodotta e ne vennero vendute 150000 lattine, fino alla decisione della impresa di abbandonare questa strategia. Ad ogni modo, la ricetta è disponibile online80. La ricetta ha raggiunto la versione 1.1.3, chiunque può consultarla, produrre la birra, modificarla o cederla, a condizione di seguire la licenza GPL con cui viene ceduta. 74 http://www.yoism.org/?q=node/39 75 http://www.g4tv.com/screensavers/features/44075/Op enSource_Religion.html 76 http://www.opensourcehaggadah.com/aboutus.php 77 http://www.opensourcetheology.net/node/145 78 Ibidem 79 http://en.wikipedia.org/wiki/OpenCola 80 http://upload.wikimedia.org/wikipedia/en/b/bf/OpenCo la_soft_drink_recipe.pdf


La birra Vores Ă˜l81 ('la nostra birra', in danese) venne presentata come la prima birra Open Source, pubblicata sotto licenza Creative Commons82. Venne ideata nel 2004 da alcuni studenti universitari di Copenhagen, in collaborazione con il collettivo artistico locale Superflex, con l'obiettivo di dimostrare l'applicabilitĂ della filosofia Open Source al di fuori dell'ambito software. Gli ideatori hanno progettato anche una immagine coordinata, accessibile online (fig.17) ed utilizzabile per la produzione della birra.

Fig. 17: Etichetta per la birra Vores Ă˜l (Fonte: http://www.voresoel.dk)

81 http://www.voresoel.dk/main.php?id=70 82 http://creativecommons.org/licenses/by-sa/2.0/ 61


62


3.

Peer-to-Peer

3.1. Software Peer-to-Peer Il termine Peer-to-Peer (o abbreviato in P2P) apparve nei media nel 2001 grazie al clamore suscitato da Napster, un sistema di condivisione di file digitali basato su Internet e su un proprio software dedicato, distribuito nel 1999 dallo studente Shawn Fanning1. Generalmente per Peer-to-Peer si intende una rete di computer o qualsiasi rete che non possiede client o server2 fissi, ma un numero di nodi equivalenti (peer, appunto) che fungono sia da client che da server verso altri nodi della rete3. Una rete Peer-to-Peer si basa sulla condivisione della potenza di calcolo e dell'ampiezza di banda dei computer dei partecipanti, invece che basarsi su pochi computer, dei server. Queste reti sono utili non solo per lo scambio di file, ma anche di dati in tempo reale: la telefonia via Internet si basa su una tecnologia Peer-to-Peer. Le reti Peer-to-Peer possono prendere tre forme: • Peer-to-Peer puro: i partecipanti (peer) agiscono sia come client che come server, non vi è un server centrale che gestisce la rete; • Peer-to-Peer ibrido: un server centrale mantiene un archivio di informazioni sui peer e risponde alle richieste di queste informazioni; i peers mantengono un indice delle informazioni di cui sono in possesso, affinché il server centrale possa aggiornare i suoi dati relativi ai peer; • Peer-to-Peer misto: con caratteristiche di entrambi i metodi. Questo modello di rete è l'antitesi dell'architettura client-server: mediante questa configurazione qualsiasi nodo è in grado di avviare o completare una transazione. I nodi equivalenti possono comunque differire nella configurazione locale, nella velocità di elaborazione, nella ampiezza di banda e nella quantità di dati memorizzati.

Alcune reti e canali, come per esempio Napster, OpenNap o IRC usano il modello client-server per alcuni compiti (per esempio la ricerca) e il modello Peer-to-Peer per tutti gli altri. Reti come Gnutella o Freenet, vengono definite come il vero modello di rete Peer-to-Peer in quanto utilizzano una struttura Peer-to-Peer per tutti i tipi di transazione. Quando il termine Peer-to-Peer venne utilizzato per descrivere la rete Napster, implicava che la natura a file condivisi del protocollo fosse la cosa più importante, ma in realtà la grande conquista di Napster fu quella di mettere tutti i computer connessi sullo stesso piano. Il protocollo peer era il modo giusto per realizzarlo. Attraverso Napster e un collegamento attivo a Internet era possibile entrare a far parte di una comunità di utenti, consultare un archivio dei file digitali condivisi fra gli utenti e avviare il trasferimento di file autonomamente. Ciò che attirò l'attenzione dei media era il fatto che solitamente venivano scambiati file musicali protetti da copyright, azione illegale in sé, invece che l'innovatività del sistema, di per sé perfettamente legale. È da allora che il termine Peer-to-Peer è stato, nell'opinione comune, associato a pratiche illegali. Ma per comprendere il fenomeno dei software Peer-to-Peer bisogna capire le caratteristiche e l'evoluzione delle reti di telecomunicazioni, in particolare di Internet, rete di computer, su cui questi si basano.

3.2. Internet e World Wide Web: la infrastruttura degli scambi Peer-to-Peer 3.2.1. Internet

L'esempio classico di Peer-to-Peer è la rete per la condivisione di file (file sharing). Il termine può essere tecnicamente applicato a qualsiasi tipo di tecnologia di rete e di applicazioni che utilizzano questo modello, ma viene normalmente riferito alle reti di file sharing come Gnutella, FastTrack, e l'oramai defunto Napster che forniscono una infrastruttura per il libero scambio (e qualche volta anonimo) di file tra i computer connessi a Internet.

Internet può essere vista come una rete logica di enorme complessità, appoggiata a strutture fisiche e collegamenti di vario tipo (fibre ottiche, cavi coassiali, collegamenti satellitari, doppino telefonico, link su radiofrequenza (WiFi), su ponti radio, su raggi laser e su onde convogliate su condotte elettriche o addirittura idrauliche) che interconnette un agente umano o automatico ad un altro agente tramite, praticamente, qualsiasi tipo di computer o elaboratore elettronico oggi o in futuro esistente o immaginabile. Ogni dispositivo connesso direttamente ad Internet si chiama host o end system mentre la struttura che collega i vari host si chiama link di comunicazione.

Per un resoconto della battaglia giudiziaria inoltrata contro Napster si veda Wynants, Cornelis (2005) pp.242-243 http://en.wikipedia.org/wiki/Client/server http://en.wikipedia.org/wiki/Peer-to-Peer

Generalmente Internet è definita la rete delle reti, infatti Internet è costituita da tutta una serie di reti, private, pubbliche, aziendali, universitarie,

1

2 3

63


commerciali, connesse tra di loro, in effetti già prima della sua nascita esistevano reti locali, principalmente nei centri di ricerca internazionali, nei dipartimenti universitari. Un grande risultato della nascita e dell'affermazione di Internet è stato quello di creare uno standard de facto tra i protocolli di comunicazione tra le varie reti, consentendo ai più diversi enti e agenti (diversi governi, diverse società nazionali o sovranazionali, tra i vari dipartimenti universitari) di scambiare dati mediante un protocollo comune, il TCP/IP, relativamente indipendente da specifiche hardware proprietarie, da sistemi operativi, dai formati dei linguaggi di comunicazione degli apparati di comunicazione (modem, router, switch, hub, bridge, gateway, repeater, multiplexer). Una rete di reti, che la maggior parte degli utenti ha conosciuto non prima degli inizi degli anni '90 ma che esiste, almeno nel suo concetto, dagli anni '60.

Le origini di Internet si trovano in ARPANET, una rete di computer costituita nel settembre del 1969 negli USA da ARPA, l'Advanced Research Projects Agency. Questo progetto venne istituito nel 1958 dal Dipartimento della Difesa degli Stati Uniti per dare modo di ampliare e sviluppare la ricerca scientifica, soprattutto all'indomani del superamento tecnologico dell'Unione Sovietica, che aveva lanciato il primo satellite, lo Sputnik, nel 1957, conquistando i cieli americani. Quando la NASA le subentrò nella gestione dei programmi spaziali, l'ARPA assunse il controllo di tutte le ricerche scientifiche a lungo termine in campo militare. Verso il 1965 l'ARPA iniziò ad avere dei seri problemi di gestione dei computer, sparsi in varie sedi, e senza possibilità di comunicare fra loro: scambiare file fra loro era quasi impossibile, per via dei formati di archiviazione completamente diversi (e proprietari) che ognuno di essi usava, quindi era necessario molto tempo e molto lavoro per passare dati fra i vari computer, per non parlare dello sforzo necessario per portare e adattare i programmi da un computer all'altro. Per questo Bob Taylor, allora direttore della divisione informatica dell'ARPA, affrontò il problema in modo radicale. Nel 1966 parlò con Charlie Hertzfeld, l'allora direttore dell'ARPA, e ottenne uno stanziamento di un milione di dollari per il progetto ARPANET. ARPANET sarebbe servita a condividere online i dati delle ricerche svolte dai gruppi di scienziati sparsi in tutta la nazione, una rete invulnerabile ad un attacco nucleare. Così, nell'ottobre 1969 Charley Kline fu incaricato di creare il primo collegamento telefonico da computer a computer fra l'Università della California di Los Angeles e lo Stanford Research Institute, che furono così i primi due nodi di Internet.

Fig. 20: Flussi di dati su Internet nel 1993 (Fonte: http://mappa.mundi.net/maps/maps_008/#ref_2) 64


Fig. 21: Flussi di dati su Internet nel 1993 (Fonte: http://mappa.mundi.net/maps/maps_008/#ref_2)

Nel dicembre 1969 si aggiunsero alla connessione l'università di Santa Barbara e dello Utah, rispettivamente il terzo e quarto nodo (fig.18). Un ulteriore passo nello sviluppo di ARPANET fu quello di collegarla ad altri network, PRNET e SATNET, reti di comunicazione gestite da ARPA: alla fine del 1971 Internet era composta di 15 nodi (fig.19), e da quel momento la sua crescita è avvenuta a velocità esponenziale. Nel 1973 Robert Kahn, di ARPA, e Vinton Cerf, della Stanford University, misero per iscritto la struttura di Internet. Sempre nello stesso anno, fu istituito il progetto del protocollo di controllo trasmissione (TCP)4, uno standard indispensabile per la comunicazione tra reti di computer. Utilizzando questo standard, le applicazioni, eseguite su computer connessi alla rete, riescono a creare connessioni tra un computer e l'altro, connessione con cui possono scambiarsi dei dati. Nel 1978 Cerf, Postel e Crocker hanno aggiunto un protocollo tra rete e rete (IP), mettendo a punto il definitivo protocollo su cui ancor oggi opera Internet, il TCP/IP5. Nel 1983 Il Dipartimento della Difesa statunitense, preoccupato per possibili buchi nella sicurezza, creò MILNET, per scopi unicamente militari e ARPAINTERNET subentrò come rete esclusivamente dedicata alla ricerca. Nel 1984 la NSF, National Science Foundation, mise a punto la propria rete di 4 5

http://en.wikipedia.org/wiki/Transmission_Control_Prot ocol Nell'ambito delle telecomunicazioni, due o più macchine o host (computer, telefono, stampante, ecc...) possono comunicare tra loro rispettando norme che sono dette protocolli di rete. L'aderenza ai protocolli garantisce che due macchine possano comunicare correttamente, anche se sono state realizzate indipendentemente. (Fonte: http://it.wikipedia.org/wiki/Protocollo_di_rete)

comunicazione via computer (NSFNET) e nel 1988 incominciò a usare come sua dorsale ARPAINTERNET. Nel 1990 ARPANET, ormai obsoleta, venne smantellata e la NSF fu incaricata dal governo statunitense di gestire Internet. In questo periodo iniziò alla privatizzazione di Internet, che prese il sopravvento nel 1995, portando così alla chiusura di NSFNET. Gli anni '90 hanno assistito al proliferare dei service provider, e il 1995 è da molti considerato l'anno di nascita dell'attuale Internet. Un Internet Service Provider (ISP)6 è una struttura commerciale o un'organizzazione che offre agli utenti (casalinghi o ad altre imprese) accesso a Internet con i relativi servizi. Gli ISP formano i nodi nella struttura a ragnatela di Internet e non tutti sono uguali. Ci sono ISP di primo livello che hanno una rete di interconnessione ad alta velocità, sono internazionali e sono direttamente connessi ad altri ISP di primo livello. Tali ISP hanno connessi a loro un certo numero di ISP di secondo livello (di cui sono fornitori) che vengono detti, in questo caso, utenti. Gli ISP di primo livello formano, quindi, la dorsale di Internet. Tutto ciò è stato possibile grazie al progetto originario di ARPANET, decentralizzato e basato su protocolli di comunicazione aperti. Il dispiegamento delle potenzialità di Internet e la sua progressiva diffusione popolare sono però frutto dello sviluppo del WWW, il World Wide Web. Il World Wide Web, così come lo conosciamo oggi, nacque nel 1989 presso il CERN di Ginevra (Centro Europeo di Ricerche Nucleari, il più importante laboratorio di Fisica in Europa), su idea di Tim Berners-Lee e di Robert Cailliau che, per 6

http://it.wikipedia.org/wiki/ISP 65


permettere ai ricercatori di condividere la documentazione scientifica in formato elettronico ed indipendentemente dalla piattaforma migliorandone la comunicazione e la cooperar azione, definirono standard e protocolli per scambiare documenti su reti: il linguaggio HTML e il protocollo http. Una volta vista brevemente la storia di Internet, per capire la sua relazione con il concetto di scambio Peer-to-Peer è utile considerare un'analisi, svolta all'indomani del successo di Napster (e del clamore mediatico sollevato), da Nelson Minar e Marc Hedlund7. Per Minar e Hedlund Internet rappresenta una condivisione di risorse, una rete cooperativa costituita da milioni di host (i computer connessi), distribuiti in tutto il mondo. Una rete caratterizzata da una risorsa scarsa, l'ampiezza di banda (bandwidth), cioè la capacità di inviare e ricevere ad alta velocità, che gli utenti condividono e si spartiscono. Tuttavia, negli anni 1999-2000, qualcosa è cambiato: il modello di rete che era cresciuto in maniera esponenziale nella ultima decade si era ribaltato, e gli utenti collegati alla rete non erano più ricevitori passivi ma anche distributori attivi. Attraverso Napster, e il più grande movimento denominato Peer-to-Peer, cominciarono a utilizzare i propri computer e Internet non solo per scambiarsi e-mail e consultare pagine web, ma anche per scambiarsi reciprocamente file multimediali. Internet, così come era stato concepito sul finire

degli anni '60, era un sistema Peer-to-Peer: l'obiettivo di ARPANET era quello di condividere risorse in tutti gli Stati Uniti. ARPANET era molto più aperta allora che oggi, un campo aperto a ricercatori che non dovevano certamente difendersi gli uni dagli altri ma collaborare su progetti comuni. Nel corso del tempo, si è spostata verso una architettura client-server, quindi gerarchica, o per meglio dire asimmetrica, dove un nodo riceve le informazioni (client) che un altro nodo invia (server). Si è arrivati così ad una situazione in cui milioni di utenti comunicano con relativamente pochi e privilegiati server. I software Peer-to-Peer utilizzano Internet per come era stata progettata: come un medium per la comunicazione tra dispositivi informatici che condividono le risorse su base egualitaria. Ma questo concetto non è stato utilizzato per primo da Napster, vi sono stati i casi di Usenet e del Domain Name System (DNS). Ciò che ha reso rivoluzionario Napster è stata la scala, le dimensioni della comunità di partecipanti.

3.2.2. Usenet Usenet è una rete mondiale, nata nel 1979, formata da migliaia di newsgroup, che utilizza un modello di controllo decentralizzato per la copia di file tra computer. In questo senso, Usenet può essere considerato l'antenato dei software Peer-toPeer odierni. Un newsgroup8 è uno degli spazi virtuali creato su una rete di server interconnessi per discutere di un argomento (topic) ben determinato.

Fig. 22 Mappa di Internet, come realizzata dal progetto Opte nel novembre 2003 (Fonte: http://www.opte.org) 7 66

Minar, Hedlund (2001)

8

http://it.wikipedia.org/wiki/Newsgroup


In italiano a volte viene utilizzato il termine gruppo di discussione. Collegandosi ad Internet (per mezzo di programmi chiamati news reader, oggi totalmente integrati nei programmi di posta elettronica come ad esempio Outlook Express), a una sorta di “stanza delle bacheche" (news server) che raccoglie i vari Newsletter Group (o in breve NG). I news server comunicano fra loro in modo che i messaggi inviati ad un server, si trovino duplicati su tutti gli altri server. Per diversi motivi (economie di spazio, interesse degli utenti, censura), non tutti i server contengono gli stessi NG. Ogni Provider (ISP) decide infatti quali NG tenere. Questo approccio è ormai sempre più superato, nei fatti, dalla possibilità di accedere ai gruppi tramite un portale web, che può consentire agevolmente non solo la ricerca, ma anche la lettura e la partecipazione attiva ai newsgroup con estrema facilità. È da tenere in considerazione che la frequenza di aggiornamento dei gruppi sui portali web è solitamente piuttosto basse rispetto a quella che si può ottenere con una connessione diretta a Usenet. La netiquette9, su Usenet, sconsiglia di inviare articoli fuori tema e suggerisce di seguire per qualche tempo un newsgroup prima di iniziare a scrivere. Sono molti i newsgroup in cui i poster (ossia gli utenti) abituali, ossia coloro che li

seguono da più tempo e con una certa assiduità, hanno redatto delle FAQ, raccolte di domande poste di frequente, così da aiutare i newbie ('nuovi arrivati', 'principianti') ed evitare che il newsgroup contenga sempre le stesse domande o che queste provochino flame10, botta e risposta interminabili e di dubbia utilità. Inoltre, di norma ciascun newsgroup ha un manifesto (charter) che aiuta a comprendere quali sono gli argomenti oggetto di discussione. Non vi è nessuna autorità centrale che controlla la gestione delle notizie. L'aggiunta di un newsgroup al topic principale viene controllata con un rigido processo democratico, che si avvale di un newsgroup apposito (news.admin) per la proposta e discussione. Dopo che un determinato newsgroup viene proposto e discusso per un determinato periodo, chiunque sia dotato di un indirizzo e-mail può votare a favore o contro la proposta. L'aspetto stupefacente di Usenet è che ogni host partecipante può decidere le proprie regole a livello locale, ma la rete, a livello complessivo, funziona attraverso la cooperazione della comunità. Gli attuali programmi Peer-to-Peer non sempre riescono a replicare questo processo. Tuttavia, questa natura decentralizzata del controllo lo rende un canale di comunicazione estremamente “rumoroso”, nel senso che risulta vulnerabile a spam11 e altri utilizzi scorretti.

Fig. 23: Rete di Usenet, al maggio 1993 (Fonte: http://mappa.mundi.net/maps/maps_021/) 9

http://en.wikipedia.org/wiki/Netiquette

10 http://en.wikipedia.org/wiki/Flaming 11 http://en.wikipedia.org/wiki/Spam_%28electronic%29 67


3.2.3. DNS Il Domain Name Service (DNS)12 è un esempio di sistema che utilizza una struttura a rete di tipo Peer-to-Peer con un modello di proprietà delle informazioni di tipo gerarchico. Il suo aspetto più interessante è la scalabilità, dalle poche migliaia di host per i quali era stato progettato nel 1983 alle centinaia di milioni odierni. Il DNS venne creato come soluzione per un problema di file-sharing. Nei primi periodi di Internet, gli indirizzi testuali degli host erano conservati in un singolo file di testo, hosts.txt, copiato periodicamente in tutta la rete, dove venivano archiviati con il loro IP di riferimento. Gli IP sono gli indirizzi numerici (del tipo 4.2.49.2) degli host, ma per una persona è molto più facile ricordare un indirizzo testuale: da qui si spiega l'importanza di questo file. Ma, con il crescere della rete fino a migliaia di host e quindi di indirizzi, diveniva sempre più difficile affidarsi ad un singolo file, e il sistema DNS venne creato per distribuire dei dati nella rete, in modo Peer-to-Peer. Nel World Wide Web, un nome a dominio è costituito da una serie di stringhe separate da punti, ad esempio it.wikipedia.org. A differenza degli indirizzi IP, dove la parte più importante del numero è la prima partendo da sinistra, in un nome DNS la parte più importante è la prima partendo da destra. Questa è detta dominio di primo livello (o TLD, Top Level Domain), per esempio "org" o "nl". Un dominio di secondo livello consiste in due parti, per esempio wikipedia.org, e così via. Ogni ulteriore elemento specifica un'ulteriore suddivisione. Quando un dominio di secondo livello viene registrato al proprietario, questo è autorizzato a usare i nomi di dominio relativi ai successivi livelli come nl.wikipedia.org (dominio di terzo livello) e altri come some.other.stuff.Wikipedia.org (dominio di quinto livello) e così via.

3.2.4. Il boom di Internet (19951999) Con il boom di Internet a metà degli anni '90, un nuovo tipo di utenti cominciò a connettersi: non più hacker ed esperti informatici, ma persone comune interessate semplicemente a inviare e-mail e visitare pagine web. Il cambiamento di Internet in un fenomeno di cultura di massa ha avuto un forte impatto sull'architettura della rete, nel suo utilizzo e nel declino della cooperazione, con l'incremento di firewall e la crescita di reti asimmetriche come ad esempio ADSL. I cambiamenti nell'architettura della rete vennero introdotti per supportare i comportamenti maggioritari, cioè la ricezione di dati (downloading) e non la loro pubblicazione (publishing). I web browser, applicazioni che permettono la navigazione nel Web (ad es. Firefox, Internet Explorer, ecc.), vennero basati su un semplice protocollo di comunicazione del tipo server/client: il client inizia una connessione ad un server conosciuto, riceve alcuni dati e si disconnette. Questo modello di comunicazione è semplice e diretto, e viene utilizzato per la maggior parte delle operazioni, dalla navigazione nel Web ai videogiochi online, dagli acquisti elettronici alle transazioni finanziare. Ma non tutte le applicazioni: e-mail, chat e Usenet necessitano di comunicazioni Peer-to-Peer. Mentre la i primi concetti di Internet prevedevano una uguaglianza delle comunicazioni – un sistema che potesse permettere a chiunque la pubblicazione delle proprie idee – l'esplosione commerciale di Internet spostò l'attenzione verso un modello di comunicazione monodirezionale, tipico della stampa, delle radio e delle televisioni. La natura collaborativa di Internet stava quindi trasformandosi sempre di più in una rete meno aperta, dedicata alla ricezione passiva e con sempre più frequenti barriere alla comunicazione. Nelle fasi iniziali di Internet, tutti gli host erano considerati partecipanti di pari livello, peer: la rete era simmetrica – se un host si connetteva alla rete, chiunque fosse connesso alla rete poteva connettersi anche a questo host. Questa proprietà cominciò a erodersi a metà degli anni '90, con lo sviluppo di firewall e degli indirizzi IP dinamici. Con la crescita di Internet, emerse la necessità di garantire la sua sicurezza, proteggendo gli host individuali da un accesso illimitato e incontrollato. Dato che la maggior parte degli utenti non è in grado di gestire autonomamente le procedure di sicurezza, gli amministratori di rete cominciarono a introdurre i firewall come strumento di controllo degli accessi ai propri computer.

Il DNS è un quindi un servizio di directory, utilizzato soprattutto per la risoluzione di nomi di Host in indirizzi IP. Questa funzione è essenziale per l'usabilità di Internet, visto che gli esseri umani preferiscono ricordare nomi testuali, mentre gli host ed i router (o sia i dispositivi informatici che distribuiscono i dati) sono raggiungibili utilizzando gli indirizzi IP. Il servizio è realizzato tramite un database distribuito, costituito dai server DNS. Quando un host vuole conoscere l'indirizzo IP di un determinato indirizzo testuale, lo richiede al name server più vicino. Se questi non lo conosce, lo richiede all'autorità del dominio, che a sua volta può richiederlo all'autorità superiore (cioè la stringa successiva dell'indirizzo), fino a completare tutto l'indirizzo. I name servers agiscono sia da client che da server: questo meccanismo è stato replicato dai software Peer-to-Peer attuali. Quindi, sin dalle sue prime fasi, Internet è stata costruita utilizzando dei pattern di comunicazione di tipo Peer-to-Peer.

Un firewall13 (termine inglese dal significato originario di paratia antifuoco) è un componente passivo di difesa perimetrale (software o dispositivo hardware) che può anche svolgere funzioni di collegamento tra due o più tronconi di rete. Usualmente la rete viene divisa in due

12 http://it.wikipedia.org/wiki/DNS

13 http://it.wikipedia.org/wiki/Firewall

68


sottoreti: una, detta esterna, comprende l'intera internet mentre l'altra interna, detta LAN (Local Area Network), comprende una sezione più o meno grande di un insieme di computer locali. In alcuni casi è possibile che si crei l'esigenza di creare una terza sottorete detta DMZ (o 'zona demilitarizzata') atta a contenere quei sistemi che devono essere isolati dalla rete interna ma devono comunque essere protetti dal firewall. Grazie alla sua posizione strategica, il firewall risulta il posto migliore ove imporre delle logiche di traffico per i pacchetti in transito e/o eseguire un monitoraggio di tali pacchetti. La sua funzionalità principale in sostanza è quella di creare un filtro sulle connessioni entranti ed uscenti, in questo modo il dispositivo innalza il livello di sicurezza della rete e permette sia agli utenti interni che a quelli esterni di operare nel massimo della sicurezza. Una funzione spesso associata al firewall è quella di NAT14 ('traduzione degli indirizzi di rete'), che può contribuire a rendere inaccessibili i calcolatori sulla rete interna. I firewall sono degli strumenti di sicurezza molto utili, ma rappresentano anche un serio ostacolo alle comunicazioni del tipo Peer-to-Peer, permettendo una comunicazione da una rete interna verso Internet ma impedendo qualsiasi comunicazione dagli utenti presenti in Internet verso la rete interna. Un host protetto con questa tecnologia non può funzionare facilmente come server, ma solo come client: può quindi sono ricevere informazioni, non inviarle. Permettere ad un host di essere solo un client e non un server è una tendenza ricorrente nei cambiamenti avvenuti in Internet nell'era dell'esplosione commerciale. Con l'aumento del numero di utenti collegati attraverso modem, la iniziale consuetudine di dare ad ogni host connesso un indirizzo IP fisso divenne impraticabile: non vi erano abbastanza indirizzi IP disponibili. Vennero quindi introdotti gli indirizzi IP dinamici (che oggi sono la norma), ovvero qualsiasi utente può variare il suo indirizzo IP nel giro di uno stesso giorno, in base al numero di connessioni e disconnessioni. Il risultato finale è che molti host diventano così irraggiungibili, dato che continuano a cambiare indirizzo, e che molti host possono sfruttare questo anonimato per inviare posta elettronica indesiderata (spam). Applicazioni Peerto-Peer devono risolvere questo problema con molta fatica, costruendo registri dinamici degli indirizzi degli utenti. Firewall, indirizzi IP dinamici e NAT vennero introdotti per una necessità ampiamente riconosciuta: rendere Internet una architettura scalabile e sicura, per permettere la connessione ad un numero sempre maggiore di utenti. Purtroppo questo accesso, sebbene ora facile, molto spesso si tramuta in un ruolo passivo, di client. Per questo motivo i software Peer-to-Peer hanno rappresentato una rivoluzione, riportando gli utenti al ruolo attivo delle fasi iniziali di Internet.

14 http://en.wikipedia.org/wiki/Network_address_translati on

3.2.5. Il ritorno ad un ruolo attivo: Peer-to-Peer, Blog, Wiki Probabilmente la maggior parte degli utenti di Internet non sente il bisogno di pubblicare le proprie idee, ma è molto probabile che questo avvenga perché essi sono abituati a non poterlo fare. L'introduzione di software Peer-to-Peer, blog e wiki, che permettono (seppur in maniera differente) la pubblicazione di dati in maniera attiva, si è tramutata in un enorme successo di diffusione delle pratiche di scambio e pubblicazione di dati. Nel gergo di Internet, un blog15 è un diario in rete. Il termine blog è la contrazione di web log, ovvero 'traccia su rete'. Il fenomeno ha iniziato a prendere piede nel 1997 in America; nel 2001 è divenuto di moda anche in Italia, con la nascita dei primi servizi gratuiti dedicati alla gestione di blog. La struttura è costituita, solitamente, da un programma di pubblicazione guidata che consente di creare automaticamente una pagina web, anche senza conoscere necessariamente il linguaggio HTML; questa struttura può essere personalizzata con vesti grafiche dette templates (ne esistono diverse centinaia). Il blog permette a chiunque sia in possesso di una connessione Internet di creare facilmente un sito in cui pubblicare storie, informazioni e opinioni in completa autonomia. Ogni articolo è generalmente legato ad un thread, ('filo') in cui i lettori possono scrivere i loro commenti e lasciare messaggi all'autore. Il blog è un luogo dove si può (virtualmente) stare insieme agli altri e dove in genere si può esprimere liberamente la propria opinione. È un sito (web), gestito in modo autonomo dove si tiene traccia (log) dei pensieri; quasi una sorta di diario personale. Ciascuno vi scrive, in tempo reale, le proprie idee e riflessioni. In questo luogo cibernetico si possono pubblicare notizie, informazioni e storie di ogni genere, aggiungendo, se si vuole, anche dei link a siti di proprio interesse: la sezione che contiene links ad altri blog è definita blogroll. Tramite il blog si viene in contatto con persone lontane fisicamente ma spesso vicine alle proprie idee e ai propri punti di vista. Con esse si condividono i pensieri, le riflessioni su diverse situazioni poiché raramente si tratta di siti monotematici. Si può esprimere la propria creatività liberamente, interagendo in modo diretto con gli altri blogger. Un blogger infatti è colui che scrive e gestisce un blog, mentre l'insieme di tutti i blog viene detto blogsfera (in inglese, blogsphere). All'interno del blog ogni articolo viene numerato e può essere indicato univocamente attraverso un permalink, ovvero un link che punta direttamente a quell'articolo. In certi casi possono esserci più blogger che scrivono per un solo blog. In alcuni casi esistono siti (come Slashdot) simili a blog, ma 15 http://it.wikipedia.org/wiki/Blog 69


aperti a tutti. A tutt'oggi sono stati recensiti 31 milioni di blog e 2,2 miliardi di link fra blog16; si può comunque aspettare che il numero aumenti, vista la semplicità (e spesso gratuità) di questo sistema. I blog hanno anche alcune somiglianze con i wiki, nel modo in cui vengono gestiti gli aggiornamenti, favoriti i commenti dei lettori e stimolate le nascite di community.

Un wiki17 (o Wiki Wiki) è un sito web (o altrimenti una collezione di documenti ipertestuali) che permette ad ogni utilizzatore di aggiungere contenuti, come in un forum, ma anche di modificare i contenuti esistenti inseriti da altri utilizzatori. A tutt'oggi sono stati recensiti 1190 wiki attivi18 e, come per i blog, ci si aspetta un aumento del loro numero. Wiki Wiki deriva da un termine in lingua hawaiana che significa 'rapido'. Un wiki permette infatti di scrivere collettivamente e rapidamente dei documenti in un semplice linguaggio di markup19 usando un web browser. Poiché la maggior parte dei wiki sono basati sul web, il termine "wiki" è di solito sufficiente. Una singola pagina in un wiki è chiamata "pagina wiki", mentre l'insieme delle pagine, che sono usualmente strettamente interconnesse, è chiamato "il wiki". Una caratteristica distintiva della tecnologia wiki è la facilità con cui le pagine possono essere create e aggiornate. Generalmente, non esiste una verifica preventiva sulle modifiche, e la maggior parte dei wiki è aperta a tutti gli utenti - o almeno a tutti quelli che hanno accesso al server wiki. In effetti, perfino la registrazione di un account utente non è sempre richiesta. Nei wiki tradizionali, ci sono tre rappresentazioni per ogni pagina: il codice HTML, la pagina che risulta dalla visione di quel codice con un browser web e il codice sorgente modificabile dagli utenti, dal quale il server produce l'HTML. Quest'ultimo formato, noto come "wikitext", è scritto in un linguaggio di markup semplificato il cui stile e la cui sintassi variano tra le implementazioni. Il motivo dietro questo design è che l'HTML, con la sua grande libreria di tag, è troppo complicato per permettere modifiche rapide, e distrae dai contenuti veri e propri delle pagine. In questo modo, i wiki possono essere considerati come Open Source: un codice sorgente modificabile, anche collettivamente, da cui si ottiene un "programma", cioè uno strumento utilizzabile.

Fig. 24: Blog (Fonte: http://www.doorsofperception.com)

16 Ricerca effettuata da Technorati, accesso effettuato il 20/03/2006, http://www.technorati.com/ 70

I wiki sono un mezzo completamente ipertestuale, con una struttura di navigazione non lineare. Tipicamente ogni pagina contiene un gran numero di link ad altre pagine. Nei wiki di dimensioni notevoli esiste comunque una navigazione gerarchica, ma non deve essere necessariamente usata. I wiki generalmente seguono la filosofia di rendere facile la correzione di eventuali errori, piuttosto che rendere difficile commettere un errore. Così, i wiki oltre ad essere completamente aperti, forniscono anche vari modi per verificare la validità di aggiornamenti recenti al contenuto delle pagine. Il più importante ed usato in quasi tutti i wiki è la cosiddetta pagina delle "Ultime modifiche", che mostra sia uno specifico numero di modifiche recenti che la lista completa delle modifiche fatte in un determinato lasso di tempo. 17 http://it.wikipedia.org/wiki/Wiki 18 Ricerca effettuata da WorldWideWiki, accesso effettuato il 09/02/2006, http://www.worldwidewiki.net/wiki/PageIndex 19 http://it.wikipedia.org/wiki/Linguaggio_di_markup


punti di confronto

media

blog

attendibilità

brand

individuale

contribuzione

controllata/ dipendenza editoriale-politica

libera

proprietà dei contenuti

Copyright

Creative Commons e Copyleft

peculitarità contenuto

informazione

opinione, attualità

pubblicazione

pianificata

in tempo reale

distribuzione

broadcasting

broadcasting e narrowcasting

relazione con il pubblico

indiretta (sondaggi, volume di vendite)

interattiva e partecipativa

ritorno d’investimento

prodotti a pagamento, pubblicità di massa

abbonamento su contenuti addizionali-complementari/ pubblicità mirata/ promozione individuale

Tabella 2: Caratteristiche dei Media tradizionali rispetto ai blog (Fonte: Casaleggio Associati 2006)

Fig. 25: Analisi della rete degli scambi che avvengono tra utenti attraverso Gnutella (Fonte: http://www.cybergeography.org/atlas/gnucleus_graph_large.gif)

71


Dalla pagina dei cambiamenti sono accessibili altre due funzioni in quasi tutti i wiki: la cronologia delle revisioni, che visualizza le precedenti versioni di una pagina, e la funzionalità "Confronta", che può evidenziare i cambiamenti tra due revisioni. La cronologia delle revisioni fornisce un editor per aprire e salvare una precedente versione della pagina e, in tal modo, ristabilire il contenuto originale. La funzionalità "Confronta" può essere usata per decidere cosa sia necessario e cosa no. Un utente regolare del wiki può vedere il confronto di un cambiamento elencato nella pagina "Ultime modifiche" e, se è una pubblicazione inaccettabile, consultare la cronologia per ristabilire una precedente versione. Questo processo è più o meno efficiente in base al software wiki utilizzato. Non solo quindi software Peer-to-Peer veri e propri, ma anche blog e wiki permettono agli utenti di Internet una partecipazione attiva nello scambio e pubblicazione di informazioni. Ovviamente, il tipo di informazioni scambiate determina azioni illegali, ma non il sistema di per sé: sarebbe come dire che, dato che via telefonica possono essere organizzate attività criminali, il telefono rappresenta una tecnologia illegale. Le reti informatiche Peer-to-Peer permettono la separazione di due concetti, riguardanti le informazioni distribuite: l'autore (author, chi genera l'informazione) e l'editore (publisher, chi distribuisce la informazione). Ogni informazione ha un autore ed un editore, che possono anche non coincidere: i software Peer-to-Peer non permettono una distinzione facile fra i due, mentre nei blog e nei wiki questa distinzione è più facile, essendo spesso l'autore anche l'editore. Detto in altre parole: un software Peer-to-Peer permette la pubblicazione di informazioni anche se ne si è autori, mentre software blog e wiki generalmente permettono la pubblicazione di contenuti agli autori. Con la diffusione di software Peer-to-Peer, blog e wiki, gli utenti stanno dando una spinta verso un ritorno all'architettura paritaria originale di Internet: se non dal punto dell'hardware (sarebbe molto difficile riuscire a cambiare radicalmente le infrastrutture tecniche), almeno dal punto del software. A questo riguardo, la storia della radio è significativa perché, a differenza degli altri, questo mezzo di comunicazione di massa ha vissuto due periodi estremamente diversi: il primo, nel quale si è sviluppato come mezzo di comunicazione bidirezionale e attivo, utilizzato soprattutto dai radioamatori per trasmettere e per ricevere; il secondo, che vede la sua trasformazione in medium unidirezionale e passivo per quanto riguarda le comunicazioni di massa20. Un salto che contraddice la teoria del determinismo tecnologico, poiché la natura della radio, come dimostrato dai suoi esordi, era quanto meno doppia21. 20 Le comunicazioni via radio, per quanto riguarda le attività professionali che le richiedono, avvengono ancora per via bidirezionale. Ma per il grande pubblico, le radio sono soprattutto uno strumento di ricezione, non di trasmissione 21 Cesareo, Rodi (1996) 72

Se si desidera una Internet paritaria, dove gli utenti possono non solo ricevere informazioni ma anche pubblicarle, non bisogna quindi darne per scontata la natura paritaria, e l'importanza dei software Peer-to-Peer è proprio quella di ricordare sempre questo obiettivo. Ed una evoluzione simile potrebbe accadere alla generazione e distribuzione di energia elettrica, se venissero introdotti sistemi di distributed generation: da una rete con molti fornitori, ad una unica rete di utenti passivi (client delle imprese energetiche), fino ad una rete di utenti sia passivi che attivi (sia riceventi che "pubblicanti").

3.3. Prospettive future per il Peer-to-Peer La rapida e capillare diffusione delle tecnologie basate su protocolli di comunicazione Peer-to-Peer si sta estendendo anche ad altre applicazioni ed ad altri ambiti, oltre all'ambito della condivisione di file musicali, da cui ha preso inizio. Dato che il termine Peer-to-Peer ha acquisito popolarità proprio da questo ambito con Napster ed altri episodi di download illegale di opere musicali22, alcune considerazioni sul futuro di questo concetto devono riguardare anche il futuro dell'industria musicale. Infatti, per molte persone il termine Peerto-Peer è sinonimo di illegalità, e per poterlo usare apertamente senza rischi di incomprensioni, conviene spendere alcune parole sulle caratteristiche dell'industria discografica e sulle implicazioni delle nuove tecnologie su di essa23. La storia dell'industria discografica stessa dimostra come siano le nuove tecnologie introdotte a determinare la fruizione delle opere musicali e il loro status di bene economico. Nel XIX secolo rappresentava un bene relazionale, in quanto poteva essere fruita solo quando veniva eseguita da persone presenti nello stesso spazio fisico, sia che si trattasse di musica alta (eseguita tramite la lettura di spartiti) o popolare (eseguita attraverso l'improvvisazione su temi noti)24. La musica era quindi fortemente ancorata alla dimensione locale. Con l'introduzione del fonografo, si sviluppò una nuova relazione con la musica, più passiva, basata su alti capitali investiti nella sua registrazione, distribuzione e riproduzione. La musica era quindi gestita da una industria centralizzata, in cui vennero introdotte le attuali leggi che regolamentano la sua distribuzione e riproduzione25. 22 Più in generale, di opere protette da copyright: quindi anche software, film, ecc. Tuttavia i software Peer-toPeer hanno permesso inizialmente solo la condivisione di file musicali (di dimensioni minori e quindi più facilmente distribuibili attraverso Internet), e i processi intentati riguardano principalmente la condivisione di file musicali. La condivisione di file musicali è quindi diventata sinonimo di Peer-to-Peer 23 Per una descrizione più approfondita su media, tecnologia e copyright si veda Lessig (2004) 24 Benkler (2002) p.341 25 Per un resoconto più ampio dell'industria musicale, relativa a questo tema, si veda anche Engelen (2005),


Sono quindi leggi che derivano da un determinato contesto storico, da una data organizzazione economica di produzione e distribuzione della musica, basata su una determinata tecnologia. L'emergenza di pratiche di file sharing non rappresentano quindi un desiderio di illegalità e sfida delle leggi in sé, ma la l'emergenza di nuove possibilità di produzione, distribuzione e fruizione della musica, basate su una nuova infrastruttura tecnologica26. L'industria musicale si è sviluppata seguendo strettamente gli sviluppi tecnologici relativi alla produzione e distribuzione di musica, e creando leggi apposite per garantire i propri processi economici produttivi e distributivi. Ciò che i fenomeni del Peer-to-Peer mettono in luce che le correnti pratiche economiche (e quindi le leggi che le garantiscono e regolano) stiano diventando obsolete. La stessa cosa successe con l'introduzione delle cassette audio nel 1963: la loro facilità di utilizzo e soprattutto di riutilizzo permisero pratiche più "democratiche", ossia più facilmente accessibili. In questo modo gli utenti furono in grado di registrare le proprie cassette, decidendo la scaletta dei brani oppure addirittura editando i brani. Sebbene queste pratiche furono in principio ostacolate perché ritenute illegali, è da queste premesse che si è sviluppato lo stile musicale dell'hip hop, uno delle attuali maggiori fonti di guadagno per l'industria musicale27. Con il Peer-to-Peer non è in pericolo l'esistenza di un mercato discografico e quindi della fruizione musicale è in pericolo la natura attuale dell'organizzazione economica che gestisce il mercato discografico; come afferma Tim O’Reilly "File-sharing networks don’t threaten publishing.They threaten publishers."28 Per Benkler29 il fenomeno del Peer-to-Peer, assieme a quelli del Free Software e Open Source software, rappresentano l'esempio di una nuova modalità di produzione basata sulla condivisione, rappresentando l'esatto opposto dell'industria discografica e musicale tradizionale. Per Benkler rappresenta un terzo tipo di modalità di produzione, oltre al capitalismo del libero mercato e al controllo centralizzato da parte dello Stato. Per Benkler questa modalità dovrebbe essere definita peer production (produzione fra pari), le cui caratteristiche sono: 1. essa è basata sulla libera cooperazione, non sulla vendita del proprio lavoro in cambio di un salario, né trova la sua prima motivazione nel profitto o nel valore di scambio del prodotto risultante; 2. non è gestita da una gerarchia tradizionale; 3. non ha bisogno di un produttore; 4. è un’applicazione innovativa del copyright p.233-250 26 Per una accurata analisi sul rapporto tra industria musicale e pirateria, si veda Lessig (2004) pp.55-59, 62-79] 27 Wynants, Cornelis (2005) 28 Per una descrizione dei benefici delle pratiche di distribuzione Peer-to-Peer nel campo musicale si veda O'Reilly (2002) 29 Benkler (2002, 2004)

che crea un’orizzonte comune dell’informazione e supera le limitazioni inerenti alla forma della proprietà. In relazione al contesto dell'industria discografica, la peer production presenta due caratteristiche vantaggiose. La prima è la decentralizzazione del privilegio legale di decisione su quali risorse (cioè informazioni) utilizzare; nessun partecipante di questa modalità necessita di chiedere il permesso per partecipare e per utilizzare determinati strumenti o processi. La seconda riguarda la bassa intensità di capitale necessaria per ottenere, elaborare e comunicare il proprio lavoro con chi si sta cooperando. La necessità di una gerarchia non esiste sia per le condizioni legali che per le condizioni economiche presenti. È questa una modalità di produzione che non necessariamente sostituirà le altre pratiche, ma che ne modificherà i tratti, riducendone i costi e rendendole più accessibili. Reti Peer-to-Peer che rimuovono intermediazioni e mettono tutti i partecipanti sullo stesso piano possono essere utilizzate con successo come una nuova modalità di creazione e distribuzione di registrazioni musicali. Non solo: se adattate alle specifiche condizioni, possono essere utilizzate per tutte le opere creative riproducibili digitalmente. Così come l'ambito musicale ha rappresentato il primo punto di partenza del fenomeno di file sharing Peer-to-Peer, è possibile pensare che anche nuovi metodi di produzione e distribuzione possano originarsi in questo ambito e poi diffondersi. Sono quindi possibili quattro prospettive per l'industria musicale nel futuro prossimo: 1. l'adozione di pratiche distributive Peer-toPeer a pagamento; 2. il download a pagamento; 3. l'introduzione di organizzazioni di produzione e distribuzione musicale del tipo street performer protocol, ossia di forme di mecenatismo distribuito; 4. la produzione collaborativa attraverso la condivisione.

3.3.1. Peer-to-Peer a pagamento Il file sharing di musica digitale incorre spesso nelle ire dei titolari dei copyright esponendo chi lo pratica a rischi di multe e condanne in tribunale. Questo a causa del perdurare di leggi sul diritto di autore che non tengono conto dell'evoluzione tecnologica e delle sue influenze sulla sfera economica e sociale. Ma la diffusione delle pratiche di file sharing dimostra come rappresentino soluzioni altamente desiderate dagli utenti. Invece di essere viste come un comportamento illegale e quindi regolamentate e ridotte, potrebbero essere viste come una nuova opportunità di mercato. Nuovi servizi di distribuzione basati sulla condivisione Peer-to-Peer possono essere ideati ed offerti: Napster si è sviluppato così30. 30 http://en.wikipedia.org/wiki/Napster_%28pay_service %29 73


La pratica di file sharing Peer-to-Peer si sta estendendo anche al di fuori dei supporti digitali, anche se continua ad appoggiarsi alle reti digitali: è nato addirittura una iniziativa di scambio Peer-toPeer non di file musicali ma di cd musicali. L'idea è venuta a quattro soci di Palo Alto, California, contitolari di una società chiamata La La che dalle prime settimane di marzo 2006 è in rete con un sito omonimo31. A differenza di altri siti web che offrono dischi usati in rete come Djangomusic.com, La La non pubblica un catalogo di offerte ma invita gli appassionati a mettersi direttamente in contatto tra di loro. Prima di indicare il cd che vorrebbe ricevere, ciascun utente deve compilare e trasmettere un lista dei compact disc in suo possesso e che sarà disposto a cedere. Dopo di che la sua richiesta arriva in forma anonima a tutti i possessori dell'articolo ricercato: il primo a rispondere riceve l'indirizzo del richiedente e provvede ad effettuare la spedizione del disco utilizzando un pacchetto prepagato fornito dai gestori del sito. A differenza di quanto accade con il file sharing, lo scambio non sarà gratuito ma quasi: per ogni cd ricevuto, l'utente deve versare un dollaro e spedire in cambio un altro dischetto (sempre originale, mai una copia). L'accesso al servizio, in questa fase sperimentale, sarà limitato a una lista chiusa di invitati, ma dal mese di luglio 2006 sarà aperto a tutti. Restano da valutare le reazioni di artisti e case discografiche, le cui vendite nei negozi tradizionali rischierebbero ovviamente di essere danneggiate dal diffondersi di questo modello di scambio alla pari. Per le etichette, l'amministratore delegato di La La Bill Nguyen ha già pronta una proposta: considerando il fatto che solo il 10 o 20 % delle richieste potranno essere soddisfatte direttamente da chi fa uso del servizio queste potrebbero partecipare al gioco provvedendo a rifornire i clienti insoddisfatti con cd nuovi o file digitali scaricabili in download (sempre attraverso il sito). Quanto agli artisti, Nguyen sostiene di volerli sostenere e di essere disposto a cedere il 20 % degli introiti incassati dalla vendita di ogni cd.

3.3.2. Download a pagamento Sebbene l'iPod della Apple non sia il primo lettore portatile di file musicali, è certamente quello che ha attirato maggiormente l'attenzione dei media in tutto il mondo. Con l'introduzione dell'iPod nel mercato musicale, le caratteristiche sia del mondo della musica legale e che quelle del mondo della musica scaricabile da Internet sono state convogliate nell'elaborazione di un sistema di prodotto-servizio. È stata proprio la combinazione tra prodotto e servizio che ha decretato il suo successo: permette a chi non saprebbe come scaricare file musicali come acquistarli con facilità; permette a chi sa come scaricare file musicali uno strumento comodo, facile da usare e con un design raffinato. Attraverso l'iPod è infatti possibile ascoltare file musicali ovunque, e attraverso il negozio online 31 http://www.lala.com 74

iTunes è possibile acquistare file musicali legalmente e ad un prezzo contenuto. Introdotto nel 2001 come un prodotto sofisticato rivolto ad una cerchia ristretta di consumatori, è divenuto nel corso degli anni un prodotto ormai comune, con una crescita delle vendite notevole. La fornitura degli strumenti per facilitare un acquisto ed una fruizione facile ed economica di file musicali può aprire nuove opportunità commerciali32.

Grafico 1: Vendite iPod 2003-2005 (fonte: http://en.wikipedia.org/wiki/IPod)

Grafico 2: Vendite iTunes 2005-2006 (Fonte: http://maddogfog.blogspot.com/2006/02/itunes-songpurchases-plotted-on-graph.html, http://www.apple.com/itunes/1billion/)

3.3.3. Street performer protocol, o mecenatismo distribuito Mentre le due prospettive precedenti riguardano solamente la distribuzione delle opere musicali, possono essere possibili altrettante prospettive che rivoluzionano i processi attuali di produzione delle opere musicali, e quindi delle opere creative più in 32 A inizio 2006 le vendite su iTunes hanno raggiunto il miliardo di file musicali (Fonte: http://maddogfog.blogspot.com/2006/02/itunes-songpurchases-plotted-on-graph.html, http://www.apple.com/itunes/1billion/)


generale. La prima prospettiva riguarda pratiche di mecenatismo distribuito, ossia pratiche in cui l'autore o gli autori producono e pubblicano un'opera creative in conseguenza di una somma economica ricevuta precedentemente da un certo numero di utenti-mecenati. I fruitori delle opere musicali cambiano ruolo: da utenti passivi a mecenati attivi. Un caso attuale di realizzazione di queste pratiche è data dagli Einstürzende Neubauten, attraverso il Supporter's Project33. Una descrizione di possibili pratiche di questo genere viene fatta da John Kelsey e Bruce Schneier, che propongono il termine di street performer protocol34, richiamandosi alla pratica comune fra molti musicisti di strada di eseguire brani dietro compenso. In una pratica di questo tipo, gli autori aboliscono la necessità di passaggi di intermediazione per la pubblicazione delle proprie opere ed interagiscono con il proprio pubblico con modalità Peer-to-Peer. Gli autori promettono così la realizzazione e pubblicazione di un'opera in cambio di una somma anticipata: Kelsey e Schneier propongono che questa venga rilasciata come bene di pubblico dominio, ma è più corretto pensare che possano essere utilizzate varie modalità, dal classico copyright (come nel caso degli Einstürzende Neubauten) alle più recenti normative Creative Commons35. In questo modo gli autori non risentono economicamente della condivisione delle proprie opere, e gli editori vengono così ad avere un nuovo ruolo, che oltre alla classica ricerca e valorizzazione degli autori, si interessa della ricerca e gestione delle somme economiche che i vari mecenati distribuiti elargiscono. È questo un sistema che pone molta importanza nella fiducia e nella reputazione che intercorrono tra autori, editori e pubblico: in questo modo i tre attori vigilano reciprocamente permettendo così prezzi corretti ed abbordabili e comportamenti corretti.

3.3.4. Produzione collaborativa attraverso la condivisione Le emergenti reti Peer-to-Peer non pongono in questione solamente la distribuzione delle opere creative, ma anche le modalità con cui queste vengono regolate e prodotte. Considerandole come prodotti chiusi, non modificabili, non si creano le condizioni necessarie per una loro stabile fruizione, distribuzione e produzione. La nascita di nuove regolamentazioni come le licenze Creative Commons hanno permesso la nascita di processi creativi collaborativi, anche al di fuori del movimento di Free Software e Open Source Software. In questo modo gli autori sono liberi di produrre e pubblicare le proprie opere in modo che chiunque possa copiarle, condividerle e modificarle. Gli 33 http://www.neubauten.org (si veda in appendice p.303) 34 Kelsey, Bruce Schneier (1999) 35 pp.155-158

utenti non sono limitati nella fruizione delle opere, e gli autori ne guadagnano in celebrità grazie alla citazione (e quindi reputazione) che deriva loro dalla fruizione delle loro opere. È quindi possibile che più autori collaborino nella produzione e modifica di opere musicali, attraverso l'utilizzo di tecnologie informatiche di recente introduzione. È questo il caso della comunità nata attorno a iCompositions, un sito web che permette la creazione collaborativa di opere musicali attraverso il proprio software36.

3.3.5. Il Peer-to-Peer oltre la produzione e la condivisione di opere creative Quindi il concetto di Peer-to-Peer, pur originatosi con le pratiche di file sharing nell'ambito di opere multimediali, si sta diffondendo verso altri ambiti con notevole successo. Reti Peer-to-Peer non interessano solo la produzione e distribuzione di opere creative immateriali, ma possono essere utilizzate anche per garantire la libertà di espressione o per portare il concetto di relazione Peer-to-Peer anche nel commercio. Nel primo caso rientra l'esempio di Freenet, un software ideato per garantire la libera pubblicazione di informazioni anche in quelle nazioni in cui vige una stretta censura sulle minoranze37. Nel secondo caso rientrano eBay e P-grid. Sebbene il primo non faccia apertamente riferimento al concetto di Peer-to-Peer, in effetto garantisce le condizioni necessarie affinché i propri utenti possano svolgere transazioni commerciali con rapporti Peer-to-Peer o meglio, customer-tocustomer (C2C)38. P-grid rappresenta poi una ulteriore evoluzione di questo concetto, introducendo la naturale decentralizzazione delle reti Peer-to-Peer nelle pratiche di eBay, che sono invece centralizzate e quindi più vulnerabili a situazioni critiche39. Ma il Peer-to-Peer non rappresenta solo una tecnologia il cui sfruttamento risulta vantaggioso: esso può essere un concetto utilizzabile per comprendere le caratteristiche della condizione socio-economica attuale e per poterne quindi affrontare i problemi. Il file sharing, secondo Michel Bauwens, è solo un piccolo esempio di quello che il Peer-to-Peer è, un modello di rapporto tra uomini, una “dinamica relazionale” che sta germogliando in tutti i settori della società.

36 http://www.icompositions.com (si veda in appendice a p.291) 37 http://freenetproject.org (si veda in appendice a p.257) 38 http://www.p-grid.org (si veda in appendice a p.310) 39 http://www.ebay.com (si veda in appendice a p.310) 75


natura del potere

metodo di controllo

monopolio

schema di potere

premodernità

militare e religiosa

forza e tradizione

terra e persone

schema di forza

prima modernità

commerciale e industriale

disciplinare e biopotere

capitale industriale e finanziario

schema monetario

tarda modernità

finanziaria e mediatica

società di controllo e produzione del consenso

finanziario e sui media

schema del denaro e della fama

media Peer-to-Peer

protocollare e conflitti memetici di opinioni

de-monopolizzazione basata sulla reputazione contro monopoli dell’attenzione

schema del giudizio

età del Peer-toPeer

Tabella 3: L'emergere della dinamica relazionale Peer-to-Peer e della sua gestione (Fonte: Bauwens 2005)

Per Bauwens infatti Free Software e Open Source Software rientrano nel concetto più ampio di Peerto-Peer e lo completano. Bauwens si propone di descrivere e spiegare lo sviluppo di questa dinamica nel suo accadere, e di collocarlo in uno schema evolutivo dello sviluppo dei modi della civiltà. Inoltre, egli cerca non solo di descrivere, ma pure di fornire uno schema esplicativo del perché il Peer-to-Peer si stia sviluppando adesso, e del come si collochi in uno schema evolutivo più ampio (non nel senso di un’evoluzione naturale inevitabile, ma nel senso di una trasformazione morale intenzionale). Bauwens ipotizza che il Peer-to-Peer sia tanto la necessaria infrastruttura tecnologica dell’attuale fase del “capitalismo cognitivo”, quanto qualcosa che lo trascende significativamente e che perciò indica la possibilità di una nuova formazione sociale che vi si baserebbe in maniera ancora più profonda. Bauwens, infatti, vede nel concetto di Peer-to-Peer come una dinamica relazionale che sta emergendo non solo nella tecnologia (e non solo grazie ad essa), ma che riveste il campo economico, sociale, politico e anche religioso. Ad esempio, secondo Bauwens il Peer-to-Peer sta emergendo come una nuova etica e metodologia anche nel campo della spiritualità, attraverso il rifiuto di ogni sorta di autoritarismo spirituale in favore di una ricerca spirituale partecipativa basata sulla cooperazione libera tra individui. Il Peer-to-Peer, per Bauwens, è una forma specifica di dinamica relazionale, basata sulla presunta equipotenza dei suoi partecipanti, articolata nella libera cooperazione di uguali in vista del compimento di un lavoro comune, per la creazione di un bene comune, con forme di processi decisionali e di autonomia che sono diffusamente distribuite per tutta la rete. Equipotenza significa che non c’è un previo filtraggio formale per la partecipazione; piuttosto, è la pratica immediata della cooperazione che determina la competenza e il livello di partecipazione. Essa non rinnega l’“autorità”, ma solo la gerarchia obbligata prestabilita; in effetti, accetta un’autorità basata sulla competenza, sul concepimento del progetto, ecc.

76

Il Peer-to-Peer è una rete (un network), non una gerarchia (benché possa averne qualche elemento); è “distribuito”, benché possa avere elementi di centralizzazione e “decentralizzazione”; il controllo dell’informazione non è localizzato in nessun centro, ma è dovunque, all’interno del sistema. «Presunta equipotenza» significa che i sistemi Peer-to-Peer partono dalla premessa che “non si sa dove sarà localizzata la risorsa necessaria”; il loro presupposto è che “tutti” possano cooperare, ed essi non si appoggiano a regole formali per determinare in anticipo i membri che vi parteciperanno. L'equipotenza, cioè la potenzialità cooperativa, si verifica nel processo stesso della cooperazione. La ratifica della conoscenza, l’accettazione dei processi sono determinate dal collettivo. La cooperazione dev’essere libera, non forzata, né basata sulla neutralità (cioè: l’acquisto di cooperazione in un sistema monetario). C’è per produrre qualcosa. Consente la partecipazione più diffusa possibile. Mentre i sistemi gerarchici sono orientati alla creazione di omogeneità tra i membri “dipendenti”, le reti distribuite caratterizzate dalla dinamica Peer-to-Peer regolano i partecipanti “interdipendenti” conservando la loro eterogeneità. È l’“oggetto della cooperazione” stesso che crea l’unità temporanea. In un sistema Peer-to-Peer, l’uso della gerarchia e della centralizzazione è subordinato alla partecipazione e alla comunicazione molti-molti, e non le si utilizza per proibirlo o dominarlo. Questo significa che, benché il Peer-to-Peer si generi in reti distribuite, non tutte le reti distribuite presentano processi Peer-to-Peer. Molti processi distribuiti basilari, come il brulichio degli insetti, o il comportamento dei compratori e dei venditori nel mercato, non sono veri processi Peer-to-Peer, e non lo sono perché non promuovono la partecipazione. Il Peer-to-Peer, in quanto fenomeno eminentemente umano, integra aspetti intenzionali e morali. Quando i reticoli distribuiti, per esempio consigli di amministrazione interconnessivi, servono una gerarchia di ricchezza e potere e sono basati sull’esclusione anziché sulla partecipazione, essi non si qualificano come veri processi Peer-to-Peer.


Bauwens quindi elabora una visione del concetto di dinamica relazionale Peer-to-Peer in relazione alla infrastruttura tecnologica, alla sfera economica (ricollegandosi al pensiero di Benkler), politica, scientifica, culturale e spirituale. È quindi una visione molto ampia sulla società, che getta le basi per una diffusione ancora più ampia per il concetto Peer-to-Peer. La conclusione di Bauwens non è che il Peer-to-Peer sia necessariamente un rimedio per tutti i problemi, ma che la sua nuova forma di democrazia non rappresentazionale sia un ingrediente cruciale per trovare soluzioni ai cambiamenti globali presenti. Chi difende il Peer-to-Peer vuole combinare l'aspirazione alla libertà insita a ciascuna tradizione liberale con l'aspirazione all'uguaglianza insita nella tradizione democratica radicale e socialista in una nuova forma di civilizzazione nella quale entrambe risultino compatibili. Per Bauwens è precisamente la collaborazione dell'individuo libero nella creazione del valore d'uso, che gli permette di trovare la più alta espressione di se stesso. L'opera di Bauwens rappresenta quindi un punto fondamentale per la comprensione e l'evoluzione del concetto di Peer-to-Peer, e può essere sintetizzata nei seguenti punti: • la tecnologia riflette un cambiamento di coscienza verso la partecipazione e, a sua volta, la rafforza; • il formato reticolare, espresso nella specifica maniera dei rapporti Peer-to-Peer, è una nuova forma di organizzazione politica e di soggettività e un’alternativa all’ordine economico-politico la quale, benché di per sé non offra soluzioni, indica una varietà di formati dialogici e di autoorganizzazione per elaborare diversi processi per arrivare a quelle soluzioni; che questo formato apre la strada a un’epoca di “democrazia non rappresentativa”, dove un numero sempre maggiore di persone riusciranno a gestire la propria vita sciale e produttiva mediante l’uso di una varietà i reti e circoli di pari; • il Peer-to-Peer crea un nuovo dominio pubblico, un orizzonte comune dell’informazione, che andrebbe protetto ed esteso, specialmente nel dominio della creazione di conoscenza comune; e che questo dominio, nel quale il costo della riproduzione della conoscenza è tendente allo zero, richiede dei cambiamenti fondamentali nel regime della proprietà intellettuale, riflessi da nuove forme come il movimento free software; • i principi sviluppati dal movimento Free Software ed Open Source Software forniscono modelli che potrebbero essere usati in altre aree della vita sociale e produttiva; questi principi si ricollegano alle più antiche tradizioni e ai primi tentativi di ottenere un ordine sociale più cooperativo, evitando questa volta il ricorso all’autoritarismo e alla centralizzazione; la nuova cultura digitale

egalitaria è connessa alle più vecchie tradizioni di cooperazione tra operai e contadini e alla ricerca di una vita impegnata e sensata che si esprima come tale anche nel lavoro, il quale diventa espressione di creatività individuale e collettiva, anziché mezzo salariato di sopravvivenza; il Peer-to-Peer combina soggettività (nuovi valori), intersoggettività (nuove relazioni), oggettività (una tecnologia attuale) e interoggettività (nuove forme di organizzazione) che si rafforzano mutuamente in un ciclo di retroazione positivo, ed è chiaramente in fase di crescita, ma manca ancora di “autocoscienza politica”.

Credendo in questi principi, Bauwens ha fondato nel 2005 la Foundation for Peer-to-Peer Alternatives, assieme a Kris Roose, David H. Mason and James Herman40. L'attività della fondazione ha lo scopo di tentare di risolvere alcuni problemi che caratterizzano attualmente il concetto di Peer-toPeer. Il Peer-to-Peer infatti attualmente esiste in movimenti e progetti separati e distinti, ma questi diversi movimenti sono spesso inconsapevoli del comune ethos Peer-to-Peer che li lega. Perciò, c’è bisogno di un’iniziativa comune che 1. raccolga l’informazione; 2. metta in connessione le persone e crei un circuito di mutua informazione; 3. si sforzi di trovare concezioni integrative che attingono a molti sotto campi; 4. riesca ad organizzare eventi di riflessione e azione; 5. riesca a educare le persone riguardo agli strumenti critici e creativi per la costruzione del mondo. 6. ispiri la creazione e la connessione di altri nodi attivi nel campo del Peer-toPeer, organizzati attorno a temi, interessi e orientamenti comuni, nonché attorno a qualsiasi forma di identità e organizzazione che abbia un senso per le persone coinvolte;

40 http://www.p2pfoundation.net/index.php/About http://www.p2pfoundation.net/index.php/Founders 77


epoca

gradi di coscienza morale

rapporto tra gerarchia, cooperazione e autonomia

premodernità

nessun diritto di partecipazione politica

la gerarchia definisce, controlla e limita la cooperazione e l’autonomia

prima Modernità

partecipazione politica mediante la rappresentanza

la gerarchia autorizza un livello di cooperazione e di autonomia solo nella sfera politica

tarda modernità

rappresentanza politica con vari gradi di partecipazione più ampia

la gerarchia autorizza un livello di cooperazione e di autonomia nella sfera politica e, in vari gradi, in altri campi

età del Peer-to-Peer

diritti equipotenziali di partecipazione di tutti in tutti i campi

l'unico ruolo della gerarchia è la sua emersione spontanea nella nascita e nella continua proliferazione dell’autonomia-in-cooperazione in tutele sfere dell’agire umano

Tabella 4: Gerarchia e cooperazione nello sviluppo della società e nel concetto di Peer-to-Peer (Fonte: Bauwens 2005)

78


4.

Reti collaborative come comunità multilocali

4.1. Comunità e organizzazione Questi fenomeni di attivazione collettiva che rappresentati dalle comunità Open Peer-to-Peer possono essere considerati anche da un punto di vista sociologico, ponendo attenzione cioè alle loro caratteristiche sociali. Appare ovvio, dato che si sta parlando di insiemi di persone che interagiscono reciprocamente la fine di risolvere alcuni problemi. Tuttavia, non è così scontato il fatto che si stia parlando di comunità e non, per esempio di organizzazioni aziendali: esistono molti casi di software open source che rappresentano degli ottimi esempi di attività commerciale; il caso Neubauten.org rappresenta un altro caso di attività commerciale (registrazione e vendita di incisioni discografiche), i dabbawalla rappresentano un ottimo caso di attività distributiva, ecc. Si potrebbe quindi pensare di considerare i casi Open Peer-to-Peer come delle organizzazioni, e non come comunità. Ma le comunità Open Peer-to-Peer e le tradizionali organizzazioni economiche divergono su un punto fondamentale: la propria struttura.

Fig. 26: Gerarchia: il potere da forma alla rete sociale in modo top-down (Fonte: Chiesi 1999)

Fig. 27: Comunità Open Peer-to-Peer: la reputazione da forma alla rete sociale in modo bottom-up (Fonte: Chiesi 1999)

Mentre le organizzazioni tradizionali si basano su una gerarchia verticale che comanda e controlla, le comunità Open Peer-to-Peer si basano su una rete orizzontale in cui ogni partecipante comanda solo

se stesso e contribuisce a controllare la rete. Mentre nella gerarchia i rapporti interpersonali sono definiti dal potere, nelle comunità Open Peerto-Peer sono definite dalla reputazione: mentre il potere ha una natura di tipo top-down (cioè discende verso i livelli più bassi che lo accettano passivamente), la reputazione ha una natura di tipo bottom-up (cioè parte dai partecipanti, che attivamente attribuiscono la reputazione). Per questo motivo si parla di reti collaborative basate su comunità: le relazioni che si instaurano tra i partecipanti sono come quelle che si instaurano in una comunità, e non in una gerarchia. È questa una caratteristica molto importante, poiché porta dei notevoli vantaggi. Tuttavia anche una comunità si organizza per svolgere le proprie azioni: è quindi importante capire la relazione tra comunità e organizzazione. Richard Butler1 esprime una definizione teorica tipica di un'organizzazione come: 1. un'entità sociale che 2. ha uno scopo 3. ha dei confini, cosicché alcuni partecipanti possano essere considerati interni e altri esterni, 4. organizza le attività dei partecipanti in una struttura riconoscibile. Quindi si potrebbero pensare le comunità Open Peer-to-Peer come delle organizzazioni: sono delle entità sociali (un insieme di partecipanti), hanno uno scopo (trovare una soluzione a un problema comune), hanno dei confini (chi partecipa e chi no), e le attività sono organizzate in maniera riconoscibile (divisione del lavoro in ruoli, regole, artefatti, ecc.). Ma allora perché si autodefiniscono "comunità"? Analizzando il termine comunità, si vede che esso significa "insieme di persone unite tra di loro da rapporti sociali, linguistici e morali, vincoli organizzativi, interessi e consuetudini comuni. [...] Complesso di soggetti di diritto internazionale organizzati come collettività, per il conseguimento di vantaggi comuni dal punto di vista pratico, politico, economico"; derivante dal latino communitas (comunanza), che a sua volta deriva da communis (comune)2. Una organizzazione è invece "l'attività o l'ente che corrisponde in modo sistematico alle esigenze di funzionalità e di efficienza di una impresa per lo più collettiva: [...] finalizzata all'efficienza e produttività dell'impresa; [...] cui aderiscono alte percentuali della popolazione", derivante dal latino organum, che deriva dal greco órganon (affine a érgon, "opera"), e quindi "strumento"3. 1 2 3

Butler (1998) p.1 Giacomo Devoto, Gian Carlo Oli, "Il dizionario della lingua italiana", Le Monnier, Firenze 1990 Ibidem 79


La differenza risiede nell'accenno alla presenza di rapporti sociali (assente nell'organizzazione)? Per capire ancora meglio la differenza si possono analizzare quali significati abbiano questi due termini nell'ambito della biologia, dove entrambi sono presenti. In biologia una organizzazione è "la serie di processi attraverso cui organi, apparati e strutture si formano, si sviluppano, si differenziano e si coordinano così da costituire un organismo vivente. [...] il complesso dei fenomeni biochimici che avvengono nelle cellule durante la trasformazione dei composti organici alimentari in costituenti della sostanza vivente" 4. Inoltre, in biologia esiste il termine biocenosi, che si riferisce a un "insieme di specie o popolazioni animali, vegetali e di batteri conviventi in un determinato ambiente, fra le quali si stabiliscano definiti rapporti di interdipendenza"5, che viene spesso sostituito dal sinonimo comunità biotica. La differenza fondamentale tra comunità e organizzazione è che il primo rappresenta un soggetto, mentre il secondo si riferisce al processo che questo soggetto intraprende. Analizzare quindi i casi Open Peer-to-Peer dal punto di vista sociologico, come delle comunità, significa capire quali siano le sue caratteristiche indipendentemente dalla organizzazione che adottano (e che infatti può variare da caso a caso). Ma questi casi suscitano interesse per il loro particolare modo di organizzarsi, e quindi anche i processi sono importanti. Questi casi emergenti sono una sperimentazione continua, non costituiscono un paradigma rigido (e non hanno intenzione di costituirlo) e devono la loro organizzazione al fatto di essere costituiti in comunità. Anche le imprese (organizzazioni aziendali) che si basano su casi Open Peer-to-Peer, ottengono vantaggi dal loro essere in comunità, caratteristica che non mettono in discussione, ma anzi cercano di incoraggiare6. L'aspetto "comunità" e l'aspetto "organizzazione" sono inscindibili: senza la formazione di comunità, non avremmo questa forma di organizzazione; senza questa forma di organizzazione, queste comunità non risulterebbero talmente innovative e interessanti. Come definire quindi una comunità, dal punto di vista sociologico, prima di poterla analizzare? La comunità può essere vista come "un gruppo sociale che vive generalmente in un'area territoriale determinata e che fa parte della società della quale riprende molte caratteristiche, ma su scala più limitata, con un gioco di interrelazioni e interessi meno complesso e differenziato e dove, a differenza della società, vi è maggiore accentuazione degli aspetti totalizzanti e simpatetici delle relazioni interpersonali"7. La comunità vista quindi come comunità locale, contrapposta alla società, vista come insieme più 4 5 6 7

80

Ibidem Aa vv (1988), Grande dizionario enciclopedico, UTET, Torino Come nel caso di Neubauten.org, ad esempio Aa vv (1988), Grande dizionario enciclopedico, UTET, Torino

grande e complesso di cui fa parte. Tuttavia una comunità può costituirsi oggigiorno secondo varie tipologie, oltre alla tradizionale comunità locale (che si trova in una fase di crisi di lungo corso, a partire dalla Rivoluzione Industriale). Una comunità Open Peer-to-Peer, che si forma per svolgere una attività, può essere analizzata in relazione alla localizzazione dello svolgimento di questa: locale, globale, multilocale. Vi sono almeno tre elementi principali nella maggior parte delle definizioni sociologiche di comunità8: • area geografica; • interazione sociale; • legami comuni. In questo modo ogni definizione di comunità si trova a includere una variabile territoriale (area geografica), una variabile sociologica (interazione sociale) e una psicoculturale (legami comuni).

4.2. Definizioni sociologiche di comunità 4.2.1. La comunità come dimensione territoriale: la comunità locale Vista come unità territoriale9, la comunità è stata indicata fino ad ora come unità spaziale, un'aggregazione di persone che vivono in un'area specifica, o semplicemente come “luogo”. Ad ogni modo, è difficile analizzare tutte le sfaccettature delle dimensioni spaziali delle comunità, ma si può sottolineare che i fattori territoriali aiutano a spiegare la localizzazione e la persistenza delle comunità e che i membri di una comunità modificano costantemente il milieu10 territoriale in cui vivono. È comprensibile come variabile territoriali e geografiche possano spiegare l'esistenza e le potenzialità di sviluppo di una comunità. È più probabile la presenza di comunità in territori ricchi di risorse naturali o in presenza di importanti rotte commerciali, e l'aggregazione di abitanti in comunità di dimensioni sempre più grandi è stata anche una conseguenza della Rivoluzione Industriale e dello sviluppo delle economie moderne. Le comunità si sono formate perché gli esseri umani non possono trascendere lo spazio e per la capacità di facilitare il contatto, la protezione reciproca, l'organizzazione e l'integrazione del gruppo. Tuttavia, anche se le variabili territoriali influenzano la localizzazione e le dinamiche di crescita delle comunità, il modo in cui i suoi membri la modificano e adattano al milieu territoriale dipende dal loro bagaglio culturale e dalle loro conoscenze tecniche.

8 Poplin (1979) 9 Ibidem pp.8-10 10 "Ambiente", in senso sociologico e culturale, in quanto fattore determinante di processi politici, sociali, artistici e letterari. (Fonte: Devoto, Oli 1990)


4.2.2. La comunità come interazione sociale: la comunità come gruppo La comunità può anche essere vista come l'elemento base per la organizzazione sociale11; tuttavia vi sono discordanze sulla maniera in cui descrivere la comunità dal punto di vista sociologico che portano principalmente a due visioni, che hanno però molti elementi in comune: la comunità come un gruppo sociale e la comunità come un sistema sociale. Il merito di aver suggerito che la comunità è uno dei vari gruppi sociali va a T. Hiller12, secondo il quale i gruppi sociali hanno alcune caratteristiche di base come l'insieme dei membri, una o più prove di appartenenza, ruoli assegnati e un insieme di norme. Se tutte queste caratteristiche sono viste come parti integrali della struttura della comunità allora questa può essere considerata come tale. Le comunità possiedono queste caratteristiche, anche se con gradi differenti: tutte le comunità possiedono un numero di membri e pongono dei requisiti per la partecipazione; ogni comunità assegna dei ruoli hai suoi membri ed è dotata di un insieme di norme a cui i membri devono conformarsi. Ad ogni modo, se la comunità viene vista come un gruppo sociale, va distinta dagli altri tipi di gruppi sociali. Un possibile modo è quello di vedere la comunità come unica tra i gruppi sociale che è dotata di una dimensione territoriale.

4.2.3. La comunità come interazione sociale: la comunità come sistema sociale Negli ultimi decenni, pochi studiosi vedono la comunità come un gruppo sociale, e preferiscono considerarla come un sistema sociale, come una combinazione di sistemi e unità sociali che svolgono importanti funzioni sociali in relazione ad una località. In questo modo, la comunità si configura come un sistema costituito di sottosistemi che svolgono funzioni di socializzazione, controllo sociale, partecipazione, mutuo supporto, produzione, distribuzione e consumo di notevole importanza per la propria dimensione locale. In realtà questa visione è una versione più ampia e ridefinita della visione della comunità come gruppo sociale che sottolinea l'importanza della comunità come unità di organizzazione sociale: una comunità emerge come il primo sottosistema che può potenzialmente incontrare tutta la scale dei bisogni fisiologici, psicologici e sociali dei suoi membri, cosa che un gruppo di dimensioni limitate, un nucleo familiare o un governo non possono fare. Nella visione della comunità come sistema sociale, 11 Poplin (1979) 12 T.Hiller, The Community as a Social Group, in American Sociological Review n. 6 (aprile 1941), p.189

il termine “sistema sociale” è stato definito in molti modi, ma può essere considerato come un insieme altamente organizzato di relazioni socialmente significanti tra due o più persone o gruppo come un sistema composto dai modelli di interazione tra i membri13. Uno dei contributi più importanti della teoria del sistema sociale è che fa luce sui modi in cui le comunità si strutturano e organizzano: le comunità possono essere viste come un sistema i cui componenti sono status, ruoli, gruppi e istituzioni. Inoltre, questi componenti o sottosistemi sono strettamente relazionati fra di loro: i ruoli e gli status relazionati con altri ruoli e altri status per formare gruppi, i gruppi si combinano con altri gruppi per formare istituzioni. Infine, le istituzioni si legano fra loro per dare luogo a comunità. Spesso i sociologi considerano gli status sociali e i ruoli come i componenti base dell'organizzazione sociale. Infatti, il termine status si riferisce alla posizione ricoperta da un individuo in qualsiasi gruppo sociale. Il termine ruolo si riferisce alla maniera con cui in cui gli individui si comportano ricoprendo gli status che gli sono stati assegnati. Il comportamento specifico di un ruolo o di uno status può essere deciso indipendentemente o, molto più frequentemente, elaborato dalla comunità. Ovviamente non si può ricoprire un ruolo o avere uno status senza relazioni con altre persone: per questo motivo si può considerare che gli status e i ruoli si combinino per formare i gruppi, secondo livello di organizzazione della comunità. Vi sono diversi metodi per classificare i gruppi, come ad esempio suddividerli tra gruppi statistici, gruppi di società, gruppi sociali e gruppi associazionali. Il gruppo statistico si riferisce a quell'insieme di persone che è accomunato dall'aver effettuato una stessa scelta od operazione, ma che non interagiscono fra loro e quindi non formano un gruppo sociale. Similmente si comportano i gruppi di società, suddivisi per sesso, occupazione, reddito, ecc., che possono avere una consapevolezza di formare un gruppo ma non interagiscono inevitabilmente fra loro. Il gruppo sociale invece è caratterizzato dalla consapevolezza di appartenenza e di interazione e include diverse unità di organizzazione come gruppi di parentela, gruppi di amici, ecc. Anche nei membri di un gruppo associazionale ci sono interazioni ed in più il gruppo ha anche una struttura formale, su base gerarchica con leader, presidenti, segretari, soci e via dicendo. A queste quattro suddivisioni è possibile aggiungerne una quinta, quella di gruppo comunità, seguendo le teorie di Hiller. Tutti i gruppi (ad eccezione dei gruppi statistici o della società) hanno quattro caratteristiche basilari: un insieme di membri, requisiti di ammissione, ruoli, norme. L'unico fattore che le differenzia è che i gruppi comunità hanno anche una importante dimensione territoriale. 13 Poplin (1979) 81


Molti dei gruppi esistenti a livello di comunità non possono vivere in isolamento rispetto ad altri gruppi che hanno obiettivi, funzioni e scopi simili, altrimenti ne risulterebbe una inefficacia generale. Per questo motivo si costituiscono in istituzioni. Nonostante l'ambiguità del termine, si può utilizzarlo sapendo che tutte le istituzioni hanno un punto in comune: svolgono certe funzioni cruciali per la continuità della comunità (o di tutta la società) nel tempo grazie alla loro struttura. La comunità è quindi un sistema di sistemi o, più precisamente, un sistema le cui parti sono le sue istituzioni sociali. Tuttavia questo non significa che tutti i gruppi siano integrati dentro la comunità o che siano sempre relazionati fra loro. Si hanno interazioni sia all'interno che fra sistemi sociali, che possono essere indicati come reti di interazioni. In gruppi relativamente semplici, il termine interazione implica che le azioni di una persona richiedono una azione reciproca: l'interazione si modifica reciprocamente in un processo dinamico. Sfortunatamente, il concetto di interazione è più difficilmente adattabile a sistemi complessi come la comunità, dato che non tutti i componenti interagiscono fra loro. Spesso infatti le interazioni faccia a faccia si manifestano all'interno dei sottosistemi di cui la comunità è costituita. A causa di ciò spesso i teorici dei sistemi sociali analizzano le relazioni tra sistemi sociali in termini di “collegamento sistemico”, che si riferisce ad un processo dove uno o più elementi di almeno due sistemi sociali sono articolati in una maniera tale che i due sistemi in alcune occasioni e in alcuni modi possono essere visti come uno solo. L'interazione avviene quindi tra individui, tra gruppi, tra gruppi e istituzioni, e tra due o più istituzioni. I collegamenti che si sviluppano tra i sottosistemi di una comunità sono molto simili alle interazioni faccia a faccia, che comporta un considerevole numero di interrelazioni e collegamenti tra i sistemi sociali che formano la comunità. Le possibilità sono: 1. le unità provenienti da sistemi differenti possono unirsi e dare luce ad un nuovo sistema; 2. i membri guida dei sistemi collegati possono interagire in vece dei rispettivi sistemi; 3. emergono sistemi sociali che hanno il compito esplicito di coordinare le relazioni con gli altri sistemi; 4. l'interazione tra due o più sistemi sociali può traspirare in maniera indiretta, attraverso dei mezzi di comunicazione. Un metodo ulteriore per studiare l'interazione a livello di comunità è in termini di input ed output che fluiscono tra i vari sottosistemi. Ogni sottosistema della comunità riceve input di vario tipo dalle altre unità nella località: input necessari per le operazioni, input creati da altre unità locali per aggiustamenti adattivi, input che coinvolgono le attitudini e il comportamento delle persone con cui ha a che fare. Inoltre, si può porre l'accento sulle maniere con cui un sistema A ottiene un input 82

da un altro sistema B. Può farlo attraverso la coercizione, che implica che il sistema A è talmente potente da restringere le scelte possibili del sistema B che deve quindi obbedire. Oppure può farlo attraverso una contrattazione o un meccanismo legale-burocratico.

4.2.4. La comunità come interazione sociale: una rete di interazioni In contrapposizione alla visione di comunità come sistema sociale si può riscontrare l'accento posto alla rete delle interazioni sociali come struttura fondante14. Ad ogni modo, questi due approcci non sono così distanti fra loro ma hanno una cosa in comune: si basano sul postulato che le interazioni avvengono non solo tra individui ma anche tra gruppi e istituzioni. Inoltre, bisogna effettuare una distinzione tra l'approccio alla comunità come rete di interazioni sociali e la teoria dell'azione di comunità (community action theory). L'interazione è uno strumento concettuale standard che i sociologi possono utilizzare nell'analisi di una comunità, mentre la teoria dell'azione di comunità cerca di distinguere le attività comuni da quelle che non lo sono. Il considerare la comunità come una rete di interazioni ha un notevole vantaggio: può servire come strumento di descrizione sistematica delle interrelazioni delle varie unità, permettendo la comprensione della strutture e dei processi della comunità. Uno dei principali problemi che si incontrano nell'adottare questa metodologia di analisi è che le condizioni delle moderne comunità non rientrano completamente nelle definizioni di interazione accettate dai sociologi. In breve, l'interazione è solitamente indicata come un incontro faccia a faccia tra due o più persone in cui ognuna di queste tiene conto delle altre. Ovviamente il coinvolgimento di tutti i membri della comunità in una rete di interazioni di questo tipo non avviene mai ad eccezione dei piccoli villaggi, dato che nella maggior parte delle comunità l'elevato numero di membri e una mancanza di interessi comuni ne impediscono la formazione. Una soluzione per risolvere questo problema è quella di considerare che non solo interagiscono i singoli individui ma anche i gruppi e le istituzioni di cui una comunità è formata: la comunità è vista come una catena di relazioni di input-output in cui ogni sottosistema riceve gli input necessari dagli altri sottosistemi e a sua volta contribuisce ad altri sottosistemi e alla comunità nel suo insieme. Questi input possono essere contributi finanziari, risorse fisiche, pressioni sociali, forza lavoro, ecc. In questo modo si può vedere la comunità come una rete di sottosistemi interagenti con degli assi orizzontali e verticali. L'asse orizzontale comprende le relazioni tra individui e tra gruppi all'interno della località, mentre l'asse verticale comprende le relazioni tra un individuo e un gruppo locale di 14 Idem


interesse e da questi alla dimensione di organizzazione regionale e nazionale; l'interazione può avvenire tra due unità sociali che occupano in livello simile nel sistema comunitario totale o tra unità sociali e unità di estensione territoriale maggiore. Una interessante analisi della rete di interazioni a livello di comunità è stato sviluppato da Norton E. Long, che paragona l'interazione a livello di comunità ad una serie di giochi15. In un sistema territoriale si possono riscontrare un “gioco” politico, un “gioco” bancario, un “gioco” della stampa, un “gioco” delle organizzazioni civiche e così via16. Anche se tutti questi “giocatori” inseguono i propri obiettivi individuali, “l'ecologia dei giochi” nel sistema territoriale locale porta a termine dei risultati non pianificati ma funzionali. Ad esempio, politici, banchieri e imprenditori possono inseguire obiettivi individuali nello sviluppo di una nuova area residenziale, ma come risultato della loro interazione e dai “giochi” che svolgono le necessità di alloggi della comunità possono essere risolte. Morris Freilich17 analizza le reti di interazioni nel tentativo di identificare le comunità, che egli concepisce come una serie di centri dove le persone si riuniscono. Allontanandosi da questi centri si può notare come le persone non si riuniscono più nei centri osservati all'inizio ma in un altro gruppo di centri: è stata oltrepassata la linea di confine della comunità. L'esistenza dei centri di interazione in ogni comunità mostra come i membri della comunità possano sviluppare sottoculture e un insieme di conoscenze specializzate. Sono stati riscontrati anche altri metodi per analizzare la comunità come rete di interazioni18. Ad esempio, si è potuto notare che l'interazione a livello di comunità spesso mostra modelli e configurazioni caratteristiche. Quando queste vengono generalizzate al punto da diventare caratteristiche dell'interazione sia di individui che di gruppi, vengono chiamate processi sociali di base, e sono la cooperazione, la competizione e il conflitto. I sottoprocessi con cui la cooperazione è promossa e la competizione e i conflitti mitigati sono la sistemazione (accomodation), la fusione (amalgamation) e la assimilazione (assimilation). L'unico meccanismo che permette la continuazione dell'esistenza di una comunità è la cooperazione, dato che i conflitti possono diventare troppo costosi mentre la competizione non porta sempre alla soluzione delle problematiche di base della comunità. 15 Norton E. Long, The Local Community as an Ecology of Games in Roland L. Warren (1977), New perspectives on the American Community: a book of readings, Rand McNally Company 1977, Chicago, pp.58-74 16 Poplin (1979) 17 Morris Freilich, Toward an Operational Definition of Community, in Rural Sociology n. 28, (giugno 1963),pp.117-127 18 Poplin (1979)

Anche nelle comunità più disgregate si può sempre riscontrare una minima cooperazione che evita il collasso totale: la competizione è essenzialmente un processo cooperativo in cui le parti in causa concordano su quali obiettivi tendere e sui metodi con cui raggiungerli. Tutti e tre i processi sono sempre presenti in ogni comunità, in grado differente da caso a caso.

4.2.5. La comunità come unità pisco-culturale La maggior parte dei sociologi concorda nel ritenere che i legami comuni sono uno degli aspetti importanti della complessità del termine comunità19. Come variabili culturali, il sentimento di comunità coinvolge una condivisione di valori, credenze ed obiettivi comuni che possono originarsi da fonti differenti ma soprattutto dal milieu territoriale in cui la comunità è cresciuta. Questi valori, credenze ed obiettivi possono essere orientati verso temi ben precisi, come la relazione con la natura, con il soprannaturale, all'attività umana ecc. Allo stesso modo il sentimento di comunità necessita di norme, un insieme di aspettative comportamentali a cui i membri devono conformarsi. La condivisione di questi valori, credenze ed obiettivi può essere ridotta a causa dell'eterogeneità delle attuali comunità. Il sentimento di comunità fornisce all'individuo un modello e una stabilità difficilmente riscontrabili in un mondo complesso, ma al contempo può svolgere da restrizione nella crescita personale di alcuni individui, che non riescono a slegarsi dalla comunità anche quando ne trarrebbero vantaggio.

4.3. La comunità locale tradizionale come forma archetipa Nella sua analisi sulla trasformazione del concetto di "comunità", Bauman20 ricorda che le parole hanno dei significati; alcune di esse, tuttavia, destano anche particolari “sensazioni”. La parola “comunità” è una di queste. Emana una sensazione piacevole, qualunque cosa tale termine possa significare. “Vivere in una comunità”, “far parte di una comunità” è qualcosa di buono. Quando qualcuno esce dalla retta via, spieghiamo spesso la sua condotta insana dicendo che “frequenta cattive compagnie”. Se qualcuno conduce una vita miserabile, piena di sofferenze e priva di dignità, subito accusiamo la società, i criteri con cui è organizzata, il modo in cui funziona. La compagnia o la società possono anche essere cattive, la comunità no. La comunità – questa è la sensazione – è sempre una cosa buona.

19 Idem 20 Bauman (2003) pp.3-4 83


Fig. 28: Comunità locale preindustriale (Veduta del villaggio di Bochum , Matthäus Merian, "Topographia Germaniae" 1647)

Innanzitutto, la comunità è un luogo “caldo”, un posto intimo e confortevole, che ripara, caratterizzata dalla comprensione e fiducia reciproche, che non presenta sorprese. A volte si può litigare, ma si tratta di alterchi tra amici e tutti cerchiamo di rendere la nostra integrazione ogni giorno più lieta e gradevole. Può capitare che, sebbene guidati dal comune desiderio di migliorare la nostra vita comune, discordiamo sui modi per raggiungere tale obiettivo e, tuttavia, non desideriamo mail il male altrui e possiamo essere certi che tutti coloro che ci circondano non desiderano che il nostro bene. Inoltre, la comunità è un luogo in cui possiamo contare sulla benevolenza di tutti, dove aiutarci reciprocamente è un nostro puro e semplice dovere, così come è un nostro puro e semplice diritto aspettarci che l'aiuto richiesto non mancherà. È dunque facile comprendere perché la parola “comunità” emani una sensazione piacevole. I primi studi sociologici sul tema della comunità risalgono all'opera di Ferdinand Tönnies, e in particolar modo al suo libro Gemeinschaft und Gesellschaft ('Comunità e società'), pubblicato originariamente nel 1887. Per Tönnies comunità (Gemeinschaft) e società (Gesellschaft) non sono soltanto due forme di aggregazione, ma anche due tipi storici. In epoca preindustriale, dove i rapporti umani erano mediati dal rapporto con la terra, predominavano forme di natura comunitaria, mentre le forme societarie dominano nella società moderna in cui i rapporti tra gli uomini sono mediati dal rapporto con il mercato. La dicotomia di Tönnies riecheggia quindi la nostalgia romantica per rapporti di intimità, carichi di componenti affettive, che l'impersonalità della società industriale stava distruggendo. Come forme di aggregazione, società e comunità rappresentano due forme polari di relazione sociale. Vi è una relazione sociale di tipo societario 84

quando ogni individuo implicato nella relazione persegue razionalmente i propri fini individuali prescindendo dai fini (e quindi dal sistema di valori) degli altri attori, se questi non sono condizioni e strumenti per il raggiungimento delle proprie mete. La relazione sociale di tipo comunitario si basa invece non sulla contrapposizione dei fini e degli interessi individuali ma sulla loro condivisione. Non si tratta di una relazione volontariamente instaurata in vista di un fine specifico, ma di una relazione spontanea i cui fini sono di natura diffusa e spesso i membri non ne sono neppure consapevoli. Nella comunità gli uomini sono uniti da un legame di tipo organico, nella società da un legame di tipo meccanico. La comunità viene vista come un organismo vivente, la società come un aggregato e prodotto meccanico. Inoltre, Ferdinand Tönnies affermava che quanto distingueva la comunità del passato dalla società moderna (allora nascente) era la reciproca comprensione di tutti i suoi membri. Non un consenso: questo è un accordo raggiunto da persone che la pensano essenzialmente in modo diverso, il prodotto di snervanti negoziati e compromessi. La comprensione di stampo comunitario non ha bisogno di essere cercata, e tanto meno di essere laboriosamente costruita o conquistata e difesa. Il tipo di comprensione su cui poggia la comunità precede ogni sorta di accordo o disaccordo. È un sentimento reciprocamente vincolante ed è grazie a tale comprensione, e solo grazie ad essa, che gli abitanti della comunità restano sostanzialmente uniti a dispetto dei tanti fattori di disgregazione. In questa fase, quindi, il concetto di comunità è strettamente legato alla sua dimensione locale e alle relazioni che, in quel determinato luogo, si sono formate nel corso degli anni. Per Robert


Redfield21 questo tipo di comunità è un'entità peculiare rispetto ad altre forme di aggregazione umana (appare cioè chiaro “dove inizia e dove finisce”), piccola (tanto piccola da poter essere vista in tutta la sua interezza da tutti i suoi membri) e autosufficiente (capace cioè di provvedere a tutte o quasi le attività e necessità dei suoi membri). “Peculiare” significa: la divisione fra “noi” e “loro” è assoluta e totale, non esistono vie di mezzo, è perfettamente chiaro chi è “uno di noi” e chi no, non c'è alcun motivo di confusione. “Piccola” significa: la comunicazione tra i suoi membri è densa ed esaustiva e pone dunque i segnali sporadicamente provenienti dall'esterno in posizione di svantaggio per via della loro relativa saltuarietà, superficialità e meccanicità. “Autosufficienza” significa: l'isolamento dagli “altri” è totale, le possibilità di spezzarlo sono remote. Tutti e tre questi elementi si coalizzano per proteggere quanto più efficacemente possibile i membri della comunità da qualunque minaccia alle loro consuetudini. Inoltre, la coesione della comunità è dovuta alla omogeneità, alla identicità (sameness).

4.4. La crisi della comunità locale tradizionale e le comunità elettive Come descrive bene Bauman22, l'identicità entra in crisi nel momento stesso in cui le condizioni della sua esistenza iniziano a vacillare: quando la bilancia tra comunicazione “interna” ed “esterna”, un tempo fortemente inclinata a favore della prima, comincia a riequilibrarsi e dunque ad offuscare la differenza tra “noi” e “loro”. L'identicità svanisce allorché la comunicazione tra membri di una comunità e mondo esterno diventa più intensa e pregnante di quella esistente tra i membri dell'enclave. L'aprirsi di una breccia nelle mura fortificate della comunità apparve un epilogo inevitabile con l'avvento dei mezzi di trasporto meccanici; veicoli di informazioni alternative (o di persone la cui stessa estraneità costituiva un'informazione distinta e in conflitto con la conoscenza internamente disponibile) poterono ora in via di principio viaggiare con uguale o maggiore rapidità del sistema del passaparola inventato e adottato entro i confini della “naturale” mobilità umana. La distanza, un tempo la più formidabile delle difese comunitarie, perse gran parte della propria rilevanza. Il colpo di grazia alla “naturalezza” della comprensione comunitaria giunse, tuttavia, con l'avvento dei mass media, vale a dire con l'emancipazione del flusso di informazioni dal movimento dei corpi. Allorché le informazioni hanno la possibilità di viaggiare indipendentemente da chi le emana e a velocità ben superiore rispetto a quella dei più avanzati mezzi di trasporto (come accade nel tipo di società in cui viviamo oggi), il confine tra “interno” ed “esterno” non è più tracciabile, e tanto meno difendibile. 21 Ibidem pp.12-13 22 Idem

A partire da questo momento, secondo Bauman23, l'omogeneità va “estratta a forza” da un ingarbugliato intrigo di varietà usando gli strumenti della selezione, della separazione e dell'esclusione, qualsiasi forma di unità va creata, la concordanza “prodotta artificialmente” è l'unica forma di unità disponibile. La comprensione comune può essere solo una conquista ottenuta (semmai vi si riesca) al termine di un lungo e laborioso processo di discussione, persuasione, in feroce competizione con un'infinità di concorrenti, tutti alla ricerca di attenzione. E una volta raggiunto, l'accordo concluso sarà sempre segnato dalla memoria dei passati conflitti e dalle scelte operate nel loro corso. Per quanto solido possa apparire, un simile accordo non sarà mai, dunque, “naturale” come quello esistente nelle comunità di Tönnies e Redfield. Non sarà mai immune da ulteriori ripensamenti, discussioni e conflitti; tutt'al più potrà raggiungere lo status di un “contratto rinnovabile”: un accordo ad accordarsi da rinnovare periodicamente, ma il cui esito non è mai scontato. La comunità fatta di comprensione comune, dunque, quand'anche la si riuscisse a creare, resterà sempre un'entità fragile e vulnerabile, costantemente bisognosa di vigilanza, fortificazione e difesa. Questi cambiamenti derivano dalla Rivoluzione Industriale e dai grandi movimenti di inurbamento collegati. Se da un lato rappresentava l'emancipazione dei singoli individui dalla terra, dalle imposizioni della piccola comunità locale, dall'altro lato rappresentava l'inizio di una nuova forma di reclusione24. Le comunità, con le loro caratteristiche, non erano adatte ad una rapida industrializzazione: le sue regole troppo autonome, basate su tacite logiche e riluttanti alla manipolazione e al cambiamento, perché troppi erano i fili di interazione umana che ciascuna azione veniva a intrecciare. La questione non era tanto convincere lo svogliato contadino a lavorare (nessuno doveva insegnare ai futuri operai che la fabbrica rappresentava una reclusione come la terra prima), ma come preparali al lavoro in un ambiente repressivo totalmente nuovo e non familiare. Per farli entrare nei nuovi panni, gli operai dovettero innanzitutto essere trasformati in una "massa", spogliati del vecchio abito di consuetudini comunitarie. La guerra alla comunità venne combattuta sventolando l'idealistico proposito di liberare l'individuo dall'inerzia della massa, ma l'obiettivo reale, anche se mascherato, di quel conflitto era esattamente l'opposto di quello dichiarato: eliminare il principale potere della comunità – quello cioè di definire ruoli e modelli – in modo da poter condensare le singole unità, ormai spogliate della propria individualità, nell'informe massa operaia. L'etica del lavoro della prima era industriale fu un tentativo di ricostituire un regime di comando, 23 Ibidem p.14 24 Ibidem p.27 85


controllo e punizione la stessa destrezza lavorativa che nella fitta rete di rapporti comunitari contraddistingueva in modo del tutto naturale l'operato di artigiani e commercianti25. Secondo Max Weber26, l'atto costitutivo del capitalismo moderno va individuato nella separazione dell'attività lavorativa dall'abitazione domestica, e nella conseguente separazione dei produttori dai loro mezzi di sussistenza. Questa duplice innovazione dette vita a due fenomeni: la nascita del profitto e la contemporanea liberazione dei mezzi di sostentamento dell'uomo dalla rete di legami morali ed emotivi, familiari e di quartiere; ma in pari tempo li svuotò di tutti i significati che essi avevano in passato. Agli artigiani di ieri non fu più chiaro cosa significasse il termine "lavoro ben fatto", e "fare le cose a modo" perse qualsiasi valore o senso di dignità e onore. Se per i pochi privilegiati l'avvento dell'ordine moderno significò il dischiudersi di spazi infiniti per l'autoaffermazione individuale, per la grande massa significò semplicemente il passaggio da un ambiente piccolo e angusto a un altro esattamente uguale27. Due tendenze hanno accompagnato il capitalismo moderno in tutta la sua storia, seppure a fasi alterne. Una è stata già indicata: un costante tentativo di sostituire la "naturale comprensione" dell'antica comunità, il ritmo di vita del contadino, scandito dalla natura e quello dell'artigiano regolato dalla tradizione, con una routine creata artificialmente e imposta con la forza. La seconda fu un tentativo molto meno tenace (e avviato tardivamente) di resuscitare o creare ab nihilo un "sentimento comunitario", questa volta però, entro i confini della nuova struttura di potere. La prima tendenza raggiunse l'apice all'inizio del XX secolo con la catena di montaggio, lo "studio del movimento" e la "organizzazione scientifica del lavoro" di Frederick Taylor, tutte strategie miranti a separare l'efficienza produttiva dalle motivazioni e i sentimenti dei produttori. Asservendo i lavoratori all'impersonale ritmo della macchina, veniva ridotto al minimo il ruolo dell'iniziativa, della dedizione e della cooperazione, fino alla destrezza personale (espletata in modo più efficace dalla macchina). La seconda tendenza procedette parallelamente alla prima ed ebbe origine precoce nei "villaggi modello" di alcuni filantropi che associarono il successo industriale al "benessere" dei lavoratori28. Anziché basarsi esclusivamente sugli schiaccianti poteri coercitivi della macchina, essi puntarono sui valori morali dei lavoratori, sulla loro pietà religiosa, sulla stucchevolezza della loro vita familiare e sulla loro fiducia nel capo-padrone. villaggi modello sorti ai margini delle fabbriche esibivano abitazioni decenti, ma anche cappelle, scuole elementari, ospedali e comfort sociali di 25 26 27 28 86

Ibidem Ibidem Ibidem Ibidem

pp.27-28 p.29 p.31 p.35

base, e tutto su indicazione dei proprietari delle fabbriche, al pari del resto del complesso produttivo. La scommessa era ricreare una comunità incentrata sul luogo di lavoro e, per converso, fare dell'impiego in fabbrica l'occupazione di "tutta la vita". I filantropi, considerati dai loro contemporanei dei "socialisti utopisti" e per tale motivo da alcuni salutati come i pionieri delle riforme morali, da altri guardati con sospetto e accusati di sovversivismo, speravano di alleviare gli effetti spersonalizzanti e disumanizzanti dell'incedente età della macchina e preservare qualcosa del vecchio, paternalistico e solidale rapporto mastro-apprendista e spirito comunitario. Tali filantropi motivati da fini etici restarono, tuttavia, ai margini della corrente principale dello sviluppo capitalista29. La famosa "fabbrica fordista" tentò di sintetizzare entrambe queste tendenze sacrificando il meno possibile le potenzialità della "organizzazione scientifica" o dell'aggregazione di stile comunitario. Per circa mezzo secolo, e in particolare per tutti i "trent'anni gloriosi" di "compattezza sociale" che accompagnarono la ricostruzione postbellica, la fabbrica fordista funse da modello concreto perseguito con vario grado di successo da tutte le imprese capitaliste30. Negli ultimi tre decenni, seguiti alla fine del fordismo, liberalizzazione e deregolamentazione sono diventate le principali decisioni prese dai governi, con la conseguenza di aumentare l'incertezza delle singole persone e quindi il desiderio verso le comunità (ormai quasi dissolte). Il privilegio di “vivere in una comunità”, infatti, fornisce sicurezza, ma richiede un prezzo da pagare, un prezzo trascurabile o finanche impercettibile fin tanto che la comunità resta un sogno. La valuta con cui si paga tale prezzo è la libertà, variamente definita “autonomia”, “diritto all'autoaffermazione”, “diritto di essere se stessi”. Qualunque strada si scelga, da una parte si guadagna e dall'altra si perde. L'assenza di comunità significa assenza di sicurezza; la presenza di una comunità, quando si verifica, finisce ben presto con il significare perdita di libertà31. Secondo Bauman32, sotto tale incertezza, la possibilità di opporre resistenza ai mutamenti imposti e in particolare una resistenza tenace, organizzata e solidale, è minima o, addirittura, inesistente. Il genere di incertezza e paura del futuro nel cangiante ambiente sociale, non unisce i sofferenti ma al contrario li divide. L'insicurezza attanaglia tutti noi, immersi come siamo in un impalpabile e imprevedibile mondo fatto di liberalizzazione, flessibilità, competitività, ed endemica incertezza, ma ciascuno di noi consuma la propria ansia da solo, vivendola come un problema individuale, il risultato di fallimenti personali e una sfida alle doti e capacità 29 30 31 32

Ibidem Ibidem Ibidem Ibidem

p.36 p.37 p.6 pp.41-42


individuali. Siamo indotti a cercare soluzioni personali a contraddizioni sistemiche; cerchiamo la salvezza individuale da problemi comuni. Tale strategia ha ben poche speranze di sortire gli effetti desiderati, dal momento che non intacca le radici stesse dell'insicurezza; inoltre, è precisamente questo ripiegare sulle nostre risorse e capacità individuali che alimenta nel mondo quell'insicurezza che tentiamo di rifuggire. Il declino della comunità è, da questo punto di vista, un fenomeno che si autoalimenta33.

4.5. Comunità globali chiuse: élite cosmopolite Parallelamente alla crescita della sicurezza e al desiderio di comunità, Bauman riscontra la tendenza delle classi più agiate a formare una comunità globale chiusa: "la secessione dell'uomo affermato". L'élite mondiale, una volta ottenuta una indipendenza economica, tende a isolarsi in una propria "comunità", la cui caratteristica principale risiede nel separare l'élite dal resto della popolazione34. Il mondo in cui la nuova élite risiede oggi non è definito dal loro "recapito permanente" (nel vecchio senso fisico o topografico). Il loro mondo non ha "recapito permanente", se non l'indirizzo di e-mail e il numero del telefonino cellulare. La nuova élite non è definita da alcun luogo geografico, è completamente extraterritoriale. Solo l'extraterritorialità garantisce l'esistenza di un'area priva di comunità, ed è proprio questo tipo di area che la nuova "élite globale" desidera35. Il "cosmopolitismo" della nuova élite globale è nato per essere selettivo. È assolutamente inadeguato al ruolo di "cultura globale": tale modello non può essere diffuso, propagato, universalmente condiviso. In quanto tale, differisce dalle élite precedenti, le quali hanno sempre proposto culture e modelli di vita. Lo stile di vita "cosmopolita" dei nuovi secessionisti non è fatto per l'iniziazione di massa, e i "cosmopoliti" non propongono un nuovo e migliore stile di vita né una avanguardia. Ciò che il loro stile di vita celebra è l'irrilevanza della collocazione geografica, una condizione certamente fuori portata della gente comune, degli "indigeni" incatenati al suolo. Il messaggio del modo d'essere "cosmopolita" è semplice e chiaro: non importa dove siano, ciò che importa è che noi siamo lì. I viaggi dei nuovi cosmopoliti non sono viaggi alla scoperta di qualcosa, il loro tratto distintivo è l'uniformità: catene di villaggi vacanza, di ristoranti o alberghi, uguali in ogni angolo del mondo, perché altrimenti entrerebbero in contatto con la cultura locale. La élite si isola quindi in isole, un arcipelago di isole sparse per tutto il mondo, dove la 33 Ibidem p.V 34 Ibidem p.49 35 Ibidem p.53

popolazione resta omogenea, le regole di ammissione sono severe e applicate meticolosamente (seppur informalmente), gli standard comportamentali sono rigidi e precisi e richiedono un'incondizionata conformità. Come in tutte le "comunità chiuse", la probabilità di incontrarvi un vero estraneo e di doversi misurare con una reale sfida culturale è ridotta inevitabilmente al minimo. Per Bauman36, più di ogni altra cosa, la "bolla" in cui la nuova, globale, cosmopolita élite economica e intellettuale trascorre gran parte del proprio tempo è un'area priva di comunità. Si tratta di un luogo in cui l'aggregazione viene intesa come identicità degli individui e degli "estranei su richiesta", dove è più importante l'individuo della collettività. La "secessione dell'uomo affermato" significa per prima cosa e innanzitutto, fuga dalle comunità. Un esempio di queste "comunità chiuse" (gated communities37) (fig.29) è dato dalle comunità residenziali battezzate common-interest developments (CID)38. Molte di queste sono cinte da mura e reticolati, sorvegliate all'ingresso ed espressamente pensate per limitare gli accessi. Custodi – cioè, guardie armate – sorvegliano i cancelli d'entrata per garantire che solo residenti, ospiti, visitatori e fornitori autorizzati possano accedervi. Diversamente dalle comunità locali tradizionali, costituite da case e attività economiche di proprietà di privati e da risorse e bellezze naturali di proprietà pubblica, i CID sono spazi abitativi completamente mercificati. Spazi e proprietà pubblici non esistono e, diversamente da quanto accade nelle comunità tradizionali dove è consentita la libera circolazione di persone, beni e servizi, l'accesso al CID è circoscritto in modo rigido, costituendo una delle principali ragioni per cui la gente decide di abitarci. I CID vendono un modo di vivere, non una semplice casa. Molti di coloro che decidono di andare a vivere in un CID sono allettati dalle comodità e dai servizi offerti. Comunque, la loro esperienza di vita viene mercificata a spese dei diritti di proprietà. L'assunto fondante e gli accordi contrattuali che regolano la vita nei CID non fanno che limitare sottilmente i diritti di proprietà, orientando lo sguardo verso i vantaggi e i benefici associati a una sistemazione abitativa imperniata sull'accesso. Le comunità di prestigio39 rappresentano un'ulteriore categoria di CID: i membri più ricchi della società spesso decidono di abitare fra persone di pari mezzi economici, e tendono a gradire i controlli di sicurezza e le limitazioni all'accesso che caratterizzano la vita di queste comunità cintate.

36 37 38 39

Ibidem p.56 http://en.wikipedia.org/wiki/Gated_community Rifkin (2000) Ibidem 87


Fig. 29: Gated community (Fonte: http://en.wikipedia.org/wiki/Gated_community)

4.6. Comunità globali aperte: comunità virtuali Lo sviluppo delle tecnologie digitali ha rivoluzionato in pochi anni il nostro modo di lavorare, comunicare, interagire con l'ambiente circostante. Strumenti inizialmente concepiti per il trattamento automatico delle informazioni si sono imposti in tutti i settori dell'attività umana. Si è creato, così, uno spazio visuale nel quale ciascun elemento può essere in contatto con qualunque altro e con tutto l'insieme. Parallelamente, il sapere, nelle sue varie forme (sapere, saper fare, saper essere), si è imposto sempre di più come fonte di ricchezza e di successo. Una risorsa preziosa da valorizzare. La combinazione di questi due elementi – sviluppo tecnologico da un lato e importanza strategica del sapere dall'altro – è stata il vero motore che ha condotto, a partire da metà anni '80 del secolo scorso, alla nascita e allo sviluppo delle comunità virtuali, forme di aggregazione oggi particolarmente diffuse tanto da essere descritte da alcuni autori come il terreno prediletto di un nuovo spazio antropologico: lo spazio del sapere40. Comunemente, le comunità virtuali sono viste come luoghi di incontro di persone con gli stessi interessi e passioni e che si avvalgono dell'ausilio della Rete per comunicare in modo sufficientemente continuativo e intenso. In realtà, e comunità virtuali esistevano già un decennio prima dell'affermazione conclamata di Internet intorno alla metà degli anni '9041. Quando la Rete era ancora limitata alle università e a pochi altri settori, erano già attivi i BBS (Bullettin Board System), che da “magazzini” di software e informazioni si riconfigurarono ben presto in comunità. In quel periodo la Rete era ancora legata, nella sua dimensione comunitaria, a preesistenti realtà di tipo locale, ma il 40 Levy (1996) 41 Brancato (2002) 88

collegamento di queste griglie sempre più complesse e despazializzanti produce gli effetti che conosciamo: l'allontanamento significante tra spazio e comunicazione interpersonale, tra locale e globale, tra appartenenza e differenza. Nel mondo esistono ancora i BBS e il loro interesse sta proprio nell'aver fornito un punto di scoperta e diffusione sociale di un modello innovativo della comunicazione e dell'uso delle tecnologie. La pratica delle virtual communities, quindi, dalle chat ai forum, è tutt'altro che nuova. Ciò che appare inedito è la loro dimensione di massa: è questo il fenomeno sociologicamente rilevante, causato da Internet. Ciò che la Rete introduce non è tanto una tecnologia quanto un modello innovativo di aggregazione comunitaria, un modello molto fluido, in cui coesistono istanze organizzative tra loro diversissime – da un accordo relazionale di tipo gerarchico alla più spinta decentralizzazione del legame – e un'attitudine diffusa dei soggetti a gestire differenti sistemi di comunità. Howard Rheingold, uno dei fondatori della prima comunità elettronica , The Well42, e tra i primi ad affrontare il tema delle comunità virtuali, ne ha dato questa definizione: le comunità virtuali sono aggregazioni sociali che emergono dalla Rete quando un certo numero di persone porta avanti delle discussioni pubbliche sufficientemente a lungo, con un certo livello di emozioni umane, tanto da formare dei reticoli di relazioni sociali nel cyberspazio43. C'è però anche chi ama definire le comunità virtuali, più genericamente, come delle piazze dove si incontrano tante persone di diverso pensiero ed estrazione sociale per discutere, senza che si instaurino tra loro delle relazioni significative. Ciò che appare evidente comunque è che le comunità virtuali rappresentano un grande fenomeno sociale che vive solo grazie a Internet. 42 http://www.well.com/ 43 http://www.rheingold.com/vc/book/intro.html


Le comunità virtuali svolgono prevalentemente tre funzioni44: • le prime sono di carattere strumentale, ovvero indirizzate allo svolgimento di compiti specifici; • le seconde sono invece di carattere espressivo: consistono nella volontà di stare insieme, di sperimentare forme nuove di socialità grazie alla comunicazione mediata dal computer; • il terzo tipo di funzioni attiene alla sperimentazione dell'identità, manifestandosi nel desiderio di verificare fino a che punto si possono modificare i confini del proprio sé.

• •

capacità di discussione; esistenza di una morale.

Le comunità virtuali sono anche caratterizzate da alcuni fattori che le rendono differenti dalle comunità locali "tradizionali", non solo per il fatto che esistono grazie ad una tecnologia che permette la comunicazione tra membri "distribuiti" geograficamente. Spesso i termini di comunità virtuale e comunità di interessi sono utilizzati come sinonimi, ma si tratta di una forzatura, perché non tutte le comunità di interessi sono virtuali. L'accostamento tra i due termini, però, risulta ugualmente utile perché mette in evidenza un dato importante.

Fig. 30: The well (Fonte: http://www.thewell.com)

Le caratteristiche46 che le comunità virtuali condividono con le comunità fisiche sono: • condivisione di interessi; • condivisione di valori; • capacità di attenzione e di relazione interpersonale;

La comunione di interessi circa un determinato argomento svolge un ruolo fondamentale nel definire il livello di aggregazione, coinvolgimento e partecipazione degli individui alla vita della comunità. Le comunità virtuali sono quindi comunità elettive, dove i membri non sono costretti a parteciparvi ma sono liberi di farlo. Gli utenti delle comunità virtuali sono caratterizzati sempre da un duplice ruolo: da un lato, essi costituiscono il pubblico al quale sono destinati i servizi, dall'altro, sono anche i produttori attivi dei contenuti47. Inoltre, la questione dell'identità48 rappresenta una delle problematiche più discusse legate alle comunità virtuali: nel mondo virtuale gli individui possono alterare le proprie generalità o assumere più identità contemporaneamente. Questa caratteristica può però, in molti casi, rivelarsi vantaggiosa per la vita della comunità: la

44 Roversi (2004) pp.122-123 45 Ibidem p.122 46 Ibidem p.124

47 Idem 48 Idem

Una comunità virtuale deve rispondere a determinati criteri45: • essere il più possibile economica per gli utenti; • essere economicamente florida per i finanziatori e gestori; • essere aperta e illimitata; • essere in grado di autogovernarsi; • essere capace di delineare da sé la propria forma.

89


razza, il sesso, l'età, tutte le informazioni fisiche che noi trasmettiamo agli altri nel corso di un'interazione comunicativa sono assenti nello spazio virtuale. Non è detto che ciò sia un limite. Anzi, può facilitare la nascita di relazioni spontanee e rendere ogni forma di discriminazione più difficile, con il risultato che i membri della comunità si giudicano l'un l'altro soprattutto per i contenuti di cui si fanno portatori. Inoltre, la possibilità di assumere un'identità diversa può avere un effetto disinibente sull'individuo, stimolando la sua volontà di mettersi in gioco. Tutte queste caratteristiche, sommate alla recente nascita, rendono le comunità virtuali un argomento di studio molto dibattuto, dove si alternano visioni contrastanti. Nelle sue analisi basate sull'esperienza di The Well Rheingold49 considera le comunità virtuali come veri e propri mondi sociali che si integrano nel mondo della vita quotidiana reale di molte persone: intrecci comunicativi che sono diventati luoghi di vera socialità collettiva. Ma per Rheingold le comunità virtuali sono anche qualcosa di più: a suo giudizio infatti le comunità virtuali, supplendo all'assenza di socialità e di relazioni comunitarie della contemporaneità, prefigurano un nuovo modello di sviluppo sociale. Rheingold è senza dubbio un entusiasta della Rete, che considera come uno strumento indispensabile per l'affermazione della vera democrazia, generantesi in modo bottom-up. Per Rheingold la comunicazione mediata dal computer diviene uno strumento di vera democrazia centralizzata: in Rete tutti sono uguali in quanto non sono più sottoposti ai vincoli di varia natura che condizionano la comunicazione e la discussione nella vita pubblica. Mosso dal suo profondo entusiasmo, Rheingold non si ferma qui. A suo giudizio, la tradizione verso le comunità virtuali può essere paragonata a quella avvenuta con il passaggio dalle comunità rurali di villaggio alle moderne società. Ipotizza quindi l'apertura, all'interno della Rete, di nuovi spazi telematici e la transizione verso un nuovo modello di relazioni interumane. Una nuova forma di società, o meglio di comunità estesa all'intera società: la comunità virtuale globale. Rheingold però non mette in guardia rispetto ai problemi, ai pericoli e allo smarrimento che può generare una nuova forma di cittadinanza virtuale50. Questa distinzione tra comunità e società è stata critica da altri studiosi contemporanei come Jean-Luc Nancy51, per il quale non esiste una comunità perduta da ricostruire. La società, e cioè l'associazione delle forze, dei bisogni e dei segni che conosciamo non sostituisce nessuna comunità perduta. Ha solo preso il posto di un'aggregazione di individui di cui non esisteva il nome, un'aggregazione umana di tipo partecipativo. Per Nancy le comunità (virtuali o reali che siano) sono caratterizzate da finitudine, transitorietà, 49 http://www.rheingold.com/vc/book/index.html 50 Roversi (2004) 51 Idem 90

precarietà, mancanza di uno statuto definito. Grazie a Nancy il dibattito sul concetto di comunità virtuale, e sulle differenze tra comunità in senso tradizionale e comunità virtuali, si è ampliato sino ad inglobare al suo interno proprio questo problema: quello della permanenza e della stabilità di una comunità che nasce e si sviluppa in un contesto radicalmente nuovo rispetto a quello delle comunità che storicamente conosciamo. Tomás Maldonado52 assume una posizione critica dell'entusiasmo per la tecnologia: non le si possono attribuire tutte le trasformazioni in atto nella nostra società, e quindi attribuire a Internet un ruolo salvifico. Per Maldonado le comunità virtuali sono simulacri di comunità reali nel migliore dei casi e nel peggiore comunità di spettri caratterizzate da forti aspetti regressivi. A suo giudizio, la grande maggioranza delle comunità virtuali è costituita da comunità che nascono in virtù di un processo simpatetico, cioè in base all'aggregazione di persone simili che hanno interessi condivisi. L'aggregarsi di queste persone in un dialogo comunicativo online è dovuto proprio a questo fatto: alla base, esse svolgono professioni simili, hanno problemi simili, i loro atteggiamenti sociali e politici sono simili. Tuttavia, proprio per il loro alto grado di omogeneità, queste comunità virtuali sono comunità con una scarsa dinamica interna, sono precarie e fragili. Non reggono, infatti, il conflitto interno tra membri, mentre nelle comunità reali posizioni spesso diverse riescono a stare dentro un unico “contenitore”. Molte delle comunità che si formano in Rete non hanno struttura e spesso non acquisiscono nemmeno un'attrezzata percezione di se stesse. Sono organismi fluidi, che esistono in quanto sono, frutto di un'aggregazione spontanea motivata da esigenze di carattere passionale o patico53. Esterne, in ciò, all'orizzonte tipicamente moderno del progetto. Nella rete delle reti, le comunità si configurano come una sorta di Internet originaria, come luoghi fisici e insieme mentali sviluppati dai medesimi utenti, figure che cercano la relazione con l'altro al di là della padronanza tecnica. La maggioranza delle comunità online sono infatti rivolte e gestite da un'utenza non specialistica, attraverso tecnologie user friendly. Le comunità virtuali, se pur con le loro limitazioni, possono rappresentare una opportunità di creazione di legami sociali, anche se non robusti come nelle comunità locali. Il problema principale, però, alla loro diffusione, è che non tutti hanno accesso alle tecnologie necessarie e possono godere dei benefici che esse mettono a disposizione. Vi sono anzi intere nazioni e consistenti fasce della popolazione mondiale che ancora ne sono escluse. È una disparità di accesso che si affianca ai numerosi divides che interessano molte aree del 52 Idem 53 Brancato(2002)


nostro pianeta: povertà, sfruttamento indiscriminato delle risorse locali, mancanza di energia elettrica, problemi politici, bassi livelli di istruzione, ecc. Il digital divide (o divario digitale, cioè informatico) si aggiunge a questa lista di ritardi già presenti sia nei paesi più sviluppati che in quelli in via di sviluppo e c'è il rischio, visto il costante progresso delle nuove tecnologie informatiche, di vedere aumentare sempre di più queste differenze.

4.7. Comunità Open Peer-to-Peer come comunità multilocali Oggi, quindi, a parte le comunità locali (quelle cioè, che possono essere definite tali a pieno merito, nel senso che mantengono ancora intatte molte delle caratteristiche tipiche delle comunità preindustriali), convivono comunità globali di due tipi, aperte e chiuse. Pur se non come nella società preindustriale, le comunità locali rappresentano sempre la condizione più diffusa di aggregazione sociale; sono tuttavia comunità che hanno in gran parte perso il "senso di comunità" tipico delle comunità preindustriali. Dall'altro lato, le comunità globali sono tali in quanto riescono a comprendere persone sparse per il pianeta, facilitando le loro comunicazioni e spostamenti grazie alla tecnologia, senza la quale non esisterebbero. Le comunità chiuse (selettive), rappresentano una conseguenza della globalizzazione e della facilità di spostamento che permette, con la perdita dalla dimensione locale tradizionale e la conquista di una omogenea cultura/comunità globale, in cui si è prima membri di una comunità globale (l'élite) che della comunità locale in cui si vive (CID). È quindi una comunità globale selettiva (perché rende difficile l'accesso), distribuita in comunità locali chiuse: anche se non in CID, sempre con una distanza dalla comunità locale tradizionale, da cui non si sente vincolata da un sentimento comunitario. Le comunità aperte (elettive), rappresentano una conseguenza dell'aumento di connettività e della facilità di comunicazione che permette, con la perdita della dimensione locale "reale" (spesso chiamate comunità virtuali), ma dove le relazioni, seppur fragili e cangianti, sono più simili alle comunità tradizionali. Sono quindi delle comunità globali elettive, perché chi vi fa parte lo fa in libertà, di accesso ma anche di uscita, rendendo queste comunità non stabili come le comunità locali. Le comunità Open Peer-to-Peer, almeno nella situazione attuale, rappresentano invece un altro tipo di comunità, in parte locale ed in parte globale: la comunità multilocale54. Le comunità multilocali sono l'espressione di ciò che Ezio Manzini chiama "localismo cosmopolita"55, un atteggiamento che combina la globalizzazione e la connettività, ma, al contrario delle comunità 54 Manzini (2004) 55 Idem

globali, si lega alla propria dimensione locale in maniera forte, simile a quella delle comunità tradizionali. Bisogna notare però che queste comunità non rappresentano una forma di nostalgia per il passato che non torna, né una forma di autarchia. È un locale molto lontano da ciò che in passato si è inteso con questa espressione (la valle, il villaggio agricolo, la cittadina di provincia isolati e relativamente chiusi nella propria cultura ed economia), che combina tra loro le specificità dei luoghi, e delle comunità che ad essi si riferiscono, con fenomeni nuovi che la globalizzazione e l'interconnessione culturale, economica e sociale generano e sostengono a scala planetaria. Contrariamente a quanto nel recente passato si era pensato, quindi, i fenomeni congiunti della globalizzazione e della connettività hanno fatto riemergere la dimensione locale, ma legandola alla dimensione globale: "il localismo cosmopolita è il risultato di una particolare condizione di equilibrio tra radicamento (il radicamento in un luogo e nella comunità che a quel luogo si riferisce) e apertura (l'apertura ai flussi globali di idee, di informazioni, di persone, di cose e di denaro)"56. È questo un equilibrio assai delicato in quanto, in ogni momento, uno dei due poli può sopraffare l'altro portando ad un'antistorica chiusura o, all'opposto, ad una apertura distruttiva del tessuto sociale locale e delle sue peculiarità. Il localismo cosmopolita genera quindi un nuovo senso del luogo e della comunità: “un luogo ed una comunità locale che non sono più delle entità (quasi) isolate, ma dei nodi di una rete, dei punti di connessione tra le reti corte (che generano e rigenerano il tessuto sociale e produttivo locale) e le reti lunghe (che connettono quel luogo e quella comunità con il resto del mondo)”57. Le comunità multilocali sono rese possibili dall'emergere dei sistemi distribuiti, che permettono loro una certa autonomia pur lontane dai grandi centri. Anche se attualmente i sistemi distribuiti introdotti con maggiore diffusione riguardano solamente reti di telecomunicazioni, la loro implementazione rappresenta una tendenza di più largo corso. Con il progredire di questa tendenza, quindi, le comunità multilocali potranno avere una maggiore possibilità di successo e diffusione nelle loro attività. Si assiste quindi all'emergenza di un nuovo tipo di comunità, che cerca di affrontare gli aspetti negativi delle comunità locali attuali e delle comunità globali, mutuandone gli aspetti positivi. Di più: la costituzione di comunità multilocali non richiede grandi esodi come successe durante la Rivoluzione Industriale, ma si basa su una riorganizzazione dell'esistente attraverso interventi minimi. Si assiste quindi all'emergere di comunità dotate di un forte senso di identità, fortemente legate alla loro dimensione locale (con attenzione alle 56 Idem 57 Idem 91


specificità locali e alle relazioni interpersonali), ma aperte alla connessione con altre comunità/luoghi58. Le comunità Open Peer-to-Peer rappresentano un ottimo esempio di localismo cosmopolita. Sono cosmopolite, nel senso che sono aperte al coinvolgimento del numero più alto possibile di partecipanti, ampliando le proprie dimensioni. Le comunità Open Peer-to-Peer, infatti, spesso basano la sostenibilità delle proprie attività attraverso la loro suddivisione fra i partecipanti, e un loro numero elevato rende più facile lo svolgimento delle attività59. L'importanza delle comunità Open Peer-to-Peer è proprio quella di aver sviluppato forme organizzative potenzialmente scalabili, adatte quindi sia per pochi partecipanti che per numeri elevati. La maggior parte delle comunità Open Peer-to-Peer infatti si organizza in una maniera molto simile a quella delle comunità virtuali, permettendo la partecipazione a persone distanti geograficamente. Sono locali, nel senso che le loro attività si svolgono nella loro dimensione locale oppure si svolgono su una dimensione globale ma interessano direttamente la loro dimensione locale. Le comunità Open Peer-to-Peer si organizzano infatti su differenti dimensioni, in una scala che parte dalla singola comunità locale (fig.32), passa poi per le reti di comunità locali (fig.33) e giunge infine alla comunità globale (fig.31). La scelta della dimensione organizzativa dipende prevalentemente dal tipo di problema (quanto esso interessa la dimensione locale) e quindi dall'attività svolta per affrontarlo, e dagli artefatti utilizzati per gestire la comunità. Le attività, infatti, riguardano principalmente informazioni o alcuni beni materiali che, per le loro specifiche caratteristiche, come le informazioni possono essere distribuiti facilmente e velocemente. Nel caso delle informazioni, queste vengono elaborate e scambiate sia a livello locale che a livello globale, ma solitamente l'obiettivo di questa elaborazione e scambio risiede in un loro utilizzo nella propria dimensione locale di ogni singolo partecipante. Nel caso dei beni fisici, la dimensione locale è ancora più importante, e le attività, anche se non raggiungono una dimensione globale intesa come planetaria, raggiungono una dimensione localizzata ma di ampie dimensioni. Nel caso delle comunità locali e delle reti di comunità locali di dimensioni più ridotte, l'attività si concentra geograficamente e le interazioni avvengono principalmente a livello locale (in misura inferiore anche a livello globale). Le comunità sono semi-autonome nell'attività: ognuna svolge la stessa attività autonomamente, a parte occasionali scambi in situazioni critiche. La crescita della comunità avviene con una direzione dal locale verso il globale. Queste reti sono adatte soprattutto se si utilizzano artefatti low tech e se la dimensione locale è molto 58 Idem 59 Benkler (2002) 92

importante. Se si utilizzano artefatti low tech, dato che questi non permettono una interazione rapida tra un numero elevato di partecipanti, l'attività dovrà essere svolta in maniera autonoma da molte comunità locali. Se poi la dimensione locale è molto importante per i partecipanti, l'attività dovrà considerarla con maggiore profondità e quindi orientarsi più sulla dimensione locale. In questa forma di organizzazione si formano reti collaborative fra partecipanti e partecipanti e fra comunità e comunità di partecipanti. Se la dimensione locale è meno importante e vengono utilizzate soprattutto ICT per interagire, la comunità prenderà la forma di una rete collaborativa fra partecipanti, distribuiti geograficamente ma collaboranti fra loro. In questo modo sono possibili reti di comunità locali dalle dimensioni maggiori o comunità globali. Ad ogni modo, anche in questa forma di organizzazione i partecipanti tendono ad incontrarsi a livello locale per interagire meglio. In questo caso si ha una comunità globale, con una sola attività suddivisa fra tutti i partecipanti, che poi usano i risultati a livello individuale (e ciò equivale a dire “locale”)60. Sia che siano comunità locali o comunità globali, le comunità tendono ad essere comunità virtuali e reali, globali e locali, allo stesso tempo. Quando l'attività viene svolta prevalentemente a livello globale (attraverso, cioè, la collaborazione contemporanea di tutti i partecipanti), i partecipanti tendono a cercarsi e ad incontrarsi in base alla prossimità geografica, in base cioè alla loro dimensione locale61. Anche quando sembrano semplici comunità virtuali (la partecipazione dei membri è libera e spesso è possibile uscire con facilità), la loro tendenza è quella di legarsi alla propria dimensione locale. Quando l'attività viene svolta a livello locale, viene suddivisa tra le comunità locali che agiscono parallelamente ed, entro una certa misura, autonomamente. Le comunità locali sfruttano i collegamenti interlocali (quindi globali) al fine di scambiarsi informazioni, beni, persone (intese cioè come portatrici di conoscenze e di capacità), per migliorare le proprie singole attività. La formazione delle comunità Open Peer-to-Peer segue quindi due flussi: dal globale al locale, dal locale al globale. Nel primo caso, le comunità nascono a livello globale (come semplici comunità virtuali) e si sviluppano fino a considerare maggiormente la propria dimensione locale. Sono questi i casi più recenti62, che si ispirano direttamente alla filosofia Open Source e Peer-toPeer. Nel secondo caso, Le comunità locali ampliano le proprie dimensioni accettando più membri o formando reti con altre comunità, fino a raggiungere una dimensione globale (intesa non per forza come planetaria, ma di dimensioni 60 Ad esempio, come nei casi Wikipedia, software Open Source, Amazon, eBay, The Sims 61 Ad esempio, come nei casi BBC Action Network, BBC Neighbourhood Gardener, Meetup, Neubauten.org 62 Ad esempio come nei casi Neubauten.org, Solar Roof, Thinkcycle


maggiori). Sono questi i casi Open Peer-to-Peer ante litteram, costituitisi specificamente per la propria dimensione locale o per l'assenza di infrastrutture di comunicazioni globali63. Per le comunità Open Peer-to-Peer, tutti i partecipanti hanno pari valore, sono quindi peer ('pari'): in questo modo le comunità Open Peer-toPeer si configurano come aggregazioni sociali orizzontali, non verticali come nelle gerarchie (tipiche delle organizzazioni aziendali). Per le comunità Open Peer-to-Peer i partecipanti sono peer come nelle comunità virtuali, ma non come nelle comunità selettive: in queste i loro membri sono sì peer, ma la comunità non è aperta e chi si trova all'esterno non è considerato peer. Nelle comunità Open Peer-to-Peer, invece, la partecipazione è aperta a tutti (Open), i quali sono considerati di pari livello (Peer-to-Peer). Bisogna spendere anche alcune parole riguardo ad un'altra caratteristica tipica, che le differenzia dalla letteratura tradizionale delle comunità di pratica. Le comunità di pratica, infatti, potrebbero essere considerate come comunità di pratica, in quanto si formano attraverso la condivisione di una pratica (attività) comune. Tuttavia, le comunità di pratica necessitano di legami sociali preesistenti per formarsi, mentre nelle comunità Open Peer-to-Peer non necessariamente questi sono presentii64.

Le comunità Open Peer-to-Peer possono partire come comunità virtuali globali, ed in questo caso la presenza di relazioni sociali preesistenti non è necessaria. Anzi, così facendo permettono la formazione di nuovi legami sociali. Possono partire dalle comunità locali, e sebbene in questo caso le relazioni preesistenti siano importanti, il successo di queste comunità è dovuto all'ampliamento delle loro dimensioni, cosa che avviene non necessariamente attraverso i legami sociali preesistenti. In definitiva, le comunità Open Peerto-Peer favoriscono la nascita e il miglioramento dei legami sociali, attraverso la costruzione di reti sociali di ampie dimensioni. Le comunità Open Peer-to-Peer, legando la dimensione locale con quella locale, sono in grado di collegare reti brevi con reti lunghe, guadagnando dai lati positivi di entrambe. Sia che collaborino a livello globale, elaborando informazioni che poi utilizzano a livello locale, sia che collaborino a livello locale, portando a risultati globali, le comunità Open Peer-to-Peer riescono a intessere i legami forti (prevalentemente locali) con i legami deboli (prevalentemente globali). La compresenza di legami deboli e legami forti comporta numerosi vantaggi, che possono essere spiegati comprendendo altri fattori sociologici fino a qui non analizzati, quali il capitale sociale, la fiducia e le reti sociali. E sono proprio questi due

Fig. 31: Comunità Open Peer-to-Peer organizzate come comunità virtuali globali 63 Ad esempio, come nei casi dabbawalla, Amul, Grameen Bank e Self-Help Groups 64 Inoltre, la maggior parte della letteratura si è soffermata sulla formazione di comunità di pratica all'interno di organizzazioni aziendali, e sebbene questo non sia un prerequisito, la loro immagine ne è ormai fortemente legata

fattori che rendono interessanti le comunità Open Peer-to-Peer, per eventuali sviluppi futuri a cui possono dare luogo.

93


Fig. 32: ComunitĂ Open-Peer-to-Peer organizzate come comunitĂ locali

94


Fig. 33: ComunitĂ Open Peer-to-Peer organizzate come reti di comunitĂ locali

95


4.8. Comunità, capitale sociale, sviluppo locale 4.8.1. Comunità e capitale sociale Una caratteristica importante delle comunità in generale (e quindi anche delle comunità Open Peer-to-Peer), è data dalle relazioni caratteristiche che vi si instaurano e come queste portino alla formazione del capitale sociale. Per analizzare e descrivere il capitale sociale (e non solo quello), la sociologia utilizza il concetto di rete sociale, ossia dell'insieme delle relazioni intercorrenti all'interno di un determinato tessuto sociale. Come accennato prima, le comunità possono essere viste come reti di interazioni, e quindi anche come reti di relazioni. L'inquadramento più originale e influente del concetto di capitale sociale è stato senza dubbio quello fornito da Coleman65, il quale suggerisce di considerare le dotazioni di cui dispone ogni individuo come forme di capitale distinguibili in capitale fisico, capitale umano e capitale sociale. Il capitale fisico è costituito da beni strumentali tangibili (materiali e monetari) e il capitale umano dalle capacità e abilità della persona. Il capitale sociale è invece costituito da relazioni sociale che hanno una certa persistenza nel tempo e che gli individui in parte possiedono naturalmente (ad esempio, le relazioni parentali o di ceto), in parte costruiscono attivamente nel corso della loro vita (ad esempio, le relazioni di amicizia o conoscenze maturate nelle cerchie sociali in cui l'individuo è transitato). Il capitale sociale non è riducibile all'insieme delle proprietà individuali possedute da un determinato agente: non è allocato né in beni strumentali, né nell'individuo, ma inerisce alla struttura delle relazioni tra le persone (due o più). Queste relazioni possono essere concepite come forme di capitale perché, similmente agli altri tipi di capitale, sono produttive di valori materiali e simbolici: la loro particolare storia e la loro continuità forniscono, infatti, un contributo specifico al perseguimento dei fini individuali. Esse si presentano, al contempo, come vincoli e come risorse per l'attore.

le reti sociali di tipo orizzontale che, mettendo in contatto tra loro individui dello stesso status e potere, tendono a favorire la fiducia e la cooperazione. Le reti di tipo verticale, che legano gli individui in relazioni asimmetriche di gerarchia e dipendenza, non hanno invece questa virtù. L'estensione della fiducia dai contesti di piccola scala a quelli di grande scala richiede la diffusione di norme di reciprocità generalizzata e la formazione di intrecci sempre più complessi di reti sociali di tipo orizzontale; richiede, dunque, un'espansione della solidarietà oltre i confini della parentela67. Per Fukuyama68 il capitale sociale è la capacità delle persone di lavorare insieme per scopi comuni in gruppi e organizzazioni. Tale abilità deriva dalla presenza, in una data società, della fiducia, vista come l'aspettativa, che nasce dall'interno di una comunità, di un comportamento prevedibile, corretto e cooperativo, basato su norme continuamente condivise, da parte dei suoi membri69. La cooperazione estesa, necessaria al passaggio dalla piccola alla grande scala, richiede il superamento dei confini imposti dalla solidarietà parentale. Capitale sociale e fiducia sono trasmessi tramite meccanismi culturali di lunga durata basati su sistemi etici e morali, su credenze religiose e costumi sociali tramandati storicamente.

In seguito il concetto è stato ripreso da molti autori, tra cui Putnam e Fukuyama, i quali enfatizzano la dimensione cooperativa insita nel concetto di capitale sociale. Putnam rivela che quanto più è elevato lo stock di capitale sociale disponibile in un certo contesto, tanto più diventa probabile la cooperazione sociale spontanea. Il capitale sociale viene definito come quell'insieme di caratteristiche dell'organizzazione sociale, quali la fiducia, le norme di reciprocità e le reti di impegno civico che possono aumentare l'efficienza della società facilitando il coordinamento delle azioni individuali66. Sempre secondo Putnam, sono

È possibile, naturalmente, immaginare situazioni limite in cui i rapporti cooperativi stabiliti possono essere costruiti anche in assenza di fiducia. Ciò presuppone certezza sugli stati futuri del mondo e sugli stati futuri del sé; assenza di incertezza, cioè, nella comunicazione, nella valutazione delle poste in gioco e delle possibili alternative, nell'interpretazione dei sistemi normativi, e totale credibilità negli eventuali sistemi di sanzioni e ricompense disponibili. In questi casi in cui c'è completa prevedibilità, e le possibilità di defezione e di comportamenti opportunistici sono escluse, il problema della fiducia non si pone. Nella realtà, specie quando sono in gioco processi cooperativi di lungo periodo, l'allontanamento da queste improbabili situazioni limite rappresenta la norma, e la fiducia costituisce un espediente necessario per far fronte sia alla nostra limitata capacità previsionale, sia alla libertà degli altri. E bisogna ricordare il forte senso di insicurezza che deriva dalla attuale tendenza all'individualizzazione. La fiducia diventa, perciò, un bene necessario per ovviare all'inevitabile instabilità e subottimalità di eventuali accordi cooperativi sorti in assenza di fiducia, e per costruire interazioni cooperative altrimenti impossibili. Quindi, reti orizzontali che sappiano andare oltre i normali legami parentali, possono, attraverso la fiducia reciproca, favorire l'emergenza di pratiche cooperative. Le comunità Open Peer-to-Peer, che sono delle reti orizzontali, devono il proprio funzionamento grazie alla fiducia reciproca che si instaura tra i partecipanti.

65 Coleman J.S., (1990), Foundations of social theory, Cambridge University Press, Cambridge 66 Putnam R., (1993) La tradizione civica nelle regioni italiane, Mondadori, Milano

67 Idem 68 Fukuyama F., (1995) Trust : the social virtues and the creation of prosperity, Free Press, New York 69 Idem

96


In definitiva, il capitale sociale consta di relazioni fiduciarie (forti e deboli, variamente estese e interconnesse) atte a favorire, tra i partecipanti, la capacità di riconoscersi e intendersi, di scambiarsi informazioni, di aiutarsi reciprocamente e di cooperare a fini comuni. Si tratta, dunque, di relazioni di reciprocità informali o formali regolate da norme che definiscono, in modo più o meno flessibile, la forma, i contenuti e i confini degli scambi, e che sono rese efficaci da sanzioni di tipo interno o esterno all'individuo. Tali relazioni ampliano la capacità di azione dell'attore individuale o collettivo e, se sufficientemente estese, anche la capacità di azione del sistema sociale. Ci si trova di fronte, quindi, a un capitale che è sociale perché, a differenza del capitale privato, ha la natura del bene pubblico: le persone che sostengono attivamente e rafforzano queste strutture di reciprocità producono infatti benefici non solo per sé, ma anche per tutti gli individui che fanno parte di tali strutture. Il capitale sociale è quindi un bene collettivo.

istituzionali e collettive (fiducia sistemica o istituzionale), oppure da attori individuali (fiducia personale o interpersonale)"70.

Nelle comunità Open Peer-to-Peer, la collaborazione nell'attività principale porta alla costruzione di beni collettivi in maniera cosciente: vengono cioè inseguiti degli obiettivi condivisi. Ma oltre a questi obiettivi condivisi (che possono essere visti come dei beni collettivi e quindi condivisi), attraverso l'attività si giunge anche ad un altro bene collettivo: il capitale sociale.

La fiducia interpersonale viene definita come l'aspettativa che l'altro attore non manipolerà la comunicazione o, più specificamente, che fornirà una rappresentazione autentica, non parziale né mendace, del proprio comportamento di ruolo e della propria identità. La fiducia interpersonale può essere vista anche come un'aspettativa di regolarità e continuità nel comportamento di ruolo e nell'identità degli attori73, o dalla reciprocità di interessi e fiducia, e di fiducia delle proprie capacità74. La fiducia in se stessi può abbracciare le aspettative che riguardano la capacità di sapersi presentare agli altri in maniera credibile, di modo che venga riconosciuta senza fraintendimenti la propria identità, o quantomeno l'identità che si vuole rendere socialmente visibile; ma può anche riguardare le aspettative concernenti la propria capacità di evitare l'autoinganno e comportamenti lesivi del proprio interesse, la stabilità o il mutamento del proprio comportamento di ruolo o della propria identità, il possesso di certe qualità, la validità delle proprie aspettative in generale e di quelle fiduciarie in particolare.

È quindi un risultato secondario delle attività delle comunità Open Peer-to-Peer, che si formano per la risoluzione di problemi condivisi attraverso la creazione di una risoluzione condivisa. Ma rappresenta una caratteristica importante: non solo le comunità Open Peer-to-Peer permettono la risoluzione di problemi contingenti, ma creano le condizioni (il capitale sociale) affinché i propri membri possano risolvere altri problemi futuri. Questo capitale, che è sociale perché ha la natura del bene pubblico, non esiste quindi se non condiviso. Esiste solo all'interno della comunità Open Peer-to-Peer, condiviso tra i suoi membri, così come gli obiettivi, l'attività, i risultati, i valori, ecc. Una ulteriore motivazione alla idea che le comunità Open Peer-to-Peer si basino sulla condivisione.

4.8.2. Comunità e fiducia Al concetto di fiducia sono stati attribuiti una notevole pluralità di significati. Facendo una sintesi di tutte le proposte avanzate, Mutti colloca la fiducia "nel contesto di aspettative aventi una valenza positiva per l'attore e formulate in condizioni di incertezza. L'incertezza riguarda non solo le situazioni nelle quali c'è carenza di informazioni, ma anche situazioni in c'è una tale eccedenza di informazioni da richiedere un difficile e precario processo interpretativo di riduzione della complessità. Il destinatario delle aspettative fiduciarie può essere costituito dall'organizzazione naturale e sociale nel suo insieme o nelle sue singole espressioni

I contenuti della fiducia sistemica o istituzionale vengono generalmente definiti come aspettative di stabilità di un dato ordine naturale e sociale, di riconferma, dunque, del funzionamento delle sue regole71. Tuttavia, definire la fiducia sistemica esclusivamente in termini di aspettative di regolarità ha, però, l'ovvio inconveniente di escludere dalla relazione fiduciaria le aspettative di mutamento dell'organizzazione sociale e delle sue regole di base. Inoltre, l'enfasi posta sul mantenimento di routine della fiducia trascura di analizzare la variabilità e la precarietà della fiducia sistemica e istituzionale nei diversi contesti storicosociali. Infine, porre quasi esclusivamente l'accento sull'adesione incondizionata dell'attore all'ordine sociale porta facilmente a negare rilevanza alla possibilità che venga percepito come problematico il rapporto comunicativo tra sistema e attore72.

Mutti quindi definisce la fiducia in termini generali come "un'aspettativa di esperienze con valenza positiva per l'attore, maturata sotto condizioni di incertezza, ma in presenza di un carico cognitivo e/o emotivo tale da permettere di superare la soglia della mera speranza"75. Si tratta di una definizione molto generale in grado di includere la fiducia sistemica e interpersonale nelle varie formulazioni proposte, comprese le aspettative di mutamento e l'autoreferenza. In essa si ribadisce che ci troviamo in presenza di aspettative riguardanti eventi ed esperienze con 70 71 72 73 74 75

Mutti (1998) p.71 Ibidem p.38 Idem Idem Idem Ibidem p.41 97


significato "positivo" per l'attore che emette l'atto fiduciario, senza, con questo, che si debba ricorrere a un'arbitraria specificazione della natura umana e di suo bisogni. Si sottolinea, inoltre, che l'aspettativa fiduciaria non matura in condizioni di totale ignoranza e che, quando ciò avviene, deve esserci una compensazione in termini di componenti emotive. Infine, viene effettuata una distinzione tra semplice speranza e fiducia vera e propria. Nel caso della speranza, infatti, ci troviamo di fronte a un'aspettativa priva di ancoramenti cognitivi e/o emotivi, o con una loro presenza così ridotta da impedire il passaggio a un'aspettativa più intensa e rassicurante come la fiducia76. La fiducia si colloca, dal punto di vista cognitivo, in una zona intermedia tra completa conoscenza e completa ignoranza. L'aspettativa fiduciaria interviene sull'incertezza sostituendo le informazioni mancanti, o riducendo la complessità da eccesso di informazioni, con una forma di "certezza interna" che ha la valenza di rassicurazione positiva rispetto ad eventi ed esperienze contingenti. L'incertezza viene resa più tollerabile con quest'atto di sostituzione e di riduzione della complessità che orienta le aspettative dell'attore in direzione di previsioni gratificanti. L'aspettativa fiduciaria sostituisce, dunque, l'incertezza con un livello di "certezza" e rassicurazione interna che varia secondo il grado di fiducia concessa. Essa rappresenta, comunque, un investimento cognitivo più elevato della semplice speranza77. Superata la soglia della semplice speranza, la fiducia può manifestarsi con gradi di intensità crescente fino al limite della fiducia cieca, incondizionata, o dell'intenso atto di fede. È tuttavia possibile effettuare una distinzione netta tra confidare e avere fiducia78. Il confidare è proprio delle situazioni in cui non esiste possibilità di uscita e in cui si sa che il proprio comportamento non inciderà in maniera significativa sugli esiti del processo considerato, di modo che, in caso di delusione, non avremo a pentirci delle nostre azioni. Ciò si verifica nelle situazioni fortemente costrittive in cui l'attore non ha reali spazi di scelta ed effettive possibilità di incidere sugli eventi. L'ambito della fiducia riguarda invece le situazioni in cui c'è possibilità di uscita dalla relazione ed esiste quantomeno la percezione di essere in grado di incidere, col proprio comportamento, sugli eventi.

attivamente alla loro produzione (il fenomeno dei free-rider). Molto spesso, quando i risultati finali sono delle informazioni o progetti che si vuole diffondere, l'utilizzo e la diffusione da parte dei free-rider non fa altro che aumentarne il valore. Una aumento delle persone che utilizzano un determinato software open source non fa altro che aumentarne il suo valore, aumentandone la diffusione: si tratta questo di un effetto denominato network effect79. Quando l'attività riguarda delle informazioni, essendo queste beni non rivali, non risentono di diminuzione del proprio valore; ciò che può succedere è un aumento dato da una maggiore loro diffusione. Ma, a parte questo meccanismi di difesa, ciò che permette la collaborazione è proprio la fiducia reciproca, che vi saranno cioè alcuni freerider, ma che la maggior parte delle persone collaborerà. Certamente, una comunità Open Peer-to-Peer non necessariamente avrà successo, ma solo se riuscirà a coinvolgere un ampio numero di partecipanti, tra cui si sviluppa una fiducia reciproca. L'atto fiduciario, oltre alle componenti cognitive, è generalmente costituito da una combinazione variabile di queste con altre componenti emotive. Ad esempio, situazioni di totale incertezza, indotte, per esempio, da rapidi mutamenti sociali che impedirebbero, sul piano puramente cognitivo, il sorgere della fiducia, possono essere risolte perciò da una atto fiduciario a base esclusivamente emotivo80. Inoltre, anche il grado di coerenza e completezza, di ambiguità e manipolabilità dei sistemi normativi è cruciale nella spiegazione dei processi di generalizzazione delle aspettative sociali e di riduzione dell'incertezza. Lo spazio delle fiducia, dunque, è potenzialmente tanto più ampio quanto più estese sono le aree socialmente non normate, e quanto più le strutture normative e gli espedienti organizzativi attivati per ridurre l'incertezza risultano manipolabili interpretativamente e suscettibili di comportamento non conforme81. Nelle comunità Open Peer-to-Peer, dove le regole vengono discusse collettivamente, la fiducia ha quindi una importanza fondamentale.

Le comunità Open Peer-to-Peer, quindi, si basano sulla fiducia: in esse è possibile uscire con relativa facilità, e i membri rivestono un ruolo attivo nelle proprie azioni e scelte. È questa fiducia che riduce le incertezza che possono ostacolare la cooperazione collettiva: dato che i risultati finali sono pubblici e condivisi, alcuni membri potrebbero approfittarne per usufruirne senza collaborare

L'atto fiduciario comporta il coinvolgimento non solo di colui che concede la fiducia, ma anche di colui che la riceve: quest'ultimo deve dimostrare, infatti, di essere degno della fiducia ottenuta. Entrambe le parti entrano in relazione sia nel momento dell'azione, sia nel momento in cui l'aspettativa viene resa esplicita. Entrambe sviluppano meccanismi autoriflessivi e cioè, da un lato, aspettative di validità delle proprie aspettative fiduciarie (fiducia nella fiducia concessa), dall'altro, aspettative che la fiducia ricevuta non risulti fittizia (fiducia nella fiducia ricevuta). La fiducia, dopo che è stata concessa, cerca perciò

76 Ibidem pp.42-43 77 Ibidem pp.44-45 78 Ibidem p.43

79 http://en.wikipedia.org/wiki/Network_effect 80 Mutti (1998) 81 Idem

98


una qualche conferma nella realtà e produce anche delle pressioni perché ciò avvenga82. La fiducia presuppone quindi un rapporto Peer-to-Peer. Nonostante le possibili complicazioni, l'atto fiduciario, una volta emesso, attiva un meccanismo di riduzione dell'incertezza e della complessità sociale. Esso produce, inoltre, una forma di pressione e di controllo nei confronti del beneficiario al fine di essere confermato. Spesso chiede pure la reciprocazione, alimentando una spirale autorafforzantesi che stimola la cooperazione e la solidarietà sociale. Inoltre, anche la sfiducia funge da riduttore dell'incertezza perché contribuisce a forgiare le aspettative degli attori ed entra in modo pertinente nei loro processi decisionali. Se ben risposta, svolge funzioni positive per chi l'ha emessa, evitandogli danni e delusioni. Anche la sfiducia tende a confermarsi e rafforzarsi nell'interazione sociale, alimento la reciprocazione. La spirale della fiducia e del sospetto reciproci non incentiva però la solidarietà e la cooperazione, bensì il conflitto e l'atomizzazione sociale. Rapporti di fiducia reciproca elevati, generalizzati, equilibrati, poggianti su basi reali costituiscono una condizione necessaria, ma non sufficiente, alla cooperazione. Essi favoriscono l'accettazione di rischi derivanti da una maggiore interdipendenza, come pure la trasparenza nel processo di comunicazione e la chiarezza nelle regole di interazione esistenti (soprattutto sotto il profilo della loro interpretazione). Stimolano, dunque, una spirale virtuosa di intensificazione dei rapporti sociali. La sfiducia e il sospetto alimentano invece processi opposti, dando vita a una spirale socialmente viziosa83. In termini di scambio sociale, la fiducia reciproca incentiva scambi generalizzati, a contenuto ampio e di lungo periodo; rende superfluo il ricorso a un'elevata formalizzazione o a una dettagliata specificazione delle regole dello scambio; rende, perciò, potenzialmente più elastico, dinamico e allargato l'intero processo di scambio, riducendone i costi di transazione. In situazioni di scambio sociale nelle quali gli oggetti scambiati risultano di difficile misurazione e comparazione la fiducia può svolgere importanti funzioni di medium e garante dello scambio. Ciò vale soprattutto per scambi non coercitivi di lungo periodo in cui non esistono regole procedurali e sostanziali ben corroborate, o quando queste risultano largamente incoerenti, incomplete e inefficaci. La fiducia svolge, dunque, una fondamentale funzione di incentivazione della socialità e di generalizzazione della relazione sociale. Essa estende l'orizzonte temporale del sistema sociale e ne aumenta il potenziale di azione. Ciò è tanto più evidente quanto più elevato e 82 Idem 83 Idem

generalizzato è il livello di fiducia che circola nel sistema, e quanto più ridotti sono gli squilibri nei gradi di fiducia che gli attori reciprocamente si concedono. Lo stesso vale se la fiducia poggia su basi reali e non su processi di manipolazione che corrono costantemente il rischio di essere smascherati84. La fiducia svolge anche importanti funzioni di controllo e di regolazione sociale: l'attribuzione di fiducia e di responsabilità fornisce una flessibilità di controllo maggiore di quella offerta da un sistema di punizioni-ricompense per ogni comportamento specifico. Sono infatti i processi di peer review che permettono l'attribuzione della fiducia all'interno delle comunità Open Peer-to-Peer, e rappresentano quindi un requisito fondamentale per il loro funzionamento.

4.8.3. Comunità e relazioni che generano capitale sociale I tipi di relazioni sociali che non possono costituire capitale sociale sono le relazioni di scambio, quelle di mero incontro tra persone che non continuano la loro relazione, e a quelle di ostilità, di sfruttamento o conflittuali in genere. Esse sono caratterizzate da due tratti: o di non aver bisogno della riconoscibilità dell'identità dell'altro, come è il caso dello scambio e dell'incontro; o di mirare ad annullare l'identità dell'altro e/o a sottrargliene componenti, come è nel caso dell'ostilità, dello sfruttamento e del conflitto (in termini di proprietà). Sono quindi portatrici di capitale sociale quelle relazioni in cui sia possibile che l'identità più o meno duratura dei partecipanti sia riconosciuta, e che inoltre ipotizzino forme di solidarietà o di reciprocità85. In alcuni casi il capitale sociale sembra costituirsi grazie all'intervento di un terzo – un gruppo sociale, un'agenzia, un'istituzione – che assicura che il rapporto tra le due parti avvenga senza sfruttamento o frode od opportunismo di una parte nei confronti dell'altra. In altri casi, il capitale sociale si costituisce nella relazione tra due parti, in cui una anticipa l'aiuto dell'altra nel perseguire i suoi fini, in quanto ipotizza che si costituisca un rapporto diadico di mutuo appoggio. Pizzorno86 definisce il primo di questi due tipi “capitale sociale di solidarietà”; il secondo “capitale sociale di reciprocità”: • il capitale sociale di solidarietà si basa su quel tipo di relazioni sociali che sorgono, o vengono sostenute, grazie a gruppi coesi i cui membri sono legati l'uno all'altro in maniera forte e duratura, ed è quindi prevedibile che agiscano secondo principi di solidarietà di gruppo. In tale circostanza, se una relazione tra due o più persone costituisce capitale sociale, cioè se una 84 Idem 85 Pizzorno (2001) pp.22-23 86 Ibidem pp.27-30 99


persona A può plausibilmente aspettarsi che un'altra persona B, a cui essa si rivolge, adempia a una promessa, o soddisfi una richiesta di aiuto, sarà o perché sia A sia B appartengono allo stesso gruppo e agiscono quindi sotto obblighi di solidarietà (e Pizzorno chiama questa come fiducia interna); o perché A sa che B appartiene a un gruppo coeso, il quale è in grado di premiarlo se egli assolve, o di punirlo se non assolve, a ciò che in quella circostanza ci si aspetta da lui (che Pizzorno chiama fiducia esterna). La fiducia esterna necessariamente include le condizioni che fanno operare anche la fiducia interna; ma è bene distinguere i due tipi, perché la fiducia esterna interessa anche persone che non appartengono al gruppo coeso, che però utilizzano come capitale sociale la cogenza di obbligazioni che quello comporta. I meccanismi della fiducia interna, ma soprattutto quelli della fiducia esterna, saranno più o meno efficaci in funzione dello spessore dei confini che separano il gruppo dalla società circostante; il capitale sociale di reciprocità. Affinché questo tipo di capitale sociale si formi non occorre assumere la presenza di un gruppo coeso che intervenga ad assicurare l'operatività della relazione sociale a certi fini attraverso meccanismi di ricompensa o penalità simboliche o materiali. Esso quindi si manifesterà più probabilmente sulla base di legami deboli che di legami forti. Sarà soltanto necessario assumere che quando una persona instaura un rapporto di qualche durata con un'altra persona sia prevedibile che avvengano certi passaggi di aiuti o di informazioni tra le due.

2.

3.

Pizzorno87 giunge quindi ad elencare alcuni tipi di relazioni che costituiscono capitale sociale: 1.

87 Idem 100

sono capitale sociale le relazioni che stabiliscono una potenziale cooperazione tra due o più persone a fini comuni. Così un operatore economico utilizza determinati rapporti di conoscenza con altri operatori per impiantare un'impresa, o stabilire determinati accordi. A prima vista si tratta di un normale atto in perseguimento di interessi economici. Ma è diverso da puri atti di scambio o di contratto perché presuppone precedenti rapporti, e per l'esistenza di questi occorrerà dar spiegazioni differenti da quelle che fanno riferimento a intenzioni di perseguimento di fini. Simile sarà il caso di associazioni con numero limitato di membri volte a sostenere la capacità di perseguire certi fini comuni (per esempio un'associazione di genitori di allievi di una scuola determinata). Si ha cioè qui una produzione di beni pubblici da parte di un

4.

piccolo gruppo; similmente, sono capitale sociale le relazioni attraverso le quali un operatore economico ottiene di ampliare, o dare solidità alla sua clientela, diffondere informazioni riguardanti la sua reputazione professionale, e simili. Anche qui vale quanto detto per il caso precedente; è poi tipica forma di capitale sociale la relazione nella quale una persona aiuta un'altra persona senza chiedere, o ricevere nulla in cambio, ma nell'ipotesi do ut des che si perfezionerà nel futuro, in una forma di reciprocità dilazionata. Questo, che è un caso frequente, resta ambiguo ai partecipanti stessi quanto a motivazione reale. Può essere che la persona che dà si aspetti di ricevere effettivamente qualche beneficio nel futuro, anche se la corrispondenza tra quanto dà e quanto riceverà non può che restare indeterminata, come indeterminato è il momento della futura corresponsione. Può anche darsi, ed è motivazione più imprecisa ma anche assai più plausibile, che quel che conta in casi simili non sia di ricevere in cambio nel futuro qualcosa di preciso, bensì di stabilire un rapporto di gratitudine con l'altra persona. In un certo senso si può dire che ciò che si verifica in questo caso è una modificazione, pur minima, dell'identità dei due individui che sono entrati in rapporto, in quanto entrambi diventano portatori di un riconoscimento che si aggiunge a quelli dai quali la loro identità era fino a quel momento definita. E si noti che allora chi controlla il processo è chi ha dato, e che potenzialmente (reconditamente), definisce il riconoscimento dovutogli. Da qui anche il significato delle ben conosciute insistenze a rifiutare restituzioni, o contraccambi, soprattutto se immediati, perché così si ottiene che perduri controllo sull'altro, il quale resta quindi “legato da ingratitudine”. È questo del resto il meccanismo socio-psicologico profondo che opera nei fenomeni del dono rituale studiati dagli antropologi classici88: tipici processi di formazione di capitale sociale collettivo; è poi mobilitazione di capitale sociale una relazione nella quale una persona ne aiuta un'altra perché questo aumenta il prestigio di una determinata unità collettiva. È il caso di un connazionale all'estero, o corregionale, o membro dello stesso gruppo etnico, che aiuta un altro a trovar lavoro, per esempio, o lo raccomanda per fargli ottenere determinati benefici, nell'idea che ciò torni a vantaggio dell'unità sociale cui entrambi appartengono. Ad ogni modo, questi casi sono diversi da quelli in cui interviene un gruppo coeso che abbia poteri di premiare o penalizzare

88 pp.148-150


determinati atti dei suoi membri. Questa volta invece si ipotizza che l'unità sociale in nome della quale l'aiuto viene offerto è troppo informe per agire come soggetto collettivo, e soprattutto non costituisce una cerchia di riconoscimento in grado di identificare durevolmente un singolo membro; è solo una comunità di riferimento ideale, a cui si immagina di appartenere, e dalla quale non ci si possono aspettare espliciti atti ricompensanti o penalizzanti. Per la creazione di capitale sociale, quindi, sono utili sia legami deboli che legami forti. Le comunità Open Peer-to-Peer, creando reti brevi (legami forti) e reti lunghe (legami deboli), riescono a costituire capitale sociale con molta efficacia. Inoltre, seppur i legami interpersonale possano essere fragili e poco duraturi, le comunità Open Peer-to-Peer riescono a costituire capitale sociale attraverso la organizzazione di economie del dono89.

4.8.4. Capitale sociale e relazioni: analisi delle reti sociali Per capire in che modo i legami deboli e forti possano costituire capitale sociale, risulta utile affidarsi ad una branca della sociologia, la social network analysis o analisi delle reti sociali90. La network analysis è un insieme di procedure per la raccolta, il trattamento, l'elaborazione e il controllo delle ipotesi relative a dati di tipo relazionale. Benché nelle scienze sociali nessuna procedura di ricerca, e tanto meno uno strumento analitico, possano essere considerati teoricamente neutrali, l'analisi delle reti si presta ad applicazioni teoricamente orientate in direzioni molto diverse. La network analysis è quindi una disciplina versatile, i cui principi sono utilizzati per studiare reti in ambito sociologico, antropologico, psicologico, politologo, economico, organizzativo, chimico, biologico, ecc91. L'idea che i fenomeni sociali possano essere interpretati come reti di relazioni, che la società stessa possa essere spiegata come esito di vincoli e opportunità emergenti dalle relazioni tra i soggetti gode di crescente consenso nell'ambito delle scienze sociali92. L'analisi delle reti sociali si occupa direttamente degli elementi costitutivi della società – le relazioni 89 Idem 90 Per tradurre network, Chiesi utilizza il termine reticoli anziché reti, in quanto può comportare meno ambiguità (un reticolo è una rete sociale e non, ad esempio, una rete da pesca). A riguardo si veda Chiesi (1999), p.20-21. In questo testo verrà mantenuto il termine rete, per non introdurre un altro termine che potrebbe risultare fuorviante, e anche per sottolineare una visione reticolare e sistemica, che lega le teorie della Complessità alla Sociologia 91 Chiesi (1999) p.11 92 Ibidem p.12

tra gli attori – al contrario delle tecniche tradizionali, che si sforzano di interpretare la realtà solo indirettamente attraverso gli attributi di individui presi singolarmente. L'analisi delle reti, nella sua forma attuale, consiste di un insieme di tecniche di analisi strutturale, che si basano sui seguenti postulati relativi alla realtà sociale: • il comportamento dell'attore è interpretabile principalmente in termini di vincoli strutturali all'azione, piuttosto che in termini di libertà di scelta tra corsi di azione alternativi; • la spiegazione dei fenomeni sociali deve essere ricercata nella relazione tra gli elementi, piuttosto che nelle caratteristiche degli elementi; • le tecniche di analisi si concentrano sulla natura relazionale della struttura sociale e sostituiscono (o integrano) le tecniche statistiche classiche che si basano su elementi considerati indipendenti fra loro; • la forma delle relazioni sociali può a sua volta essere spiegata in parte come l'esito delle scelte degli attori, individuali o collettivi, che rappresentano i nodi del reticolo. Quest'ultima affermazione non deve essere considerata necessariamente in contrasto con la prima. È infatti plausibile pensare che la struttura sociale condizioni il singolo individuo e che la combinazione delle azioni individuali contribuisca a modificare l'assetto della struttura sociale93. Tramite l'analisi della rete sociale, l'entità del capitale sociale a disposizione di ogni individuo può essere stimata individuando la posizione strutturale che ciascun individuo occupa nella rete di relazioni in cui è inserito. L'origine dell'analisi della rete sociale può essere rintracciata nell'opera di Georg Simmel, che propone una "geometria del sociale", il che significa concentrare l'attenzione sulle forme della vita sociale, distinguendole dai loro contenuti.94 Simmel è celebrato in tutti i manuali introduttivi di sociologia, per l'analisi delle conseguenze sociali dell'ampiezza del gruppo. Partendo dall'individuo isolato egli analizza le conseguenze dell'unione di due individui, la diade, la forma sociologica più semplice95, e giunge fino alla triade. 93 Ibidem p.25 94 Ibidem p.36 95 Una visione reticolare può essere applicata anche ad altri ambiti, e il principio della diade come forma minima rimane. Ad esempio, come si vedrà nel cap.6, un Sistema di Attività non si trova mai isolato, ma interagisce con una rete di altri Sistemi di Attività. Ad esempio, riceve regole e strumenti da alcuni Sistemi di Attività (ad esempio, il management), e produce risultati per altri Sistemi di Attività (ad esempio, i clienti). In questo modo, un Sistema di Attività viene influenzato da forze esterne, che vengono acquisite e poi modificate come fattori interni. Tuttavia non sono le influenze esterne, di per sé, a causare cambiamenti ed eventi incomprensibili all'interno dell'attività, ma il loro ingresso nel Sistema di Attività. In questo modo, il Sistema di Attività agisce costantemente tra contraddizioni interne ed esterne. Per capire queste 101


L'analisi di Simmel rimane legata soprattutto alle relazioni di piccolo gruppo, in cui la struttura è data dal numero dei partecipanti e può mutare radicalmente introducendo anche un solo individuo. Con l'introduzione del terzo soggetto, a formare una triade, il gruppo muta natura più profondamente di quanto non avvenga aggiungendo il quarto o il quinto. I primi tentativi di trasposizione della sociologia relazionale dalla teoria alla pratica risalgono ai primi anni '30 del secolo passato, in modo apparentemente indipendente in campi disciplinari diversi. In particolare sono individuabili tre scuole, che nel corso degli anni subiscono contaminazioni reciproche, anche grazie alla mobilità di alcuni studiosi, che di fatto permettono il passaggio di concetti, approcci e tecniche da una scuola all'altra96. Un primo filone di ricerca, originariamente influenzato dalla teoria della gestalt, si sviluppa in America grazie ad un gruppo di psicologi sociali emigrato dalla Germania nazista97. Autori come Kurt Lewin, Jacob Moreno e Fritz Heider sottolineano il ruolo giocato dalla struttura dei gruppi interpersonali nella costruzione degli schemi cognitivi. Essi applicano nuovi tipi di analisi strutturale allo scopo di studiare i flussi di informazione e la formazione delle idee tra i membri di un gruppo. L'attenzione per i rapporti tra la struttura delle relazioni interpersonali a livello micro e i fenomeni macro-sociali più complessivi suggerisce una qualche continuità con la sociologia classica tedesca. Alla diade e alla triade di Simmel, Moreno accosta altre strutture sociometriche e propone lo strumento del sociogramma, niente più che un espediente grafico per descrivere quelle che chiama le proprietà formali delle configurazioni sociali. Da questo momento tuttavia la metafora si trasforma in una forma diagrammatica, in qualche modo confrontabile, e permette di distinguere analiticamente e descrivere graficamente una famiglia di concetti derivati come quelli di posizione sociale, di relazione simmetrica, asimmetrica o di reciprocità, e di individuare percorsi di connessione interpersonale. Un secondo approccio98 è collegato allo strutturalfunzionalismo e, partendo dalla tradizione dell'antropologia anglosassone, sviluppa alcune applicazioni empiriche in campo sociologico. In particolare, l'applicazione di tecniche di osservazione mutuate dalla ricerca antropologica aveva posto in luce l'importanza delle relazioni interpersonali informali nel comportamento lavorativo. L'applicazione di tecniche di derivazione contraddizioni, bisogna espandere il Sistema di Attività fino ad incluedere almeno un altro Sistema di Attività interagente. In questo modo si ha una diade formata da due Sistemi di Attività 96 Ibidem p.42 97 Ibidem p.43 98 Ibidem p.44 102

antropologica allo studio di moderne comunità urbane spostò l'attenzione dall'analisi della posizione individuale nel reticolo complessivo all'individuazione di gruppi più o meno isolati dalla struttura sociale complessiva (detti cliques), all'analisi della loro struttura interna e delle appartenenze multiple degli individui ad essi. Il terzo approccio è costituito dai lavori della cosiddetta scuola di Manchester99, che rappresenta lo sviluppo in chiave critica dell'antropologia struttural-funzionalista. Autori come Max Gluckman, John Barnes, Clyde Mitchell e Elisabeth Bott riprendono le nozioni metaforiche di rete ma, invece di insistere sui concetti di integrazione e coesione sociale, sottolineano il ruolo giocato dal conflitto e dal potere nella trasformazione e nella persistenza delle strutture sociali. Il cambiamento dell'oggetto di ricerca, dalle comunità africane primitive, alle piccole comunità di villaggio europee e alle strutture familiari in ambiente urbano permette di evidenziare il ruolo dei legami di parentela, amicizia e vicinato nella produzione dell'integrazione sociale. I contributi più ricchi provengono però da Mitchell, che complica il modello distinguendo analiticamente vari tipi di relazione, ciascuna caratterizzata da distinti parametri di reciprocità, durata e intensità. Inoltre l'applicazione della teoria dei grafi permette di sviluppare i concetti fondamentali di densità, connessione e raggiungibilità riferiti alla rete nel suo complesso. In matematica, la teoria dei grafi100 permette di schematizzare una grande varietà di situazioni e di processi e spesso di consentire di analizzarli in termini quantitativi ed algoritmici. Possiamo immaginare geometricamente un grafo come un insieme di punti nello spazio e di curve continue che connettono coppie di punti senza intersecarsi tra loro. In un grafo, il posizionamento dei nodi e la forma delle curve è irrilevante, contano solo i nodi e le relazioni tra di loro. In altri termini, lo stesso grafo può essere disegnato in molti modi diversi senza modificare le sue proprietà. La scuola di Manchester propone indubbiamente un modello ricco e aperto dei rapporti esistenti tra attore, relazione sociale e reti "situate". Gli attori sociali agiscono sempre in situazioni strutturate dai tipi di relazioni attivate e dalla morfologia delle loro reti, ma ciò non esclude spazi di autonomia e creatività. Relazioni e reti vengono intese, dunque, come vincoli e risorse dell'azione individuale. Le reti sono intessute di scambi, negoziazioni e conflitti, in cui transitano risorse materiali e non materiali, coercitivi, rituali, simboliche, cognitive ed emotive.

99 Ibidem p.45 100 http://it.wikipedia.org/wiki/Teoria_dei_grafi


Fig. 34: Analisi delle reti sociali in comunità di sviluppo Open Source (Fonte: Madey, Freeh, Tynan 2002)

L'interesse sia per la forma che per i contenuti delle reti porta a una confluenza, esplicitamente ricercata, tra teoria delle reti e teoria dello scambio sociale, intese entrambe in senso non troppo rigidamente formalizzato e in grado di includere l'ampia gamma di risorse che transitano nell'interazione sociale.

Questi problemi, uniti all'attenzione esclusiva ai rapporti informali, di derivazione antropologica, viene tuttavia indicata come un limite della scuola di Manchester103, che ne causerà il declino a cominciare dagli anni '70, quando i maggiori sviluppi metodologici e soprattutto tecnici sono ormai localizzati a Harvard.

Con ciò questa scuola si pone, anche se non ne è pienamente consapevole, nel solco tracciato per primo da Simmel, la cui opera, presenta certamente i lineamenti di una sociologia formale, di una geometria sociale, ma questa risulta pur sempre innestata su una teoria dello scambio sociale sensibile ai diversi contenuti delle risorse che vengono scambiate. Questa esigenza di legare forma e contenuti delle relazioni sociali comporta però una complessificazione dell'analisi che la scuola di Manchester avrà evidenti difficoltà a condurre in porto101. L'attenzione preponderante rivolta alla processualità sociale "in situazione" lascia troppo sullo sfondo le dimensioni macro. Non c'è interesse a definire concetti quali: società, struttura sociale, sistemi culturali. I confini esterni delle reti vengono allora tracciati pragmaticamente dal ricercatore sulla base dei suoi interessi di ricerca. Ma, così facendo, si resta teoricamente disarmati di fronte all'esigenza, tutt'altro che secondaria, di individuare i criteri e le regole che governano le interdipendenze e gli intrecci di rete, specie se questi ultimi appartengono a un comune dominio macro (culturale, economico, politico e sociale) retto da specifiche logiche interne non tutte suscettibili di microriduzione, o comunque non tutte interpretabili sulla base delle logiche di rete locali.

Rispetto alla scuola di Manchester esistono, al contempo, elementi di continuità e di differenziazione. La continuità è data dal fatto che l'unità di base dell'analisi è costituita dala relazione sociale vista nella sua "concretezza". L'elemento di differenziazione è rappresentato invece dalla diversa risposta fornita ai nessi esistenti tra forma e contenuti delle reti, tra attore e rete, tra micro e macro, che la scuola di Manchester aveva presentato in modo sfumato, vago e teoricamente insoddisfacente. Questa diversa risposta è in buona parte dettata dall'esigenza di formulare una geometria del sociale e della struttura della società, attraverso una rigorosa formalizzazione matematica. L'impostazione di questa scuola può essere definita infatti come sociologia matematica, in quanto l'obiettivo è quello di modellizzare strutture sociali dotate di differenti proprietà partendo dalla teoria matematica dei grafi e utilizzando l'algebra delle matrici. L'approccio è quindi astratto e deduttivomatematico, piuttosto che sostanziale e applicativo a problemi di interpretazione sociologica. L'elemento che unifica i diversi contributi non è cioè una qualche teoria sociale, ma il metodo della network analysis in quanto tale.

Questa difficoltà si ricollega anche all'altro limite di questa scuola, costituito dal fatto che il rapporto tra l'individuo (le sue motivazioni, la sua identità) e le sue reti sociali è lasciato troppo nel vago102. 101 Mutti (1998) 102 Mutti (1998)

103 Chiesi (1999) pp.45-46 103


Fig. 35: Analisi delle reti sociali tra bloggers (Fonte: http://radio.weblogs.com/0104369/2003/01/08.html)

A questo livello di sviluppo metodologico corrisponde però una certa povertà dei risultati teorici delle ricerche, il cui merito principale è quello di fornire informazioni empiriche, talvolta contro intuitive, a favore o più spesso a sfavore di teorie tradizionali, non ancora controllate a livello empirico. Pur esistendo riferimenti alle risorse a disposizione degli attori, l'interesse prevalente concerne la forma delle relazioni sociali e la loro eventuale simmetria (cioè il potere). La morfologia della rete presenta una elevata autonomia rispetto agli elementi che la costituiscono (attori e risorse); la forma delle relazioni sociali determina, anzi, ampiamente i loro contenuti. Il complesso rapporto che intercorre tra forma e contenuti delle relazioni sociali finisce così con l'essere risolto in modo alquanto riduttivo e unilaterale, né viene ritenuta rilevante una rigorosa distinzione, sul piano analitico, tra relazioni di tipo economico, politico, culturale, ecc. Al nesso esistente tra attore e rete viene fornita una soluzione deterministica: gli atteggiamenti e i comportamenti degli attori risultano fortemente condizionati dalla struttura delle relazioni in cui sono inseriti. Il rifiuto di ogni schema interpretativo dell'azione che faccia riferimento a processi di interiorizzazione delle norme si accompagna, inoltre, a una drastica riduzione degli spazi di autonomia del sistema culturale rispetto alla morfologia della struttura delle relazioni sociali. 104

La scuola americana si sbarazza, dunque, del problematico rapporto intercorrente tra individuo e rete predicando la quasi totale dipendenza del primo dalla struttura della seconda104. È tuttavia a cominciare dall'inizio degli anni '70 che alcune applicazioni della metodologia di analisi elaborata in quegli anni attirarono l'attenzione dei sociologi, grazie al raggiungimento di interessanti risultati teorici come quelli riscontrati da Mark Granovetter, in grado di far luce sul rapporto tra comportamenti micro e strutture macro e quindi di contribuire a colmare la tradizionale separazione tra questi due livelli. L'impostazione deterministica, implicata nello sviluppo delle tecniche quantitative di analisi strutturale, viene sempre più spesso messa in discussione e affiancata da studi e applicazioni che concepiscono la rete di relazioni sociali in cui il soggetto è inserito non solo come vincolo all'azione, ma anche come opportunità105. In sostanza, lo stato dell'arte è attualmente aperto a diverse impostazioni teoriche, e comunque si è ridotta la distanza tra il rapido sviluppo delle tecniche di indagine e lo sviluppo più lento del loro substrato teorico106.

104 Mutti (1998) 105 Chiesi (1999) p.46 106 Ibidem p.47


4.8.5. Analisi delle reti e legami deboli e forti La social network analysis rappresenta dunque uno strumento di analisi e descrizione delle reti sociali, da cui può essere compreso il capitale sociale esistente e condiviso tra i vari attori. Riguardo alle comunità Open Peer-to-Peer, risulta particolarmente interessante l'opera di Mark Granovetter, che, individuando legami deboli e forti, propone una spiegazione alla importanza delle reti lunghe e brevi delle comunità Open Peerto-Peer in relazione al loro capitale sociale. Il problema dell'incertezza e dell'informazione come risorsa strategica, al centro del dibattito nella teoria economica, costituisce il quadro di riferimento generale entro cui può essere collocato il contributo di Mark Granovetter 107. Le istituzioni economiche e il mercato vengono concepiti da Granovetter come costruzioni sociali costituite da reti di interdipendenze tra attori economici condizionati dalla forma e dai contenuti dei legami esistenti fra loro, ma anche in grado di trasformarli. Tali attori cercano di ridurre l'incertezza non solo facendo ricorso ai canali formali di comunicazione (mass media, agenzie di collocamento, ecc.), ma soprattutto utilizzando i contatti personali informali (parenti, amici, conoscenti, ecc.), attraverso i quali vengono scambiate informazioni sull'ambiente economico e sulle strategie degli attori. L'interazione informale rappresenta, secondo Granovetter, un'importante risorsa a disposizione degli attori per la costruzione di meccanismi fiduciari (su base cognitiva ed emotiva) che possono permettere di tenere sotto controllo i comportamenti opportunistici; inoltre, l'informazione ottenuta informalmente risulta spesso più accurata, dettagliata e qualitativamente ricca di quella ottenibile con mezzi più formali108.

triangolo. I legami forti tra le persone hanno quasi tutti questa configurazione e i triangoli con un lato mancante sono rari110. Si supponga di rimuovere in qualche modo dalla rete sociale un legame forte. Che effetto avrebbe la rimozione sui gradi di separazione? Quasi nessuno. Poiché i legami forti formano quasi sempre triangoli di questo tipo appena descritto, procedendo lungo i rimanenti due lati del triangolo si andrebbe lo stesso da un'estremità all'altra della connessione mancante in soli due passaggi. Si può quindi eliminare qualsiasi legame forte senza che si producano grandi effetti sulle “distanze sociali” all'interno della rete. Sebbene i legami forti sembrino quelli indispensabili a tenere insieme la rete, per quanto riguarda i gradi di separazione non lo sono; anzi, non sono affatto importanti. Come dimostrò Granovetter, i legami cruciali sono quelli deboli, soprattutto quelli che lui definì “ponti” sociali111. Un ponte sociale è un collegamento cruciale che permette di tenere insieme una parte del tessuto sociale: come un ponte, rende più facile la comunicazione fra due persone, accorciando la distanza. Ad esempio, nella figura 36 la connessione tra A e B è un ponte, poiché la sua rimozione avrebbe un effetto considerevole sulla distanza sociale tra i due punti. Poiché i ponti consentono la tenuta delle reti sociali, si potrebbe supporre che siano legami forti, come quelli tra amici intimi; invece i legami forti non sono quasi mai rilevanti sotto quel profilo e possono essere rimossi senza produrre gravi danni. È vero invece l'opposto: i ponti sono costituiti quasi sempre da legami deboli. Granovetter giunse alla conclusione che i legami deboli sono spesso più importanti di quelli forti, perché svolgono la funzione di tenere insieme la rete sociale. Sono le “scorciatoie” che, se eliminate, farebbero disgregare la rete112.

Granovetter109 intuisce che, descrivendo le reti sociali, è possibile accennare all'intensità dei legami tra le persone: genericamente, i legami “forti” sono quelli che uniscono familiari, amici intimi o colleghi che passano molto tempo insieme, mentre i legami “deboli” sono quelli di generica conoscenza. Si considerino, ad esempio, tre amici. Come accade agli amici, è facile che abbiano parecchio in comune: magari vivono nello stesso quartiere, lavorano insieme o si incontrano negli stessi luoghi. Se due di loro hanno delle cose in comune, tenderanno ad averle pure con il terzo. Inoltre, se passano del tempo assieme, forse lo passano anche con il terzo, e lo fanno di sicuro quando si ritrovano tutti e tre insieme. Insomma, se una persona è fortemente legata ad altre due, anche queste due sono sovente assai legate tra loro. Esisteranno eccezioni, ma in genere la situazione dovrebbe essere questa. In un grafo, tale principio si traduce nel fatto che i legami forti non sono isolati, ma tendono a formare un

I legami deboli non sono solo ponti verso un'altra persona, ma anche verso mondi sociali lontani che

107 Granovetter (1973) 108 Mutti (1998) 109 Buchanan (2003)

110 Idem 111 Idem 112 Idem

Fig. 36: Ponti sociali (Fonte: Buchanan 2003)

105


ci sarebbero, altrimenti, del tutto estranei. Agendo da ponti, i legami deboli permettono di raggiungere persone distanti con molta rapidità, e quindi anche una diffusione di informazioni rapida e ampia113. I legami forti, invece, ci connettono con persone con le quali, senza questi legami, saremmo connesse comunque. I ponti tra mondi hanno dunque un'importanza enorme e molto probabilmente sono la chiave del segreto che rende le reti sociali così piccole. Senza i legami deboli, una comunità sarebbe frammentata in tanti gruppi isolati114. Granovetter capì la differenza fra questi due legami studiando come le persone riescono a trovare un impiego attraverso le proprie conoscenze. Per i lavoratori qualificati, le informazioni rilevanti per la ricerca di un posto di lavoro provengono più frequentemente da contatti di semplice conoscenza, mentre l'intervento di parenti e amici è raro. Questo risultato comprova innanzitutto la preminenza della struttura sulla motivazione. Parenti e amici stretti sono certamente più motivati ad aiutare chi cerca lavoro, ma non si trovano nella posizione strutturale migliore per poterlo fare. Essi condividono con l'attore lo stesso ambiente e difficilmente possono disporre di informazioni ulteriori rispetto a quelle che l'attore già possiede. Il fatto di condividere legami forti non aiuta la ricerca di un lavoro. Al contrario i membri marginali o esterni alla rete sociale di intimità, coloro che sono collegati debolmente con l'attore, perché hanno accesso ad ambienti diversi, sono più probabilmente a conoscenza di informazioni decisive su posti di lavoro vacanti. I legami forti tornano invece ad assumere un ruolo centrale nel caso del lavoro dequalificato. Margaret Grieco115 dimostra che nel settore alimentare caratterizzato da stagionalità dell'occupazione, e nel settore metalmeccanico, caratterizzato da ampia immigrazione da altre regioni, non solo il reclutamento, ma anche l'organizzazione produttiva passano ancora attraverso le reti familiari, come nelle fasi della prima industrializzazione. Dal lato della domanda, vengono incoraggiate le pratiche di reclutamento informale attraverso i lavoratori già occupati, allo scopo di controllare la forza-lavoro. Dal lato dell'offerta, la parentela non costituisce solo il reticolo informativo essenziale, che permette di individuare le opportunità, ma è anche un canale di assunzione, che rafforza un sistema di obbliggazioni reciproche. Le differenze tra lavoro qualificato e dequalificato sono notevoli, ma in ogni caso sia gli studi di Granovetter che quelli di Grieco evidenziano almeno quattro fattori costanti116: 1. il percorso informativo tra chi offre e chi domanda lavoro non è mai lungo, poiché l'elemento fiduciario rimane rilevante; 113 Idem 114 Idem 115 (Chiesi (1999) p.28 116 Ibidem p.29 106

2.

3.

4.

viene confutata l'ipotesi che il mercato del lavoro moderno sia retto da principi impersonali, meritocratici ed universalistici; l'informazione utile per attivare il mercato del lavoro non viene prodotta ad hoc, ma viene utilizzata come sottoprodotto di altri processi sociali; i fenomeni macro emergono come combinazioni di processi di interazione a livello micro.117

Mentre nella epoca preindustriale, nelle comunità locali tradizionali, i legami forti erano i più importanti, ora vengono affiancati dai legami deboli, che per alcuni ambiti sono ancora più importanti. Le comunità Open Peer-to-Peer, che riescono a sfruttare entrambi, possono distribuire, ricevere e scambiare informazioni con molta più efficacia e rapidità. Non solo quindi, ricerca di impieghi, ma tutte le attività che implicano una distribuzione e scambio di informazioni all'interno della rete sociale sono avvantaggiati. È questo uno dei motivi per cui le comunità Open Peer-to-Peer riescono a scambiarsi informazioni (come nel caso della Grameen Bank 118) e beni fisici (come nel caso dei dabbawalla119) con estrema rapidità ed efficacia, a tal punto da basare le proprie attività sulla distribuzione di informazioni, beni, persone. Infatti, nel caso della Grameen Bank, gli agenti della banca rappresentano i legami deboli e mentre i peer del gruppo che riceve un prestito sono legati da legami forti. Nel caso dei dabbawalla, il dabbawalla che si trova sui treni agisce da legame debole di connessione fra la casa (e rispettivo dabbawalla da cui proviene) e l'ufficio (e rispettivo dabbawalla che lo raggiunge). La presenza di capitale sociale porta anche ad altre conseguenza positive. Non solo, infatti, la presenza di capitale sociale condiviso può portare alla risoluzione di problemi e alla attivazione di iniziative economiche. Si può arrivare sino a dare inizio a processi, di lungo periodo, che sono in grado di portare uno sviluppo a livello locale. In questo modo, le attività delle comunità Open Peer-to-Peer non si esauriscono nel loro obiettivo iniziale, ma fungono da base per possibili cooperazioni future alla risoluzione di nuovi problemi. La nascita di una comunità Open Peer-to-Peer può quindi rappresentare un processo di rigenerazione locale in costante evoluzione e crescita, una strategia per affrontare la globalizzazione partendo dalla dimensione locale.

117 pp.112-114 118 pp.327-329 119 p.307


4.8.6. Capitale sociale e sviluppo locale 4.8.6.1. Globalizzazione e sviluppo locale In meno di un decennio il tema della globalizzazione dell'economia non si è solo affermato nel dibattito scientifico, ma si è anche imposto all'attenzione dei media e dell'opinione pubblica. L'economia è così apparsa sempre più sradicata da singoli luoghi, sempre più mobile nello spazio: si ricercano occasioni d'investimento di capitali, di produzione di beni e servizi, o di vendita di prodotti, in luoghi molto lontani. È anche vero però che la maggior parte della produzione ha ancora origine e destinazione dentro i confini nazionali, e che il fenomeno sia volutamente enfatizzato. E in questo processo di "annullamento" delle condizioni specifiche locali non è nuovo, ma rappresenta una continuazione di quella riduzione della complessità di cui il fordismo si alimentava120. All'immagine di un'economia sradicata dai luoghi, alimentata da quella della globalizzazione, negli ultimi anni se ne è affiancata un'altra che si muove in direzione opposta: lo sviluppo locale121. Qui l'attenzione va allo sviluppo di territori, città, regioni che mostrano segni di particolare dinamismo. È il legame con un determinato territorio, e con il suo contesto sociale e istituzionale, che suscita l'interesse non solo degli studiosi, ma anche di amministratori e politici locali, di dirigenti di organizzazioni di rappresentanza delle categorie economiche, o di esponenti dell'associazionismo sociale e culturale. Un rinnovato interesse, quindi, per le caratteristiche specifiche della dimensione locale. Naturalmente, il dinamismo di singoli territori o città non è di per sé una novità: lo sviluppo economico non ha mai proceduto in modo omogeneo nello spazio. La novità è che rispetto al passato si affermano percorsi di sviluppo che sono meno il frutto di scelte derivanti dal “centro” - da politiche nazionali dello Stato – o la semplice conseguenza di determinismi geografici, come la dotazione di particolari risorse naturali e ambientali, o la vicinanza ai mercati. In questo contesto è comprensibile l'importanza dei processi di governance e dell'introduzione di sistemi distribuiti. I primi infatti permettono agli attori locali un ruolo attivo, mentre i secondi rappresentano l'infrastruttura tecnica che permette iniziative di sviluppo locale. È questa caratteristica di sviluppo organizzato a livello locale ciò che accomuna casi apparentemente diversi che hanno attirato l'attenzione negli ultimi anni: i sistemi locali dell'alta tecnologia, da quello dell'informatica della 120 Rullani (2002a, 2002b) 121 Trigilia (2005) p.4

Silicon Valley al polo delle biotecnologie di Oxford o a quello dei media di Colonia; lo sviluppo urbano di città che hanno affrontato i problemi del declino delle industrie tradizionali, o hanno avviato progetti innovativi, come Barcellona, Bilbao, Glasgow, Lione, Francoforte, Stoccolma e molte altre; e naturalmente l'esperienza dei distretti industriali, o di altri tipi di sistemi produttivi locali, in molte regioni italiane ed europee122. Lo sviluppo locale non si identifica quindi con specifiche specializzazioni produttive o con particolari modelli istituzionali di regolazione dell'economia. È quindi fuorviante associarlo esclusivamente ai distretti industriali di piccola impresa. Esso riguarda sistemi produttivi locali che possono assumere caratteri diversi: per esempio, possono coinvolgere grandi o medie imprese-rete che organizzano un insieme di fornitori localizzati in parte in uno stesso territorio, oppure agglomerati di piccole imprese (clusters) con un minor grado di integrazione e di cooperazione tra loro rispetto ai distretti. Anche la specializzazione produttiva può variare: accanto ai casi più conosciuti dei sistemi legati alle produzioni di beni per la persona e per la casa (tessile, abbigliamento, calzature, mobili, ceramiche, ecc.) vi sono sistemi di imprese specializzate in settori ad alta tecnologia (informatica, telecomunicazioni, biotecnologie, media, ecc.). Il fenomeno non va nemmeno legato al solo settore manifatturiero: ci possono essere sistemi specializzati in attività terziarie (finanza e servizi alle imprese, turismo) o in attività agroindustriali. Spesso sono presenti varie combinazioni di settori produttivi123. Ciò che caratterizza lo sviluppo locale è la capacità dei soggetti istituzionali locali di cooperare per avviare e condurre percorsi di sviluppo condivisi che mobilitino risorse e competenze locali. Il protagonismo dei soggetti locali e la mobilitazione delle risorse del territorio non implicano affatto una sorta di localismo autarchico, una chiusura difensiva verso i processi globalizzanti. Al contrario, il protagonismo dei soggetti locali favorisce lo sviluppo di un territorio quando riesce ad attrarre in modo intelligente risorse esterne, sia di tipo politico (investimenti pubblici qualificati o risorse per attirare imprese private) che economico e culturale (legate a decisioni di investimento o di localizzazione di soggetti privati); e quando riesce a cogliere le opportunità che l'allargamento dei mercati offre per nuove strategie di produzione di beni o servizi che valorizzino specifiche competenze e beni comuni (come il patrimonio ambientale e storico artistico)124. In definitiva, lo sviluppo locale consiste nel legare la dimensione locale specifica con reti globali a più largo raggio, in modo di utilizzarle per migliorare le condizioni locali. Tuttavia, ciò che distingue lo sviluppo locale dal 122 Trigilia (2005) p.5 123 Ibidem pp.5-6 124 Idem 107


mero dinamismo locale, come processo di crescita economica misurabile in termini di reddito prodotto e di occupazione, è la capacità di usare le risorse esterne per valorizzare quelle interne: attrarre investimenti, imprese, risorse scientifiche o culturali, non solo come occasione per la crescita della produzione, del reddito e dell'occupazione, ma come strumento che arricchisce le competenze e le specializzazioni locali. Può quindi essere messo facilmente in relazione con il concetto di localismo cosmopolita: lo sviluppo locale il suo strumento di diffusione. Un esempio dell'importanza dello sviluppo locale nel migliorare le condizioni locali è dato dall'emergere delle produzioni artigianali locali che propongono con successo i loro prodotti collegandoli all'identità del luogo di origine e ai valori culturali e sociali che lo caratterizzano. Affinché il modello di localismo cosmopolita basato sullo sviluppo locale possa funzionare, è necessario che il luogo e la comunità cui questi prodotti si riferiscono siano effettivamente vivi, vitali e di alta qualità. Secondo Manzini125, "se vi sono prodotti che portano con sé lo spirito del luogo, la qualità di questo luogo (e della comunità che lo caratterizza) deve anch'essa essere garantita. Tra luogo, comunità e prodotto si deve dunque stabilire un duplice legame: la qualità del luogo e della comunità è un elemento decisivo nel successo di un prodotto". Il successo di un prodotto, quindi, per essere duraturo, deve favorire la rigenerazione della qualità del luogo e della comunità di origine. Lo sviluppo locale rappresenta quindi un percorso possibile per affrontare i problemi indotti dalla globalizzazione, ricostruendo un nuovo equilibrio tra sviluppo e coesione sociale. Non si tratta quindi di difendersi dalla globalizzazione, ma di usare in modo accorto - cioè con capacità progettuale – le maggiori opportunità potenziali che essa offre dal lato dei processi produttivi (più mobili) e degli sbocchi di mercato (più aperti e variegati)126. Lo sviluppo locale è dunque diverso sia dal localismo autarchico che dal dinamismo di origine esterna. Il suo rapporto con la globalizzazione non è né meramente difensivo-oppositivo, come per il localismo, né passivo e adattivo, come per il dinamismo locale. Lo sviluppo locale si fonda sulle capacità di cooperazione e di strategia dei soggetti locali per gestire i vincoli posti dalla globalizzazione, e per coglierne le opportunità127. Certo, il discrimine tra sviluppo locale e mero dinamismo è difficile da tracciare con precisione. In una fase iniziale i due fenomeni possono anche convivere. Per esempio, un territorio può usare benefici fiscali, finanziari, di costo del lavoro, di fornitura di servizi, per attrarre imprese esterne. Per far questo può darsi strutture di marketing territoriale, cioè agenzie specializzate per contattare e attrarre investitori esterni. Ma se nel tempo questo processo non si combina con la 125 Manzini (2004) 126 Trigilia (2005) pp.6-7 127 Ibidem p.8 108

capacità di valorizzare le risorse provenienti dall'esterno per far crescere le competenze e le risorse locali, il rischio è che non si inneschi un vero sviluppo locale. La crescita resta soggetta ai flussi della globalizzazione, che rapidamente possono creare altrove occasioni più redditizie per imprese e investitori. Insomma, mentre per il marketing territoriale l'attrazione di risorse esterne è spesso un fine in sé, nella logica dello sviluppo locale essa diventa piuttosto un mezzo. Il perseguimento di una “via alta” di competitività si accompagna a un nuovo radicamento locale delle attività economiche. Ciò vale in particolare per le fasi di progettazione e di organizzazione complessiva dei processi, rispetto a quelle di mera produzione, che possono invece essere più facilmente delocalizzate. Le attività innovative si concentrano, e non solo quelle dove sono più coinvolte le imprese piccole e medie. Anche le grandi aziende in regime oligopolistico, che dominano nei settori a elevate economie di scala, sono oggi più interessate a localizzare le loro attività innovative dove vi sono possibilità più favorevoli di collaborazioni esterne qualificate e di servizi collettivi. Lo sviluppo locale non si identifica quindi con un determinato modello di organizzazione produttiva – per esempio quello dei distretti industriali – e non riguarda solo le attività manifatturiere. L'elemento essenziale che lo contraddistingue è costituito dalla capacità dei soggetti locali di collaborare per produrre beni collettivi che arricchiscono le economie esterne, ma anche per valorizzare beni comuni, come il patrimonio ambientale e storico-artistico. La qualificazione del territorio è il presupposto per sostenere o far emergere iniziative locali, ma anche per attirare attività esterne che non si localizzino in una determinata area solo per vantaggi di costo, oggi sempre meno difendibili per i paesi più sviluppati128.

4.8.6.2. La produzione di beni collettivi locali Nella descrizione di sviluppo locale eseguita da Trigilia129, lo spostamento verso attività e servizi più innovativi dipende oggi soprattutto dalla capacità di costruzione sociale dell'innovazione, ed è ciò che rende più importante il perseguimento dello sviluppo locale. L'economia diventa infatti più relazionale: è legata a fattori non di mercato, meno governabili con semplici relazioni contrattuali, e più basati invece su condizioni di contesto che facilitano la cooperazione fra soggetti individuali e collettivi. L'innovazione e la ricerca della qualità dipendono meno dalle singole aziende isolate, e sono invece maggiormente radicate nella capacità del contesto 128 Ibidem p.IX 129 Ibidem p.VIII


istituzionale locale di offrire un ambiente favorevole: economie esterne materiali e immateriali (infrastrutture, servizi, ricerca, formazione, ma anche qualità sociale e urbana, reti cooperative tra imprese e capacità di collaborazione fra attori pubblici e privati nel governo dei territori). Per Trigilia "lo sviluppo locale diventa così la costruzione sociale dell'innovazione offrendo beni collettivi di cui i singoli attori hanno più bisogno, ma che non sono in grado di produrre da soli"130. Le economie esterne si possono considerare quindi come il frutto di beni collettivi locali che aumentano la competitività delle imprese localizzate in un determinato territorio, sia perché ne abbassano i costi sia perché possono accrescere la loro capacità di innovazione. Si tratta di beni che le singole aziende non sono in grado di produrre in quantità adeguate (o non hanno interesse a farlo), ma da cui dipende la competitività di ciascuna di esse. In alcuni casi si tratta di beni collettivi in senso stretto, cioè estesi a tutti i potenziali fruitori: per esempio la disponibilità di manodopera qualificata, o di buone infrastrutture logistiche e di comunicazione. In altri casi, l'accesso può essere limitato ad alcuni gruppi: per esempio servizi di smaltimento di rifiuti per un settore produttivo particolarmente inquinante. Si parla allora più propriamente di beni di club o categoriali131. Rispetto alla fase fordista, in cui prevalevano imprese più autonome dall'ambiente, le economie esterne diventano ora più importanti. La diffusione e la qualità di economie esterne alle singole imprese, ma interne a una determinata area, acquistano un peso cruciale per le aziende e danno nuovo rilievo al rapporto tra economia e territorio. Perché l'ambiente si qualifichi e lo sviluppo locale si attivi, o si preservi, è necessario saper offrire quei beni collettivi che creino e ricreino, continuamente, economie esterne adeguate: rigenerino, quindi, le condizioni locali continuamente. Trigilia cerca di individuare i meccanismi attraverso i quali i territori contribuiscono ad arricchire l'offerta di beni collettivi132. Questi meccanismi si basano su due tipi di processi: processi di generazione "spontanei" e processi di costruzione più intenzionali. I due fenomeni si presentano di solito in combinazioni diverse. Nella fase iniziale del percorso di sviluppo sono soprattutto due meccanismi spontanei (o meglio: non intenzionali) a giocare un ruolo rilevante: dotazioni originarie di risorse tangibili e intangibili ed effetti emergenti di scelte non coordinate di singoli attori. Via via che lo sviluppo procede, diventa invece più importante un terzo processo: la capacità di coordinamento consapevole e intenzionale tra i diversi soggetti, e in particolare l'interazione tra attori collettivi (governi locali, organizzazioni di rappresentanza degli interessi, associazioni). 130 Idem 131Ibidem pp.12-13 132 Ibidem p.21

L'esistenza di una tradizione di saper fare diffuso localmente è essenziale per poter organizzare un modello produttivo basato sulla divisione del lavoro e sulla collaborazione tra produttori specializzati in singole parti o componenti. Le opportunità per produzioni flessibili e di qualità, che si aprono con le trasformazioni dei mercati e con le nuove tecnologie, sono originariamente colte da territori nei quali vi siano dotazioni di risorse cognitive e normative sedimentatesi storicamente. Ma le risorse cognitive non bastano, è necessaria anche un'intensa e complessa collaborazione tra gli attori. Cruciale è dunque l'esistenza di reti di legami sociali tra i soggetti coinvolti nel processo produttivo. Questo meccanismo riproduce fiducia e gioca un ruolo di particolare rilievo nella produzione spontanea di beni collettivi che alimentano lo sviluppo locale (attirando eventualmente anche imprese esterne). I beni in questione riguardano, in particolare, la disponibilità di soggetti economici specializzati (imprenditori e lavoratori), in grado di collaborare tra di loro in produzioni flessibili e di qualità con bassi costi di transazione. Ne risultano rilevanti economie esterne per le imprese locali, o per quelle esterne che decidono di localizzarsi133. Una seconda modalità di produzione spontanea di beni collettivi locali riguarda gli effetti emergenti di scelte non coordinate di attori locali o esterni. Anche il processo precedente può essere visto in questa chiave. La distinzione è però utile per mettere in evidenza un percorso in cui non sono necessariamente presenti quelle dotazioni originarie in termini di conoscenze e di reti di relazioni sociali. Questo meccanismo è stato infatti riscontrato in contesti meno sviluppati economicamente, e meno integrati socialmente. In questo caso le economie esterne che alimentano l'avvio dello sviluppo locale sono legate a decisioni iniziali di pochi soggetti. In genere, le economie esterne che ne risultano sono meno ricche di quelle esaminate in precedenza134. Per questo motivo le forme di collaborazione e di integrazione orizzontale tra le imprese tendono ad essere meno sviluppate che nei distretti (di solito si tratta di aggregazioni – clusters – di piccole e medie imprese). Attraverso l'interazione ripetuta nel corso del processo si possono però sviluppare reti di relazioni e rafforzare la produzione più intenzionale di economie esterne. Una terza modalità di generazione di beni collettivi è rappresentata dai processi consapevoli di costruzione. In genere questo meccanismo accompagna sin dall'inizio un percorso di sviluppo locale, ma certo esso diventa più importante nella fase di consolidamento. Vi sono poi dei casi, come nella formazione di sistemi produttivi locali specializzati in attività ad alta tecnologia, o nei progetti di sviluppo di città medio-grandi, in cui il suo ruolo è determinante sin dalla fase iniziale. La produzione di questo tipo di 133 Ibidem p.22 134 Ibidem p.23 109


beni collettivi locali può riguardare infrastrutture e servizi che sono oggetto di specifiche politiche pubbliche intraprese dai governi locali e regionali, anche sulla base di programmi nazionali o europei (vie di comunicazione, aree attrezzate o parchi tecnologici, ecc.). Si tratta qui di veri e propri beni pubblici aperti al consumo di tutti i possibili fruitori (non escludibilità). Il loro uso da parte di alcuni soggetti non diminuisce inoltre la disponibilità per alcuni fruitori (non rivalità nel consumo). In altri casi, specifici servizi sono il frutto della cooperazione tra i soggetti economici (servizi alle imprese promossi e gestiti dalle organizzazioni di categoria)135. Un ulteriore caso è costituito dalla disponibilità di un ambiente con particolari qualità naturalistiche (per esempio foreste, fiumi, coste) o storico-artistiche. Si tratta di beni comuni che sono sfruttabili da tutti i soggetti, in particolare da quelli locali, ma che possono deperire se il consumo individuale non è disciplinato (rivalità del consumo). Il contributo dello sviluppo locale consiste qui nella capacità di regolare l'uso delle risorse comuni, facendone un punto di forza, invece di lasciarle sottoutilizzate, o di farle deperire per mancanza di controllo sull'uso da parte dei soggetti privati. Trigilia ritiene necessario sottolineare che una più efficace produzione di questi beni per il contesto locale richiede in genere un'elevata capacità di cooperazione informale e formale tra i diversi soggetti collettivi pubblici e privati136. Infatti, una possibile conseguenza di relazioni non cooperative è il diffondersi di legami politici clientelari, di collusioni. Occorre tenere presente che ci possono essere anche reti sociali dove vi siano conseguenze favorevoli per coloro che ne fanno parte, ma negative per lo sviluppo locale. In questo senso si può dire che la produzione intenzionale di beni collettivi dedicati, che rispondono cioè a specifiche esigenze di creazione di economie esterne per lo sviluppo locale, richiede una produzione congiunta tra soggetti pubblici e privati: un'elevata capacità di coordinamento tra soggetti collettivi137. I meccanismi di produzione di beni collettivi hanno un importante elemento in comune: il loro funzionamento è influenzato dall'esistenza di relazioni sociali personali tra i soggetti coinvolti, che facilitano la cooperazione. Si tratta di relazioni extra-economiche che incidono sullo sviluppo economico sia direttamente nel processo produttivo, sia indirettamente attraverso la formulazione di politiche pubbliche o di interventi che creano beni collettivi dedicati per il contesto locale. In entrambi i casi il ruolo delle reti di relazioni sociali è di particolare rilievo, perché rende possibili transazioni complesse e rischiose sul piano economico o politico; fornisce risorse di fiducia che consentono ai soggetti di cooperare anche in presenza di condizioni di incertezza e di carenza di informazioni138. 135 Ibidem 136 Ibidem 137 Ibidem 138 Ibidem 110

p.24 p.25 p.26 p.28

Si comprende quindi l'importanza del capitale sociale per innescare processi di sviluppo locale. Attraverso il capitale sociale si alimenta la formazione di risorse cognitive, come le informazioni, o normative, come la fiducia, che permettono agli attori di realizzare obiettivi che non sarebbero altrimenti raggiungibili, o lo sarebbero a costi molto più alti. Spostandosi dal livello individuale a quello aggregato, si potrà poi dire che un determinato contesto territoriale risulta più o meno ricco di capitale sociale a seconda che i soggetti individuali o collettivi che vi risiedono siano coinvolti in reti di relazioni cooperative più o meno diffuse. Quando si parla di un territorio ben fornito di capitale sociale, si fa riferimento a reti cooperative con effetti positivi per la collettività. Ciò non vuol dire, però, che in assenza di tali effetti manchi necessariamente capitale sociale, ma ciò che interessa è quel capitale sociale che permette processi di sviluppo locale139. Il capitale sociale non fa differenza tra un’impresa e l’altra; ma crea una differenza strutturale tra tutte le imprese locali e tutte le imprese esterne, dando dunque una forma territoriale alla concorrenza. Attraverso la mediazione del capitale sociale i territori si fanno concorrenza in quanto territori o, meglio, in quanto società locali dotate ciascuna di storia e specificità differenti140. In questa produzione cooperativa di beni collettivi, le comunità Open Peer-to-Peer possono ricoprire un ruolo fondamentale. La ragione è comprensibile, dato che le loro attività sono cooperative e riguardano sempre la produzione di beni collettivi (siano essi risoluzione a problemi, progetti, beni fisici, ecc.). Nel contesto dello sviluppo locale, le comunità Open Peer-to-Peer mettono quindi in moto processi intenzionali di produzione di beni collettivi, in special modo quando le loro attività sono esplicitamente indirizzate al miglioramento delle proprie dimensioni locali141. Ma non solo. Una volta che una comunità Open Peer-to-Peer si è costituita e ha svolto la propria attività con successo, è stato costituito anche un capitale sociale e intellettuale condiviso, che rappresentano le "dotazioni originarie" di cui parla Trigilia, che possono essere utilizzate per nuove attività cooperative. Le comunità Open Peer-to-Peer possono quindi svolgere attività direttamente indirizzate alla dimensione locale, producendo così beni collettivi, ma anche se non fossero interessate alla dimensione locale, produrrebbero comunque capitale sociale che può essere utilizzato in seguito. Non solo le comunità Open Peer-to-Peer possono essere un fattore di sviluppo locale, ma anche lo stesso software open source può esserlo. In questo modo, si possono favorire comunità Open Peer-toPeer oppure utilizzare le comunità già esistenti e 139 Ibidem p.30 140 Rullani (2002b) 141 Come ad esempio nei casi Honeybee network, BBC Action Network, BBC Neighbourhood Gardener, Grameen Bank, Terra Madre, Open Health, Self Help Groups (SHG), Solar Roof


portare parte dei loro risultati in un determinato contesto locale. L'iniziativa basata sulla filosofia Open Source della Regione dell'Extremadura è un esempio dei recenti progetti in cui le autorità locali scelgono il software open source per abilitare una partecipazione della popolazione a tutti i livelli, in modo da garantire un accesso libero (open access) alle risorse amministrative, tecnologiche, economiche ed educative regionali. In questo caso specifico, le amministrazioni locali erano consapevoli che uno sviluppo locale di successo non sarebbe stato possibile senza un coinvolgimento ampio. L'idea che ebbero era di non decidere una strategia imponente top-down, ma di gettare le fondamenta per attività collaborative e incoraggiare le persone a prenderne parte. La costruzione di una piattaforma comune ha permesso la nascita di altre attività economiche di successo, portando la religione a condizioni migliori142.

sia tra soggetti individuali che collettivi. Si formano più facilmente reti di relazioni che alimentano la fiducia reciproca e favoriscono la cooperazione. Infatti, a livello locale funzionano meccanismi di controllo sociale che permettono di individuare e isolare chi rompe la fiducia attraverso una rapida circolazione dell'informazione. Da questo punto di vista, le appartenenze radicate costituiscono una forte pressione sul comportamento individuale, contribuendo a limitare l'opportunismo.

Solitamente la generazione per appartenenza si basa su legami particolarmente intensi e frequenti, legami cioè "forti" come quelli descritti da Granovetter. Per quanto riguarda le reti individuali, legami di questo tipo hanno vantaggi e svantaggi. Tra i primi vi è la possibilità di cooperazioni più complesse e rischiose, che viene ad essere maggiormente sostenuta da un più forte cemento fiduciario. Tra gli svantaggi va però valutato il rischio di una chiusura eccessiva delle reti, che potrebbe limitare le informazioni circolanti, e quindi influire negativamente sui processi di aggiustamento economico144. I legami di appartenenza generano capitale sociale

I meccanismi di formazione del capitale sociale basati sulla sperimentazione, a differenza dei precedenti, si basano sui legami "deboli". Si formano cioè relazioni meno intense e più occasionali. Ad esempio, un'impresa esterna o locale può stabilire rapporti con altre aziende in una determinata area, e se questi si concludono con soddisfazione possono essere ripetuti nel tempo. Si formano così delle comunità professionali, attraverso le quali circolano più facilmente informazioni e conoscenze, e viene valutata la reputazione dei soggetti coinvolti. Anche qui il controllo sociale esercitato attraverso le reti è poi rilevante, ma è in genere più limitato al comportamento professionale. Vantaggi e svantaggi sono opposti rispetto al capitale sociale legato all'appartenenza. Da un lato, in queste reti circolano più informazioni che facilitano l'apertura verso nuove conoscenze, anche esterne al contesto locale. Ciò favorisce l'accesso alle conoscenze più codificate, che sono importanti per l'aggiornamento del sistema produttivo locale. D'altra parte, reti più basate su legami deboli sono meno efficaci nel processo di trasformazione del sapere codificato in uno specifico sapere contestuale, che presuppone rapporti più stretti e frequenti tra i soggetti coinvolti. Per Trigilia, la generazione per sperimentazione è poi particolarmente importante nei rapporti tra soggetti collettivi. Quando manca una comune appartenenza è più difficile cooperare per la produzione di beni collettivi. Ciascun attore può fidarsi poco degli altri, e la sua stessa base giudica con sospetto eventuali forme di collaborazione con altri soggetti, specie se non sono ideologicamente vicini. Trigilia conclude dicendo che affinché l'innovazione possa svilupparsi efficacemente, sembra necessaria una composizione bilanciata tra legami deboli e forti145. Quali sono le condizioni che favoriscono un uso delle reti con effetti positivi sullo sviluppo locale? Trigilia propone due aspetti di particolare rilievo: una cultura condivisa e il ruolo delle istituzioni politiche. Al fine della nostra analisi, risulta più interessante il ruolo giocato dalla cultura condivisa. La cultura ereditata dal passato conta nell'orientare i comportamenti dei soggetti. Essa influenza la morfologia delle reti, perché ne definisce i confini e inoltre condiziona i contenuti delle relazioni146.

142 Vaca, A (2005) 143 Trigilia (2005) p.32 144 Ibidem p.34

145 Ibidem pp.35-36 146 Ibidem p.41

4.8.6.3. Generazione di capitale sociale a livello locale Trigilia individua due processi ideal-tipici di generazione di capitale sociale e relazionati con i processi di sviluppo locale, a cui corrispondono reti di relazioni con caratteristiche diverse. Un primo tipo è legato a quelle dotazioni originarie, che sono alimentate da identità collettive particolarmente radicate in un certo territorio. In questo caso l'origine del capitale sociale è più esterna alla sfera economica, ma vi si estende facilitandone il funzionamento. L'altro meccanismo si basa invece su attività economiche e di lavoro che, anche attraverso la loro ripetizione nel tempo, vanno al di là di rapporti meramente contrattuali, generando legami sociali più duraturi. Egli definisce il primo processo – che va dalla società all'economia – come generazione per appartenenza, e il secondo – che si muove in senso inverso – generazione per sperimentazione143. Questa distinzione è simile a quella fornita da Pizzorno tra "capitale sociale di solidarietà" e "di reciprocità", anche se è più focalizzata sulle relazioni tra capitale sociale e attività economiche.

111


Come già accennato, il capitale sociale delle comunità Open Peer-to-Peer che è utile per lo sviluppo locale, viene formato in due modi. Una comunità Open Peer-to-Peer può interessarsi direttamente alla produzione di determinati beni collettivi di cui vi è necessità a livello locale (generando al contempo capitale sociale utile per lo sviluppo locale in generale), oppure, se le sue attività hanno altri obiettivi, generano comunque del capitale sociale che può essere utile in futuro. Possono quindi generare capitale sociale per sperimentazione e per appartenenza. Inoltre, sono caratterizzate sia da legami deboli che da legami forti e si basano su una cultura condivisa. Le comunità Open Peer-to-Peer hanno una cultura della cooperazione, della condivisione, una economia del dono e una forte componente etica. Hanno quindi le giuste caratteristiche, la giusta cultura, per poter utilizzare le loro reti sociali al meglio, per uno sviluppo locale efficace ed equilibrato.

112


5. Reti collaborative complessi

5.1. Il bazaar e la complessità Una analisi molto importante del fenomeno del software open source viene da Ko Kuwabara, che utilizza alcuni concetti provenienti dalla Teoria della Complessità. Nonostante la Teoria della Complessità non sia ancora giunta ad un livello di integrazione completo delle differenti teorie che la formano, questo collegamento che effettua Kuwabara amplia notevolmente gli strumenti di analisi delle comunità Open Peer-to-Peer. Kuwabara prende come esempio Linux, rappresentando questo il software open source per eccellenza, quello che ha avuto maggior successo in termini di utenti utilizzatori e membri della comunità di programmatori. Spesso le due figure coincidono ma, sebbene il progetto sia iniziato dall'attività di utentiprogrammatori, ha avuto talmente tanto successo da ampliare la sua comunità anche a utenti non esperti (se non in misura minima) o comunque non programmatori. Linux rappresenta non solo il simbolo del software open source e quindi della filosofia Open Source, ma anche come questa possa espandersi nella società e in altri ambiti. Linux merita un luogo speciale all'interno della storia del software open source per molte ragioni. Per prima cosa, la sua qualità come un sistema operativo di prima categoria lo pone ai più alti vertici di progettazione di software. Un sistema operativo è la base software sulla quale sono eseguite tutte le applicazioni degli utenti. Basato su istruzioni notevolmente complesse, controlla gli strumenti e gestisce il flusso di informazioni e comunicazione fra i vari componenti del computer, stanziando le risorse di sistema del computer fra i vari programmi in esecuzione. Il suo kernel (o nucleo) da solo consiste in quasi un milione di linee di codice nel caso di Linux, con altri milioni di linee di codice nei programmi periferici che costituiscono una distribuzione commerciale di Linux. La progettazione e sviluppo di un software complesso come un sistema operativo è un compito scoraggiante anche per le più grandi aziende, e ancora di più per un piccolo gruppo di hacker appassionati sparsi su tutta la rete di Internet. Per seconda cosa, le dimensioni del progetto di Linux sono semplicemente senza precedenti nella storia dello sviluppo di software. In certi periodi, migliaia di programmatori hanno speso volontariamente il loro tempo e sforzo nello sviluppo quotidiano di numerosi componenti e funzioni che comprendono il sistema operativo. Secondo una stima, il progetto ha coinvolto circa

come

sistemi

adattativi

40,000 persone in tutto il mondo1, e nessuno di questi volontari è stato compensato finanziariamente per il loro contributo. Nondimeno, il progetto di Linux è cresciuto fino alla sua notevole dimensione senza una organizzazione formale attorno ad una autorità centrale. Fred Brooks, un'autorità sull'ingegneria del software, riscontrò che, proprio a causa dei crescenti costi di coordinazione, il tempo di sviluppo aumenta esponenzialmente col numero dei programmatori presenti in un team progettuale2: è quindi impossibile una progettazione collettiva su larga scala, soprattutto senza una gestione centralizzata. Nel mondo delle grandi imprese, la legge di Brook viene considerata come una verità evidente. Ma Linux sfida questa concezione con successo: non è mai esistita una organizzazione centralizzata che agisse da intermediaria delle comunicazioni tra Torvalds e le migliaia di partecipanti, né team progettuali di piccole dimensioni e con responsabilità e compiti prescritti, alle quali vengono assegnati i partecipanti. Invece, sin dall'inizio, ogni persona è stata lasciata libera di decidere dove impegnare il proprio intervento, anche se ciò avrebbe potuto comportare un rischio potenziale di difficoltà di coordinazione. Nonostante ciò, il progetto di Linux ha proceduto ad una velocità straordinaria, con aggiornamenti e versioni rilasciate su una base quotidiana e settimanale. Infine, nonostante la complessità, le dimensioni e la velocità di sviluppo del progetto, Torvalds e i suoi co-sviluppatori hanno realizzato con successo un sistema operativo potente tal quale Linux è oggi, che molte persone considerano migliore di Microsoft Windows (il sistema operativo più diffuso, il classico caso di software proprietario) in molti aspetti della performance, incluso l'affidabilità, una qualità spesso desiderata ma di difficile realizzazione in sistemi operativi. Non è sorprendente che, oggi, Linux abbia una base di utenti valutata in circa più di tre milioni di utenti in tutto il mondo, una posizione che, per essere raggiunta, occorse il doppio del tempo a Microsoft3. Quindi, anche se la qualità del kernel di Linux è di per sé significativa4, quello che è particolarmente significativo è il fatto che Linux abbia realizzato un standard di qualità superiore a quello di software proprietario, con una 1 2 3 4

Kuwabara (2000) http://en.wikipedia.org/wiki/Brooks%27_law Kuwabara (2000) L'importanza di Linux, per il movimento Free Software e Open Source, risulta proprio nell'aver fornito il kernel mancante al sistema operativo sviluppato dalla Free Software Foundation 113


organizzazione in cui nessuno all'epoca credeva potesse avere successo. Anche se Torvalds stesso è un programmatore dotato d'ingegno, come molti dei suoi cosviluppatori, una cosa è produrre un prodotto di alta qualità per il piacere personale, e completamente una altra cosa è costruire un sistema che sorpassi in performance i prodotti commerciali. Linus Torvalds, e i suoi co-sviluppatori, sono riusciti a sviluppare un progetto talmente complesso come quello di un kernel attraverso una metodologia progettuale (ma anche organizzativa, dato che riguarda una intera comunità) differente da quella dominante nel mondo dell'informatica. Ciò che è importante nella storia dello sviluppo di Linux, secondo Kuwabara, è che la sua particolare metodologia progettuale sia riuscita a risolvere problemi complessi in maniera innovativa e al di là delle aspettative di successo. Una metodologia che Eric Raymond ha definito a bazaar, contrapponendola a quella a cattedrale. Da un lato abbiamo quindi il modello a cattedrale, comune nei progetti di sviluppo di natura commerciale, caratterizzato da una pianificazione centralizzata di tipo top-down e messa in pratica da team progettuali specializzati con calendari ben definiti. Una organizzazione razionale, basata sull'efficienza, caratterizzata da una gestione lineare del progetto. Dall'altro lato abbiamo il modello a bazaar, tipico del progetto di Linux, col suo sviluppo decentrato guidato dai capricci di appassionati volontari e poco altro. In contrasto all'isolamento sereno della cattedrale, il bazaar rappresenta il clamore stesso. Chiunque è benvenuto - più persone, maggiore il rumore creato, meglio è. È una comunità di persone e per le persone, una comunità per tutti dove condividere. può apparire caotica e senza struttura, una comunità dove nessuno è singolarmente in carica. Le caratteristiche più importanti del modello a bazaar risiedono nel coinvolgimento di un alto numero di partecipanti, e di conseguenza una totale apertura del progetto (mentre nella cattedrale i partecipanti sono pochi, interni all'impresa, che mantiene quindi il progetto chiuso e segreto verso l'esterno); su una architettura modulare (e non monolitica come nella cattedrale) che possa fungere da enabler della collaborazione collettiva; sul riutilizzo delle risorse e sulla flessibilità; sulla pubblicazione rapida e frequente del codice, che permette ai partecipanti di trovare gli errori presenti non appena questi si presentano. Data una base di utenti e sviluppatori grande come la comunità di Linux, Torvalds può, in tutta sicurezza e tranquillità, contare su altre persone affinché scrivano ed esaminino il codice per lui. Può ricevere versioni multiple del codice da persone che sono meglio informate o interessate nello specifico componente. Il suo compito è semplicemente quello di selezionare il codice migliore per inserirlo nella versione successiva.

In definitiva, il suo è un ruolo di enabler della collaborazione collettiva grazie alla sua visione della direzione del progetto. Lo sviluppo del kernel è essenzialmente un processo competitivo in cui ogni partecipante cerca di offrire il codice migliore. Anche se nessuno di loro è compensato finanziariamente, Raymond pensa che questi ottengano abbastanza soddisfazione dalla reputazione ricevuta con il loro sforzo e l'abilità guadagnata da un confronto reciproco. In effetti, la soddisfazione attraverso la reputazione è collegata direttamente all'interesse personale degli hacker. Secondo Kuwabara, nello stesso modo in cui forze della natura hanno creato l'occhio umano, il processo selettivo di sviluppo e debugging5 parallelo hanno creato, linea dopo linea di codice, un sistema operativo coerente e stabile, caratterizzato da una complessità e qualità ben oltre un progetto ordinario. Quello che è dietro alle dinamiche del progetto di Linux, è l'evoluzione stessa, un sistema ecologico dove una serie di agenti indipendenti cercano di massimizzare gli utili personali producendo un ordine spontaneo e in grado di auto-correggersi, più elaborato ed efficiente di quanto avrebbe potuto raggiungere qualsiasi pianificazione centralizzata. Questa visione evoluzionista si spiega se si pensa che l'evoluzione non sia solo un fenomeno biologico, ma più generalmente, una legge di probabilità che si applica anche ai cambiamenti in popolazioni nonbiologiche. Per Kuwabara, questa capacità di gestire la complessità è una conseguenza del modello a bazaar adottato: Linux può essere visto come sistema adattivo complesso (su due livelli distinti di interazione), il cui sviluppo è basato sull'evoluzione e non su una progettazione, almeno non nel senso tradizionale del termine. Ad un livello abbiamo il codice sorgente. Linux, come tutti gli altri sistemi operativi, consiste di numerose linee di codice organizzate in gerarchie logiche di unità distinte e sub unità. Le unità di codice a turno interagiscono nell'eseguire un compito, formando una immensa rete di funzioni interdipendenti, anche per le operazioni più basilari. Al livello globale del sistema operativo, questa ricca connettività permette al sistema operativo di trattare una larga serie di input dall'utente e rispondere con un ordine ugualmente ampio di comportamenti logici in una maniera notevolmente interattiva. Ovviamente, il sistema operativo è solamente interattivo nel senso che è progettato specificamente dai suoi sviluppatori. E, allo stesso modo, evolve solamente se gli sviluppatori lo modificano. Ad un secondo livello della struttura gerarchica, quindi, abbiamo la comunità di sviluppatori ed utenti che formano la loro rete di agenti interagenti a livello locale. L'interesse di Kuwabara nell'evoluzione di Linux ha due pertanto aspetti. Il primo aspetto riguarda la pura e semplice complessità del sistema operativo.

5 114

http://en.wikipedia.org/wiki/Debugging


Fig. 37: Ciclo di retroazione (Fonte: von Bertalanffy 1971)

Dato che la performance di un sistema operativo si basa sulla stretta interazione tra componenti ermeticamente integrati, un bug (errore) apparentemente innocuo, in una sola linea di codice, potrebbe provocare effetti inaspettati e difficilmente rintracciabili in altri luoghi del sistema operativo. Allo stesso tempo, questo progetto logico e densamente interconnesso del sistema operativo è associato con una comunità in costante divenire. In breve, Linux è un sistema complesso sia dal lato del progetto (il codice sorgente) che da quello della comunità che lo sviluppa. Sono complesse la organizzazione della comunità e la progettazione del codice.La complessità del sistema operativo di Linux è una funzione della comunità che si evolve, le sue diverse e mutevoli necessità e richieste. Ciò che è interessante e straordinario di Linux da questo punto di vista è che la sua qualità sono derivate, non dai particolari principi progettuali del singolo kernel, ma dalle interazioni fra i numerosi partecipanti. Così, la complessità di Linux è cresciuta di pari passo con la crescita della comunità: l'emergenza del progetto e l'auto-organizzazione della comunità sono strettamente collegate.

5.2. Comunità Open Peer-to-Peer come sistemi complessi Linux, e quindi anche le altre comunità Open Peerto-Peer, sono sistemi complessi in grado di affrontare la complessità. Ma come possiamo definire la complessità? Uno dei più antichi sogni del genere umano è ridurre la complessità alla semplicità. Il desiderio di semplicità ha a lungo guidato i vari sforzi di spiegare il mondo in termini di sistemi semplici, andamenti lineari, leggi riducibili a semplici equazioni. Ma la complessità è una dimensione da cui è impossibile prescindere. Il termine complesso significa “risultante dall'unione di varie parti; composito, eterogeneo”6. Etimologicamente il termine complessità deriva dal participio passato del verbo latino complector, che significa intrecciare insieme, cingere, riunire, raccogliere (plexus, 'interecciato')7. La complessità, dunque, è fatta di intrecci, interconnessioni, del reciproco intersecarsi di parti 6 7

Taylore (2005) p.176 Idem

ed elementi diversi fra loro. Come afferma Taylor, "la complessità non solo ha mille implicazioni; è essa stessa un fitto processo di implicazione. La complicazione implica e l'implicazione complica"8. Ludwig von Bertalanffy, uno dei fondatori della Teoria Generale dei Sistemi, dà questa definizione di sistema: "un sistema può essere definito come un complesso di elementi interagenti. Interazione significa che gli elementi, p, sono connessi da relazioni, R, in modo tale che il comportamento di un elemento p in R è differente da quello che sarebbe il suo comportamento rispetto ad un'altra relazione R1"9. Un sistema complesso può quindi essere compreso come una rete di interazioni fra vari elementi, definizione questa che si ricollega a quelle definizioni sociologiche danno del termine comunità. Se la struttura di una comunità si basa su una rete di interazioni sociali, possiamo vedere la comunità come un sistema complesso, e cercare di descrivere il suo funzionamento attraverso le teorie che cercano di descrivere la complessità10. La rete è quindi l'architettura della complessità. Mark Taylor descrive la rete come la forma di una cultura che sta emergendo, e sviluppa una metafora architettonica che spiega la relazione tra la rete e la complessità: "laddove i muri dividono e isolano, cercando d'imporre l'ordine e il controllo, le reti collegano e mettono in relazione, immergendo tutti in connessioni multiple, mutevoli e che si definiscono a vicenda, senza che nessuno ne detenga il controllo"11. Per von Bertalanffy un sistema si dice complesso quando le interazioni tra i suoi elementi costitutivi formano dei cicli di retroazione (feedback loop). Per retroazione si intende un processo circolare in cui una parte dell'uscita viene rinviata all'ingresso come informazione relativa alla forma preliminare della risposta. La retroazione è negativa quando è di tipo frenante, cioè tendente a garantire stabilità. In questo caso, una deviazione rispetto all'equilibrio è inviata all'indietro, come informazione, attraverso il meccanismo di retroazione, sino a che l'equilibrio non è ripristinato. Tale processo è alla base, per Idem von Bertalanffy L., "Teoria generale dei sistemi. Fondamenti, sviluppo, applicazioni", ISEDI, milano 1971, p.23 10 Il concetto di rete, quindi, è estendibile dalla social network analysis alle teorie della complessità. Non è quindi una semplice metafora ma una prospettiva di analisi sistemica condivisa 11 Taylor (2005) p.28 8 9

115


esempio, sia da fenomeni biologici, come l'omeostasi, sia di numerosi dispositivi tecnologici. Il termostato che regola la temperatura di una casa, ad esempio, alza il riscaldamento centrale quando la temperatura scende al di sotto di un valore prefissato; quando essa la supera, il termostato determina invece una sottrazione di calore.

O, più generalmente, un ciclo di retroazione può anche essere visto come una serie di eventi che si influenzano a vicenda (fig.39).

La retroazione positiva, al contrario, è di tipo rinforzante, autostimolante. Essa ha un effetto destabilizzante, secondo la logica "a chi ha, sarà dato": anziché smorzare le piccole perturbazioni, come farà la retroazione negativa, tende ad amplificarle sempre di più. È il fenomeno che si verifica quando un suono, emesso da un altoparlante, rientra nel microfono e viene rapidamente amplificato sempre di più12. I meccanismi di retroazione possono innescarsi in un sistema in due casi: • quando le interazioni tra gli elementi sono non-lineari, e si ha che l'elemento A influisce sull'elemento B, e a sua volta B influisce su A, garantendo così un ritorno di informazione. Un esempio è dato dalla schismogenesi, ossia una situazione in cui ciò che fa A determina in B un inasprimento del comportamento, cui A reagisce. La schismogenesi può essere simmetrica oppure complementare. È simmetrica, quando A e B si comportano essenzialmente nello stesso modo: A fa un passo in una certa direzione, il che spinge B a farne uno più lungo nella stessa direzione, lo stesso fa A, e così via. È, invece, complementare, quando A e B si comportano in modo opposto, come nella relazione tra un individuo prepotente ed un altro remissivo: A, l'individuo prepotente, assume un atteggiamento dispotico, B, l'individuo remissivo, lo subisce così umilmente che A diventa ancora più dispotico, e via di conseguenza13; A→←B •

quando si hanno delle reazioni a catena, per cui A interagisce con B, B con C, C con D, e così via fino a Z, che a sua volta interagisce con A, chiudendo la catena. In questo modo, anche se le interazioni sono lineari, la chiusura dell'anello garantisce un effetto di retroazione. Un processo di questo tipo è l'autocatalisi chimica, dove ogni molecola catalizza la produzione di un'altra molecola, in un ciclo chiuso che permette all'insieme di catalizzare se stesso14. A → B → C → D → ... → Z → A → ...

12 Bertuglia, Staricco (200) 13 Idem 14 Idem 116

Fig. 38: Formazione di un anello di retroazione in un sistema i cui elementi hanno, l'uno con l'altro, interazioni di tipo solo lineare (Fonte: Capra 2001)

Fig. 39: Ciclo di retroazione tra eventi

Fino a pochi decenni fa, un sistema veniva definito complesso quando il numero dei suoi componenti e, soprattutto, delle loro interazioni era molto elevato. Esistono, però, sistemi a molti componenti, quali quelli coinvolti nei fenomeni collettivi del moto ondoso, della fisica dello stato solido, della termodinamica, che non possono essere considerati complessi ma solo "complicati": il loro comportamento è privo di sorprese e prevedibile, purché analizzato con tecniche matematiche di tipo statistico e probabilistico. Viceversa, sistemi costituiti da pochi elementi, ma con interazioni non-lineari tra questi elementi, presentano un comportamento imprevedibile e ricco di sorprese. La definizione di un sistema complesso basata sull'elevato numero di componenti ed interazioni non è allora né sufficiente, (sistemi costituiti di pochi elementi possono esibire un comportamento complesso) né necessaria (sistemi a molte componenti possono esibire un comportamento prevedibile).


Per questo, oggi, l'origine della complessità di un sistema viene vista nella presenza di cicli di retroazione nelle interazioni tra gli elementi costitutivi. Le reti di interazioni possono prendere molte forme, ma la forma a ciclo di retroazione è quella che garantisce un comportamento complesso al sistema. Nei sistemi complessi, si ha in genere compresenza di retroazioni negative e positive, ma sono soprattutto queste ultime, grazie al loro effetto amplificatore, a determinare le caratteristiche più interessanti di tali sistemi. Innanzitutto, esse fanno sì che gli effetti di un'azione locale siano in genere non solo locali. In realtà, questa è una proprietà di tutti i sistemi, anche di quelli semplici, ed è dovuta al fatto che gli elementi costitutivi non sono isolati, ma in interazione. Analogamente, in una ragnatela, la vibrazione di un nodo può trasmettersi ad un altro nodo, anche lontano, grazie ai fili che li collegano. Nei sistemi complessi, però, la non-linearità può rinforzare una perturbazione locale fino a generare una cascata di effetti che interessano l'intero sistema. Inoltre, le retroazioni positive comportano che "il tutto sia più che la somma delle parti". "Il significato dell'espressione "l'insieme è maggiore della somma delle parti", consiste semplicemente nell'affermare che le caratteristiche costitutive di un sistema complesso non sono spiegabili a partire dalle caratteristiche delle parti isolate15. Nei sistemi semplici, caratterizzati da interazioni lineari, il tutto è esattamente uguale alla somma delle parti: ogni componente è autonoma rispetto alle altre, pur nei limiti dell'interazione. Ad esempio, il suono è un sistema lineare, ed ecco perché siamo in grado di distinguere quello di un oboe da quello degli strumenti a corde che lo accompagnano. Le onde sonore si sovrappongono e conservano tuttavia identità separate. Nei sistemi complessi, invece, la presenza di retroazione e di mutua dipendenza comporta che le equazioni differenziali che li descrivono siano di tipo non-lineare. Tali equazioni, a differenza di quelle lineari, possono essere risolte in termini analitici solo in alcuni casi; in generale, esse richiedono un'integrazione per via numerica, tramite l'uso di un calcolatore. Proprio la necessità di un adeguato supporto informatico costituisce uno dei motivi per cui solo di recente è stato avviato uno studio sistematico dei sitemi complessi. Inoltre, le equazioni differenziali non-lineari non godono della proprietà fondamentale secondo cui una combinazione lineare di soluzioni è ancora una soluzione. Ciò significa che il comportamento di un sistema complesso non è uguale alla somma dei comportamenti delle sue parti; anzi, è qualcosa di più, e di inaspettato. La non-linearità determina l'emergere di proprietà e comportamenti controintiuitivi e apparentemente acasuali (quali catastrofi, biforcazioni, creazione di novità, autoorganizzazione), che non possono essere dedotti 15 Idem

da un'analisi degli elementi costitutivi. Secondo Casti16, l'essenza dei sistemi complessi risiede proprio nella loro capacità di generare "sorpresa", ossia di comportarsi in un modo che va contro le nostre previsioni17. Se è vero che l'intero è più ed altro che la somma delle parti, ecco che allora l'approccio analiticoriduzionista risulta inadeguato per lo studio di questi sistemi, ed occorre ricorrere ad un approccio olistico. Non è possibile cercare di studiare le proprietà di un sistema complesso isolando l'uno dall'altro gli elementi componenti: tali proprietà, infatti, derivano da quei rapporti di mutua dipendenza tra gli elementi, dovuti alla nonlinearità delle loro interazioni; rapporti che vengono meno proprio nel momento della scomposizione in parti isolate. Un sistema complesso, dunque, non può essere scomposto in parti senza perdere aspetti essenziali del suo comportamento. Comportamento che appare ricco di "sorprese", anche quando il sistema sia costituito da pochi elementi, purché essi siano legati da interazioni non-lineari. La natura di sistema complesso delle comunità Open Peer-to-Peer può essere compresa anche grazie alla presenza di cicli di retroazione. Ad esempio, in una comunità di sviluppo di software open source, un ciclo di retroazione positiva è quello che, grazie alla segnalazione degli errori, permette uno sviluppo più rapido del programma (fig. 40). Un ciclo di retroazione negativa è invece quello che porta il nucleo centrale ad accorgersi che il malcontento dei membri della comunità influisce negativamente sulla qualità del software prodotto: in questo modo il nucleo centrale può intraprendere iniziative per cambiare la direzione generale della comunità, al fine di coinvolgere maggiormente i partecipanti. Uno dei tanti cicli di retroazione positiva di una comunità Open Peer-to-Peer il cui bene collettivo viene condiviso liberamente (anche con chi non fa ancora parte della comunità), è quello rappresentato in fig. 42. Questo ciclo si basa sui contributi individuali apportati e sulla etica che li regola. Un maggior contributo individuale (in termini di intensità e/o di numero di partecipanti contribuenti) porta ad una maggiore rapidità e qualità di produzione del bene collettivo (l'obbiettivo dell'attività della comunità). Ciò, a sua volta, porta a due conseguenze: una interna alla comunità, l'altra esterna. La conseguenza interna è data dall'aumento della reputazione di chi ha fornito un contributo individuale maggiore: vista la qualità dell'attività svolta, si premia chi ha speso un maggiore impegno. A sua volta, questa reputazione fornisce una spinta verso gli altri partecipanti, che la desiderano, fornendo un esempio di comportamento e sentimento corretto all'etica della comunità (nel caso delle comunità Open Peer-to-Peer, l'etica Hacker). 16 Casti, John L., (1994) Complexification. Explaining a Paradoxical World Through the Science of Surprise. HarperCollins, New York 17 Bertuglia, Staricco (200) 117


Questa etica porta loro a impegnarsi con maggiore intensità per aumentare la propria reputazione e ricambiare il "dono" ricevuto dall'opera degli altri partecipanti. All'esterno della comunità, invece, nella società, una maggiore qualità o rapidità di produzione del bene collettivo garantiscono le condizioni necessarie per una sua ampia diffusione, portando con sé anche i valori dell'etica hacker che hanno guidato la sua produzione. In questo modo il bene collettivo diffonde con sé i valori della comunità. A questo punto un maggior numero di persone esterne alla comunità che utilizzano il bene collettivo e ne approvano i valori entraranno a far parte della comunità con un contributo personale per restituire il "dono" ricevuto del bene collettivo. Inoltre, si è visto come il comportamento di un sistema complesso porti a "sorprese", a risultati inattesi. Lo sviluppo di Linux rappresentò una enorme sorpresa, poiché nessuno si aspettava che una organizzazione progettuale a bazaar potesse riuscire nel compito di realizzare un kernel. In realtà è stata proprio questa organizzazione basata su un sistema complesso (la comunità) che lo a reso possibile.

Fig. 40: Esempio di retroazione positiva in una comunità di software Open Source

5.3. Auto-organizzazione dei sistemi complessi Nei sistemi complessi, la non-linearità, con il suo effetto amplificativo, è alla base di proprietà e comportamenti controintiuitivi e apparentemente acasuali, che non possono essere dedotti da un'analisi degli elementi costitutivi. Tra queste proprietà, la più interessante è costituita dalla capacità di auto-organizzazione: i sistemi complessi sono in grado di dotarsi di una struttura spaziale e temporale ordinata e coerente, senza necessità di un controllore esterno, ma semplicemente sulla base dello schema delle interazioni tra gli elementi costitutivi. E questo benché tali elementi agiscano ognuno secondo il cosiddetto "principio di minima resistenza", ossia cercando di ottenere il massimo beneficio con il minimo sforzo18. Le modalità con cui un sistema complesso si auto-organizza dipendono quindi da come siano strutturate le interazioni tra i suoi elementi, che permettono loro di entrare in relazione reciproca e di scambiare "informazioni", ossia di "organizzarsi" determinando il comportamento del sistema. Nel caso dei sistemi complessi, quest'organizzazione non è imposta dall'esterno: non vi è un supervisore, un "creatore" esterno che, con una precisa intenzionalità progettuale, prescriva come gli elementi costitutivi debbano interagire, affinché il sistema si comporti secondo i suoi desideri.

18 Idem 118

Fig. 41: Esempio di retroazione negativa in una comunità di software Open Source


Fig. 42: Cicli di retroazione tra comunità Open Peer-to-Peer e società

119


L'organizzazione emerge spontaneamente, è il sistema stesso che, per così dire, la "sceglie", tra le molte possibili: si parla pertanto di autoorganizzazione. Questo però, non vuol dire che siano i singoli elementi costitutivi del sistema a decidere, consapevolmente, quale organizzazione deve essere assunta. Come non esiste un supervisore esterno, così non esiste neppure un progetto organizzativo interno al sistema, di cui tali elementi siano informati ed in conformità al quale agiscano. Anzi, essi non hanno l'esigenza che vi sia un ordine complessivo, ed il loro comportamento è prettamente individualistico, improntato al "principio di minima resistenza" (definito in analogia con i fenomeni di motto convettivo): ogni componente cerca di ottenere per sé il massimo beneficio immediato con il minimo dispendio di energie. Tuttavia, a causa delle amplificazioni della retroazione positiva, un elemento del sistema non può sapere, a priori, quali azioni gli porteranno più vantaggio; deve procedere per tentativi, e deve essere pronto a correggersi, rinforzando o indebolendo le sue interazioni, o creandone di nuove con altri elementi. Ne deriva un processo di continuo e reciproco adattamento tra le parti del sistema, ognuna delle quali agisce e reagisce in base alle azioni e reazioni delle altre parti. Questo processo modifica progressivamente l'organizzazione, finché non si giunge a quella organizzazione che garantisce un'interazione armoniosa, ed in ogni caso non conflittuale, tra gli elementi del sistema, in risposta agli stimoli provenienti dall'ambiente esterno.

2.

delle interazioni stesse possano amplificarsi sino ad avere conseguenze a livello macroscopico, attraverso cicli di retroazione positivi e negativi; apertura del sistema, in modo che possa essere soggetto ad azioni esterne che lo allontanino dall'equilibrio.

Questa seconda condizione evidenzia come l'organizzazione che il sistema assume sia quella che ottimizza le interazioni tra i suoi elementi, ma non in senso assoluto, bensì relativamente alle particolari sollecitazioni provenienti dall'ambiente. Esse agiscono, in sostanza, come un "suggerimento organizzativo". Poiché l'ambiente non è fisso, ma mutevole, queste sollecitazioni possono cambiare, e l'organizzazione può risultare non più adeguata. Il sistema dovrà assumerne un'altra, modificando lo schema delle interazioni degli elementi. L'organizzazione, allora, non è fissa: è una configurazione di ordine dinamico; e l'autoorganizzazione è il modo in cui il sistema si adatta all'ambiente, contrastandone le azioni distruttive e salvaguardando la propria integrità22.

L'organizzazione è quindi lo strumento attraverso cui il sistema non-lineare controlla e domina la propria complessità. Tramite l'auto-organizzazione, il sistema complesso sceglie, tra le molte configurazioni disponibili di interazioni delle sue parti, quella ottimale, anche se tale "scelta" è inconscia, non consapevole: è l'organizzazione che "emerge" spontaneamente, in conseguenza dell'azione congiunta, competitiva e cooperativa degli elementi costitutivi, ognuno animato dai propri obiettivi. In particolare, nelle comunità Open Peer-to-Peer, la competizione è rappresentata dalla ricerca dell'aumento della reputazione personale, mentre la cooperazione è rappresentata dalla economia del dono, presente nella etica hacker19. L'organizzazione è riconoscibile solo su una scala spazio-temporale macroscopica, cioè di diversi ordini di grandezza di quella microscopica delle interazioni tra gli elementi. Di conseguenza, questa organizzazione può essere osservata solo dall'esterno del sistema, non dal suo interno20. Le condizioni necessarie affinché un sistema possa auto-organizzarsi sono due21: 1. non-linearità delle interazioni tra gli elementi costitutivi (ossia complessità del sistema), in modo che piccole variazioni

Il modo in cui un sistema complesso cambia la sua organizzazione, in risposta a perturbazioni esterne che lo allontanano dalle condizioni di equilibrio, è stato studiato da Ilya Prigogine, il quale ha elaborato la teoria delle strutture dissipative23. Una struttura dissipativa è un sistema complesso aperto che, in condizioni di non equilibrio, è in grado di dotarsi di una struttura ordinata (sotto forma di configurazioni spaziali o ritmi temporali) attraverso produzione di entropia nell'ambiente, cioè dissipazione di energia per attrito, perdite o sprechi. Le strutture dissipative evidenziano il ruolo fondamentale delle fluttuazioni, cioè delle piccole variazioni locali, che costantemente si verificano a livello delle interazioni tra gli elementi costitutivi del sistema. Tali fluttuazioni sono una conseguenza del principio di minima resistenza: ogni elemento modifica ininterrottamente le sue interazioni con gli altri elementi, alla ricerca di quelle a lui più favorevoli. È proprio l'amplificazione, ad opera della non-linearità, di queste fluttuazioni delle interazioni, che permette la nascita di correlazioni macroscopiche, e quindi di strutture spaziotemporali ordinate; se non vi fossere fluttuazioni, il sistema non potrebbe abbandonare il suo stato omogeneo ed auto-organizzarsi24. L'amplificazione delle fluttuazioni, però, può avvenire solo in presenza di perturbazioni esterne, provenienti dall'ambiente, che operino come un'azione od un vincolo sul sistema. Se il sistema è in equilibrio, le retroazioni negative prevalgono sulle positive, e tendono a smorzare le fluttuazioni. Se invece le perturbazioni spostano il sistema dall'equilibrio, sono le retroazioni positive a prendere il sopravvento, amplificando le fluttuazioni fino a generare una nuova struttura ordinata.

19 pp.142-150 20 Bertuglia, Staricco (200) 21 Idem

22 Idem 23 Idem 24 Idem

120


Il sistema diventa sensibile rispetto a se stesso, alle fluttuazioni della sua stessa attività. Quando un sistema, sotto l'azione di perturbazioni esterne, si allontana dall'equilibrio, può verificarsi un fenomeno interessante: la nuova forma di organizzazione che può assumere non è unica, anzi; il sistema può scegliere fra tante forme. Ancora una volta, la causa di questa proprietà è la non-linearità, uno dei cui aspetti più tipici è proprio la pluralità di soluzioni. La comparsa di più soluzioni viene detta biforcazione25. Essa si verifica solo quando le perturbazioni esterne portano il sistema oltre la soglia di stabilità. Se è possibile rappresentare il sistema tramite un'unica variabile di stato Y e le perturbazioni esterne tramite un unico parametro di controllo λ, il modo con cui Y risente delle variazioni di λ può essere illustrato con un diagramma di biforcazione. Finché λ resta inferiore ad un valore critico λc, c'è una sola soluzione: il sistema si mantiene stabile, le fluttuazioni vengono smorzate. Quando λ supera λc, la soluzione rappresentata dal ramo (a) diventa instabile, mentre compaiono due nuovi rami (b1) e (b2) di soluzioni stabili: è la biforcazione. I rami (b1) e (b2) sono contemporaneamente stabili: il sistema sceglie quale dei due rami seguire nel punto di biforcazione, ossia quando λ è esattamente uguale a λc. È qusto il punto in cui il sistema diventa instabile: le fluttuazioni non vengono più smorzate, anzi vengono amplificate dalla non-linearità, ed è proprio il fatto che sia questa o quella fluttuazione a prendere il sopravvento, a determinare il passaggio all'una o all'altra soluzione. La scelta del ramo è, cioè, assolutamente imprevedibile: ripentendo più volte l'esperimento di portare λ al valore λc, alcuni sistemi seguiranno il ramo (b1), altri il ramo (b2). Le soluzioni di un ramo e quelle dell'altro differiscono tra loro non quantitativamente, ma qualitativamente: orario/antiorario, rosso/blu, ecc26.

Fig. 43: Diagramma di biforcazione (Fonte: Bertuglia, Staricco 2000) 25 Idem 26 Idem

Fenomeni come l'isteresi e le biforcazioni conferiscono ai sistemi complessi una dimensione storica27. L'isteresi è la proprietà di un sistema di non essere influenzato istantaneamente alle forze che agiscono su di esso, ma di reagire lentamente, o di non tornare completamente allo stato originale28. Nell'isteresi, la scelta tra un ramo e l'altro di evoluzione dipende dallo stato che il sistema aveva prima di giungere nella zona di bistabilità. Nelle biforcazioni, tale scelta è imprevedibile: si ha cioè un evento la cui nozione implica che ciò che si è prodotto "avrebbe potuto" non prodursi; tale evento dà vita a nuove coerenze, determinando l'evoluzione successiva del sistema e rendendola irreversibile29. Questa dimensione storica è particolarmente significativa nei sistemi biologici. Gli esseri viventi ricevono in continuazione dall'ambiente energia e materia, che essi usano per il loro metabolismo, per poi ridisperderle nell'ambiente sotto forma di rifiuti: sono cioè delle strutture dissipative, con alcune differenze rispetto a quelle di tipo fisico. Gli organismi biologici sono infatti delle sorte di "strutture storiche", in grado di conservare "memoria" delle organizzazioni che acquisiscono nel corso della loro evoluzione. Gli scambi che hanno con l'ambiente sono continui, generalmente irreversibili e di diverso genere: non solo passaggio di calore dall'ambiente al sistema, come nella convezione, ma flussi di energia e di materia molto differenziati (tramite l'alimentazione, la respirazione, ecc.); inoltre, il loro ambiente non è fisso, ma soggetto a cambiamenti. Le perturbazioni che i sistemi biologici ricevono dall'esterno sono allora molteplici e mutevoli; questo fa sì che siano soggetti a più punti di instabilità e biforcazione. Non c'è solo il passaggio dall'omogeneità all'ordine, ma anche la possibilità di saltare da una struttura ordinata ad un'altra anch'essa ordinata. Le stesse condizioni di non-linearità possono produrre un dato ordine facendolo emergere dal caos dei processi elementari od anche, sotto condizioni diverse, distruggere questo ordine dando luogo ad una nuova coerenza al di là di un'altra biforcazione. L'evoluzione di questi sistemi può essere descritta tramite un diagramma di biforcazione, i cui rami stabili si biforcano progressivamente per più livelli, in un modo molto simile agli alberi filogenetici usati in biologia. Tale diagramma di biforcazione mostra la compresenza di imprevedibilità e necessità. In corrispondenza dei punti di biforcazione, sono le fluttuazioni a decidere quale ramo verrà adottato. La nuova organizzazione che il sistema acquisisce, in conseguenza di questa "scelta", è stabile rispetto alle fluttuazioni, che non possono più capovolgerla, almeno finché le perturbazioni esterne non crescono a tal punto da raggiungere una nuova soglia di instabilità. Tra due punti di biforcazione, cioè, il sistema è vincolato al ramo in cui si trova da leggi deterministiche, che gli 27 Idem 28 http://en.wikipedia.org/wiki/Hysteresis 29 Bertuglia, Staricco (200) 121


impediscono di abbandonare la sua organizzazione attuale. Per un certo valore λ' del parametro di controllo, il sistema rappresentato in figura potrebbe trovarsi, con eguale probabilità, su diversi rami; sono state le biforcazioni, che ha attraversato nel passato, a decidere il suo stato nel presente. Non gli è possibile abbandonare il percorso che ha intrapreso, non può saltare da A ad A'; al tempo stesso non può sapere se, per λ = λ'', si troverà in B o B'30.

non è una proprietà dei legami chimici. Essa è infatti un'esperienza sensoriale che sorge quando le molecole di zucchero interagiscono con la chimica delle nostre papille gustative, che, a loro volta, attivano un determinato modo una serie di neuroni. L'esperienza della dolcezza avviene da quell'attività neuronale. Pertanto, quando ci limitiamo ad affermare che la proprietà caratteristica dello zucchero è la sua dolcezza, in realtà ci riferiamo a una serie di fenomeni emergenti che si situano a differenti livelli di complessità33.

5.4. Emergenza dell'autoorganizzazione

Ma l'emergenza si manifesta solo quando l'attività globale non è data dalla semplice somma dell'attività degli elementi a livello locale34. Sebbene l'espressione "il tutto è più della somma delle parti" sia molto diffusa, occorre effettuare una precisazione: l'emergenza nasce dall'interazione fra le parti, non precedentemente, e non necessariamente. Ciò che emerge non è predicibile e non ha precedenti, e rappresenta un nuovo livello di evoluzione del sistema. I comportamenti complessi non sono proprietà delle singole entità e non possono essere facilmente riconosciuti o dedotti dal comportamento di entità del livello più basso. La forma e il comportamento di uno stormo di uccelli o di un branco di pesci sono buoni esempi di emergenza. Una delle ragioni per cui un comportamento emergente si verifica è che il numero di interazioni tra le componenti di un sistema aumenta combinatoriamente con il numero delle componenti, consentendo l'emergenza potenziale di nuovi e più impercettibili tipi di comportamento. D'altro canto,il grande numero di interazioni non è di per sè sufficiente a determinare un comportamento emergente, poiché molte interazioni potrebbero essere irrilevanti, oppure annullarsi a vicenda. In alcuni casi,un grosso numero di interazioni può in effetti contrastare l'emergenza di comportamenti interessanti, creando un forte "rumore di fondo" che può "zittire" ogni segnale di emergenza; il comportamento emergente potrebbe in questo caso aver bisogno di essere temporaneamente isolato dalle altre interazioni mentre raggiunge una massa critica tale da auto-sostenersi. Per cui non è solo il numero di connessioni tra le componenti a incoraggiare l'emergenza, ma anche l'organizzazione di queste connessioni. È la organizzazione a rete decentralizzata dei comportamenti locali che causa l'emergenza di un comportamento globale, il quale a sua volta influenza i comportamenti locali. L'emergenza è quindi causata da una doppia interrelazione tra la scala locale e quella locale, in cui il controllo del sistema viene decentralizzato. Come conseguenza di questo fatto sia ha che le azioni dei singoli elementi sono controllabili, ma il comportamento del sistema non è controllabile. L'emergenza di una caratteristica o di un comportamento continuerà a svilupparsi anche se alcuni elementi vengono meno: in una rete

Si è detto che l'auto-organizzazione "emerge" spontaneamente, ma in realtà occorre fare una precisazione, distinguendo tra emergenza e autoorganizzazione, due concetti utili a descrivere il comportamento dei sistemi complessi ma che sono distinti e possono esistere sia separatamente che contemporaneamente31.

Fig. 44: Diagramma di biforcazione a più rami (Fonte: Bertuglia, Staricco 2000)

L'emergenza è la capacità di un sistema di avere proprietà, comportamenti, strutture nascenti ed inattese al livello macroscopico (livello globale) che nascono dalle interazioni tra gli elementi al livello microscopico (livello locale)32. L'emergenza porta alla creazione di novità, e questa novità è spesso qualcosa di qualitativamente differente dai fenomeni da cui è affiorata. Per illustrare questo fatto, possiamo ricorrere a un esempio ampiamente conosciuto, tratto dalla chimica: la strutture e le proprietà dello zucchero. Quando gli atomi di carbono, ossigeno e idrogeno si legano in un certo modo, formando lo zucchero, il composto che ne risulta ha un sapore dolce. Questa dolcezza non risiede né in C, né in O, né in H: risiede invece nello schema che emerge dalla loro interazione. Si tratta di una proprietà emergente. Inoltre, per esprimerci in un senso più rigoroso, la dolcezza 30 Idem 31 De Wolf, Holvoet (2005) 32 Idem 122

33 Capra (2002) 34 Cit. in Taylor (2005) p.188


decentralizzata, più elementi sono di pari importanza e possono sostituirsi. Al contrario, in una rete centralizzata, l'eliminazione del centro avrebbe fatto crollare l'intera rete. In conclusione, le caratteristiche che portano all'emergenza sono la presenza di molte interazioni, la decentralizzazione del controllo del sistema e la conseguente flessibilità degli elementi, una correlazione tra i livelli micro e macro (locale e globale): se anche una di queste condizioni vengono a mancare, non si ha l'emergenza. In definitiva, l'essenza dell'emergenza è quella della nascita un comportamento globale radicalmente nuovo causato dai singoli comportamenti individuali a livello locale, ma differente da questi. L'essenza della autoorganizzazione, invece, è quella di un comportamento adattativo globale che autonomamente acquisisce e mantiene un ordine crescente. Emergenza ed auto-organizzazione, quindi, enfatizzano differenti aspetti dei sistemi complessi, e sono entrambi processi dinamici che emergono nel corso del tempo. Un comportamento del sistema che garantisce l'auto-organizzazione, infatti, può nascere ad un certo momento come proprietà emergente. Non sempre però questo avviene. Una auto-organizzazione centralizzata non permette la nascita di un comportamento emergente, che necessità di una decentralizzazione del sistema. È la decentralizzazione delle comunità Open Peerto-Peer che permette l'emergenza di processi di auto-organizzazione e di risultati innovativi e sorprendenti quali Linux. Viceversa, un sistema caratterizzato da emergenza ma che non presenta auto-organizzazione a causa di un ordine insufficiente non riuscirà sempre ad adattarsi e ad evolversi. Inoltre, l'unico modo di avere un comportamento emergente coerente a livello globale è quello di lasciare liberi gli elementi di agire (ossia di auto-organizzarsi). Sia l'emergenza che l'auto-organizzazione, infatti, sono processi molto resistenti, anche se per differenti motivi. La resistenza dell'emergenza è causata dalla flessibilità dei propri elementi, dovuta alla decentralizzazione: l'eliminazione o un errore di un singola parte non pregiudica la proprietà emergente nella sua complessità. L'autoorganizzazione è resistente invece grazie alla sua adattabilità ai cambiamenti e la sua abilità a mantenere un ordine crescente. Questi due fenomeni possono causarsi a vicenda: l'auto-organizzazione a livello locale può essere la causa dell'emergenza di una proprietà a livello locale; il risultato dell'emergenza globale è una auto-organizzazione allo stato locale. Risulta chiaro che una comunità Open Peer-to-Peer, per essere caratterizzata dall'emergenza di una caratteristica o di un comportamento, deve presentare soddisfatte queste condizioni di decentralizzazione, flessibilità dei partecipanti, numero elevato di interazioni e correlazione tra la dimensione globale e quella locale. Come esempio,

per Rullani35 il capitale sociale si configura come una proprietà emergente di una società che è formata da uomini in carne ed ossa e che ha una sua specifica storia, cultura, esistenza pratica. In una comunità Open Peer-to-Peer, quindi la formazione di relazioni personali acquista una caratteristica emergente, che nasce dalle interazioni svolte nella prosecuzione dell'attività comunitaria. I partecipanti formano delle comunità al fine di risolvere un proprio problema attraverso lo svolgimento di una attività, e questo fa nascere delle relazioni fra loro.

5.5. Evoluzione dell'autoorganizzazione: sistemi complessi adattativi L'affinità tra auto-organizzazione ed evoluzione (e lo stretto legame tra emergenza e autoorganizzazione) è alla base degli studi svolti all'Istituto di Santa Fe sui cosiddetti sistemi complessi adattativi (CAS: Complex Adaptive Systems). L'aggettivo "adattativi" viene usato per sottolineare il fatto che i sistemi complessi, quando modificano la loro organizzazione, non si limitano a reagire passivamente ai cambiamenti dell'ambiente; al contrario, essi cercano sempre di volgere a proprio vantaggio questi cambiamenti, adattandosi ad essi. L'auto-organizzazione, cioè, può essere vista come una forma di evoluzione finalizzata a mantenere sempre un buon adattamento tra il sistema ed il suo ambiente. Tale adattamento si realizza proprio come nell'evoluzione biologica, ossia tramite due meccanismi fondamentali: previsione e retroazione. Come dimostra la teoria delle strutture dissipative, l'organizzazione che un sistema adotta ad un certo istante è quella che armonizza le interazioni tra gli elementi in risposta alle sollecitazioni provenienti dall'ambiente; inoltre, essa determina il comportamento del sistema stesso. L'organizzazione può, pertanto, essere vista come una sorta di previsione: "se la situazione ambientale è A, è opportuno intraprendere l'azione B, perché essa porterà a dei buoni risultati". Non è una previsione cosciente, quanto piuttosto una sorta di modello predittivo implicito, di tipo più prescrittivo (di ciò che dovrebbe essere fatto in una data situazione) che non descrittivo (delle opzioni presenti in una data situazione). Il DNA ne è l'esempio per eccellenza: i geni codificano un organismo che, nelle condizioni ambientali che essi prevedono di trovare, avrà buone possibilità di sopravvivere. Le fluttuazioni, presenti a livello delle interazioni tra gli elementi costituenti, operano come le mutazioni genetiche nell'evoluzione: permettono, cioè, al sistema di esplorare le diverse forme di organizzazione possibili. Quale di queste forme verrà scelta dipende dalla retroazione con l'ambiente, ossia da una sorta di selezione, che 35 De Wolf, Holvoet (2005) 123


mette alla prova la previsione implicita nell'organizzazione. Se tale previsione è corretta, il comportamento del sistema avrà successo: si può parlare allora di un buon adattamento rispetto all'ambiente. L'organizzazione è adeguata, il sistema la conserva finché l'ambiente non muta: la selezione, infatti, sopprime le fluttuazioni tendenti a modificare l'organizzazione. Ma come può avvenire tale soppressione, se la selezione opera a livello macroscopico (premiando o punendo il comportamento di tutto il sistema) e le fluttuazioni si sviluppano invece a livello microscopico? La risposta sta nella proprietà fondamentale dei sistemi complessi, e cioè nella non-linearità. Essa non permette solo l'amplificazione dal livello locale a quello globale, ma anche, inversamente, un ritorno di informazione dal livello globale a quello locale. Così, il successo del sistema si traduce nel successo dell'azione dei suoi singoli elementi, che sono alla ricerca del massimo vantaggio individuale. Questi elementi tendono allora a mantenere invariate le proprie interazioni: modificandole, infatti, allontanerebbero il sistema dall'organizzazione che si è dimostrata adatta, con la conseguenza di ottenere un peggiore risultato, collettivo e, per retroazione, anche individuale. Se invece, la previsione implicita nell'organizzazione è sbagliata, il comportamento del sistema non ha successo: il livello di adattamento è basso. La non-linearità comporta che i singoli componenti abbiano un cattivo risultato, spingendoli così a modificare le proprie interazioni36. Si generano di conseguenza quelle fluttuazioni che permettono al sistema di "tastare il terreno" alla ricerca di una nuova organizzazione, dotata di migliori capacità predittive e capace di garantire un vantaggio a livello sia macroscopico sia microscopico. Si trova, in sintesi, lo stesso fenomeno già descritto dalla teoria delle strutture dissipative, anche se interpretato, ora, tramite i concetti di adattamento e selezione: soppressone delle fluttuazioni all'equilibrio, cioè nel caso di buon adattamento tra sistema ed ambiente, e loro amplificazione selettiva lontano dall'equilibrio, ossia nel caso di cattivo adattamento. Sarebbe proprio una forma di "selezione" a garantire che, in corrispondenza dei punti di biforcazione (cioè quando il sistema perde il suo precedente adattamento), tra tutte le possibili forme di organizzazione, si stabilizzino solo quelle "adatte" alla nuova condizione dell'ambiente, ossia quelle capaci di assicurare al sistema un comportamento di successo. Queste organizzazioni "adatte", a causa della non-linearità, sono più di una per ogni punto di biforcazione: quale di esse verrà adottata dal sistema dipende dal fatto che, nei momenti di instabilità, venga amplificata questa o quella fluttuazione. Non sempre però la soluzione di equilibrio assunta da un sistema è la migliore possibile. Non è detto, cioè, che le forme di organizzazioni definibili come adatte abbiano lo stesso livello di performance: pur garantendo tutte un buon 36 Bertuglia, Staricco (2000) 124

adattamento rispetto all'ambiente, una o alcune di esse possono assicurare al comportamento del sistema un successo maggiore rispetto alle altre. Non sempre, però, il sistema sceglierà le organizzazioni migliori, poiché tale scelta è casuale. Le forme di adattamento di un sistema al suo ambiente sono state classificate da Gell-Mann in tre tipi fondamentali37: • il sistema muta il suo comportamento senza cambiare la sua organizzazione. Questo è possibile perché ogni forma di organizzazione permette al sistema di adottare più tipi di comportamento, non uno solo. Si tratta di un adattamento "diretto", rappresentato, nei diagrammi di biforcazione, dal tratto rettilineo tra due successivi punti di biforcazione: quando il livello delle perturbazioni esterne cresce, il sistema non modifica la sua organizzazione, ma solo il suo comportamento; • il sistema cambia la sua organizzazione. È la situazione che si verifica nei punti di biforcazione; • il sistema scompare, perché nessuna delle sue possibili organizzazioni è adatta alle nuove perturbazioni ambientali, e lascia il posto ad altri sistemi. È la sopravvivenza darwiniana del più adatto, che in questo caso non si verifica all'interno del sistema, come competizione tra le diverse organizzazioni, ma ad un livello superiore, tra sistemi diversi. Questi tre livelli di adattamento si realizzano su scale temporali diverse, crescenti dal primo al terzo. Ad ogni modo, nel terzo caso scompare il sistema, ma alcuni dei suoi elementi sopravvivono e possono formare un altro sistema. L'idea di organizzazione come modello predittivo implicito consente di cogliere un'altra interessante analogia, quella tra auto-organizzazione ed apprendimento. Un sistema complesso, essendo aperto, riceve dall'esterno un flusso continuo di materia ed energia, che può essere visto come un flusso di dati sulle caratteristiche dell'ambiente. In tale flusso, il sistema percepisce delle regolarità, le separa dal resto dei dati, che appaiono invece accidentali od arbitrari, ed infine le "comprime" in uno schema; quest'ultimo descrive l'ambiente e prescrive il comportamento del sistema. Quando l'ambiente, e con esso il flusso di dati, si modifica, il sistema percepisce nuove regolarità ed elabora nuovi schemi, quindi li "mette alla prova" e adotta quello che garantisce il comportamento più vantaggioso38. Tramite l'interazione con l'ambiente, il sistema acquisisce informazione (anche in maniera non cosciente) sul mondo esterno, ne scopre le caratteristiche ed impara a comportarsi di conseguenza. La forma più generale di apprendimento è data proprio dall'autoorganizzazione. L'organizzazione, in quanto modello predittivo che determina il 37 Gell-Mann (1996) 38 Bertuglia, Staricco (2000)


comportamento, costituisce uno "schema"; il sistema, grazie alle fluttuazioni microscopiche, può provare diversi di questi schemi ed adottare, tramite il processo di selezione, quello che meglio descrive l'ambiente. Auto-organizzazione, evoluzione ed apprendimento sono, in sostanza, tre metafore per descrivere l'attività di un sistema complesso. Mentre la teoria delle strutture dissipative si serve quasi esclusivamente della prima di queste metafore, la teoria dei sistemi complessi adattativi le utilizza tutte e tre, per porre l'accento su aspetti diversi del comportamento dei sistemi complessi. La metafora dell'auto-organizzazione sottolinea l'autonomia del sistema, cioè la sua capacità di dotarsi da solo di una struttura ordinata; quella dell'evoluzione mette in evidenza l'aspetto processuale, cioè la possibilità di modifica nel tempo di tale struttura; quella dell'apprendimento riflette il rapporto che il sistema ha con il suo ambiente. Proprio la capacità di adattarsi ed apprendere può essere vista come la principale proprietà che distingue i sistemi complessi da quelli caotici, che invece ne sono privi. Tanto i sistemi complessi quanto i sistemi caotici sono caratterizzati dalla non-linearità delle interazioni tra i propri elementi costitutivi, ma nei sistemi caotici questa nonlinearità raggiunge un livello tale che l'amplificazione delle fluttuazioni prosegue senza fine, impedendo al sistema di stabilizzarsi su una forma di organizzazione adatta rispetto al suo ambiente. A sua volta, un sistema complesso può assumere un comportamento caotico se il suo ambiente cambia troppo, o troppo velocemente: la componente caotica nel flusso di dati diventa predominante rispetto a quella regolare, e il sistema non può più "conoscere" l'ambiente e, quindi, auto-organizzarsi. Se, viceversa, l'ambiente è troppo stabile, il sistema perde la capacità di evolvere. Un sistema complesso, quindi, sarà tanto più efficiente quanto più si trova immerso in una situazione intermedia tra ordine e disordine. L'ambiente deve presentare abbastanza regolarità perché i sistemi possano servirsene ai fini dell'apprendimento o dell'adattamento, ma al tempo stesso non una regolarità così grande da rendere impossibile che vi accada qualcosa. Ne consegue che una comunità Open Peer-to-Peer, che è un sistema complesso, se il suo ambiente cambia troppo o troppo velocemente non riesce più ad adattarsi ad esso auto-organizzandosi. In questo caso la sua capacità di adattamento e di risoluzione di problemi complessi viene quindi meno. La metafora dell'apprendimento risulta adeguata a descrivere il comportamento di un sistema complesso anche da un punto di vista termodinamico. L'entropia di un sistema può essere considerata, intuitivamente, come una misura del grado di disordine interno al sistema stesso. Il secondo principio della termodinamica afferma che, in un sistema isolato (cioè privo di

qualsiasi forma di scambio con l'esterno), l'entropia aumenta inesorabilmente col passare del tempo, fino a raggiungere un valore massimo. Ciò non vale per un sistema aperto, qual è un sistema complesso auto-organizzativo, a causa dei flussi che attraversano i suoi confini. Esso riceve, infatti, dall'ambiente un flusso di materia ed energia, cioè un flusso negativo di entropia (negentropia), che utilizza per organizzarsi; a sua volta, può riversare nell'ambiente un flusso positivo di entropia (prodotta per mantenere la sua organizzazione interna) sotto forma di rifiuti e scarti, ed eventualmente un flusso negativo, fatto di materia ed energia di qualità superiore. Un sistema può auto-organizzarsi solo in presenza di un sufficiente flusso di energia (ossia di negentropia) proveniente dall'esterno e necessario per vincere la produzione di entropia interna al sistema. Un sistema, però, non è in grado di utilizzare tutto il flusso di neg-entropia che riceve: in tale flusso vi sono elementi che non è in grado di riconoscere e di metabolizzare, e che costituiscono una sorta di rumore. Solo la neg-entropia riconosciuta (che possiamo chiamare segnale) può essere utilizzata dal sistema per auto-organizzarsi. L'auto-organizzazione di un sistema non è altro che il progressivo riconoscimento di nuove fonti di negentropia nell'ambiente. Questo processo di riconoscimento è del tutto analogo al processo di apprendimento dai sistemi adattativi complessi: basta sostituire "regolarità" con "neg-entropia riconosciuta" (o "segnale") e "dati accidentali" con "rumore". Quando l'ambiente muta, le fonti di neg-entropia riconosciute dal sistema possono scomparire, ed essere sostituite da nuove fonti, che il sistema non è in grado di riconoscere immediatamente; il "rumore" prevale allora sulla neg-entropia riconosciuta, il sistema diventa instabile e la sua entropia (cioè il suo disordine) cresce notevolmente, perché non più contrastata da una adeguato flusso energetico39.

5.6. Una evoluzione memetica L'auto-organizzazione può quindi essere vista come una forma di evoluzione finalizzata a mantenere sempre un buon adattamento tra il sistema ed il suo ambiente. I sistemi complessi che si autoorganizzano possono quindi essere compresi come sistemi complessi adattativi, e il loro adattamento si realizza come nell'evoluzione biologica. È l'evoluzione che rende i sistemi complessi ancora più complessi. Per capire come si evolva una comunità Open Peer-to-Peer, possiamo riprendere il discorso effettuato da Kuwabara, nel punto in cui descrive Linux come un sistema complesso adattativo. Per Kuwabara l'evoluzione in Linux avviene grazie alla decentralizzazione del potere che avviene nella organizzazione a bazaar, e la descrive come "riguardante il flusso di informazioni fra gli individui"40. 39 Idem 40 Kuwabara (2000) 125


Questo flusso di informazioni, in una teoria evoluzionistica, deve fornire istruzioni per i processi interni degli individui e mediare il processo evolutivo all'interno di una determinata popolazione. Questo flusso di informazioni viene regolato da tre processi, fondamentali per la evoluzione di una popolazione: la variazione, la selezione e la replicazione. Per prima cosa, deve essere presente una variazione nella popolazione, di modo che non tutti i suoi membri siano identici. Quindi, in una popolazione eterogenea, il processo di selezione competitiva deve eliminare i membri inadatti; infine, le caratteristiche dei membri che sopravvivono devono essere replicate nella prole. Ad esempio, nell'evoluzione biologica, le informazioni sono contenute nei geni che permettono la differenziazione degli individui. Sono due i distinti processi che contribuiscono alla variazione dei geni: la mutazione (che introduce cambiamenti casuali e spontanei in un organismo) e l'ibridazione (che avviene attraverso scambi sessuali di materiale genetico tra organismi). La variazione genetica rappresenta poi un vantaggio o uno svantaggio nella selezione competitiva tra organismi: chi sopravvive, può trasmettere i propri geni alla discendenza. In pratica, nell'evoluzione biologica, il flusso di informazioni viene mediato attraverso i geni. Questo concetto venne sviluppato ulteriormente da Richard Dawkins41. Egli pubblica nel 1976 un libro che, all'inizio, apparve come uno dei tanti saggi divulgativi sul darwinismo, scritto per contribuire alla chiarificazione dell'ipotesi sull'evoluzione per selezione naturale. In realtà, The Selfish Gene (il gene egoista) costituisce una tappa epocale nello sviluppo delle teorie evoluzioniste. Per Dawkins non sono le popolazioni vegetali e animali gli attori dell'evoluzione: è il gene ad essere protagonista, che muta e si evolve, passando da organismo ad organismo. La competizione non avviene tra organismi ma tra geni, informazioni che usano gli organismo come substrato fisico di diffusione. In un suo successivo libro42, Dawkins propone un'altra variazione alla teoria evoluzionista di Darwin. Cercando di spiegare come la selezione naturale possa sviluppare organismi complessi, Dawkins oppone una evoluzione basata sulla pura casualità accoppiata con una selezione cumulativa alla tradizionale visione di una evoluzione basata sulla pura casualità. Le variazioni genetiche, infatti, hanno un ruolo importante, ma l'evoluzione di un organismo verso forme più complesse non avverrà basandosi solo su di esse, divenendo altrimenti un processo troppo lento. Dawkins suppone invece che, nel processo evolutivo, sia possibile una selezione cumulativa dei geni più adatti: i cambiamenti vengono così accumulati passo a passo, alla stessa maniera in cui uno scrittore stende differenti versioni di un testo sino ad arrivare alla stesura finale. 41 Kuwabara (2000), Ianneo (2005) 42 Dawkins R. (1986),The Blind Watchmaker: Why the Evidence of Evolution Reveals a Universe Without Design , Penguin, London 126

La selezione cumulativa è quindi un processo di editing. La selezione cumulativa non è, per Kuwabara, un processo cruciale solamente nell'evoluzione biologica, ma una parte integrante dell'organizzazione a bazaar. Nel caso di Linux, il codice non viene riscritto totalmente non appena emerge un errore, ma questo viene identificato ed eliminato, accumulando parti di codice testate e approvate. Certamente, processi di editing e di riutilizzo di codice sorgente non sono esclusivi delle organizzazioni a bazaar, ma ciò che rende quest'ultima più avvantaggiata nel suo utilizzo sono i processi di editing parallelo. Dato che la comunità di sviluppo di Linux non ha un vertice che decide la direzione, vi sono molteplici visioni, molteplici tentativi di modifica del codice. Mentre in una organizzazione a cattedrale tutti i partecipanti concorrono alla progettazione di un solo codice, sviluppato in un'unica direzione, nell'organizzazione a bazaar molti partecipanti sviluppano più codici, basati su più visioni. In pratica, se accettiamo l'ipotesi che una selezione cumulativa sia possibile anche nella programmazione, il software prodotto dalla comunità rappresenta la popolazione, le varie versioni che i partecipanti sviluppano parallelamente rappresentano i membri della popolazione, e le versioni stabili pubblicate del software rappresentano una generazione nella corso della vita della popolazione. Questa prospettiva genetica non è così azzardata, se si considera che il gene rappresenta una informazione e in biologia si parla di genotipo (le informazioni che servono per produrre in un organismo determinati caratteri) e fenotipo (i caratteri derivanti dalla combinazione dei genotipi). Il codice sorgente è quindi il genotipo del software open source, e il codice binario il fenotipo. Nel bazaar, i partecipanti sviluppano più versioni, più generazioni genetiche del codice, portando questo ad un processo di evoluzione tipico di una popolazione: qualche elemento scomparirà (qualche proposta individuale), ma la popolazione sopravviverà adattandosi all'ambiente maggiormente (si avrà un software più complesso e completo). I partecipanti sono quindi degli attori evolutivi che, anche se non riescono ad ottimizzare le risorse globalmente, sarà sempre uno di loro che riuscirà a trovare la soluzione migliore, con beneficio collettivo. Il parallelismo è probabilmente la differenza cruciale tra la cattedrale e il bazaar. La cattedrale, a causa dei limiti economici imposti dal mercato, cerca di minimizzare gli sviluppi paralleli, che vengono considerati uno spreco di risorse. In un progetto open source, basato sull'apporto volontario, non vi sono limiti economici ristretti, e più sviluppi paralleli sono possibili e addirittura incoraggiati. Dato che è un progetto di software open source si basa su base volontaria, non è possibile sapere chi potrà contribuire in futuro, e un numero di partecipanti attivi maggiore dà più garanzie di sopravvivenza. Lo sviluppo parallelo di più versioni (generazioni) di più codici (membri della popolazione) accresce notevolmente la velocità dell'evoluzione della


popolazione (il software): è per questo motivo che Linux e gli altri software open source si sono sviluppati con tale rapidità, maggiore rispetto alle organizzazioni a cattedrale. Quindi, gli agenti di un sistema complesso, sebbene adattabile, non ottimizzano realmente le risorse. La ragione sta nella indisponibilità di informazioni globali per gli agenti individuali, da un lato, e nell'assenza di un intervento esterno o da una autorità centrale, dall'altro, al fine di determinare le interazioni ottimali. Come John Casti, "Nei [sistemi complessi] nessun singolo agente ha accesso a quello che stanno facendo tutti gli altri agenti. Al massimo ogni agente trova informazioni su un sottoinsieme del set di agenti relativamente piccolo, e tratta questa informazione 'locale' per giungere ad una decisione in base a cui agirà"43. In un sistema complesso, quindi, gli attori elaborano delle ipotesi sullo stato globale del sistema in base alle proprie conoscenze locali. Per Kuwabara, l'utilità di un approccio evoluzionista è che, basandosi solamente sulla variazione casuale, selezione non casuale e replicazione, può descrivere qualsiasi sistema (naturale o artificiale) che evolve verso forme più complesse attraverso "cambiamenti incrementali esplorati Tuttavia, per descrivere parallelamente"44. correttamente Linux (o qualsiasi comunità Open Peer-to-Peer), bisogna utilizzare un approccio evoluzionista appropriato, che quindi non si basi su unità biologiche come i geni, ma che si basi su unità culturali come i memi, concetto introdotto da Richard Dawkins45. Per Dawkins le idee di Darwin sono applicabili a qualsiasi elemento nella realtà in grado di duplicarsi, sia esso molecola nucleotidica o idea rivoluzionaria. L'unico scopo di queste entità invisibili – geni e memi – non sarebbe altro che produrre copie per diffondersi all'interno di piante, animali e uomini resi "veicoli" inconsapevole. Il meme rappresenterebbe così ogni elemento della cultura umana (idea, poesia, ricetta, progetto, ecc.) duplicabile in altri cervelli mediante un meccanismo di trasmissione selettiva, ovvero secondo un processo analogo, se non identico, alla replicazione biologica del DNA. Per Dawkins il sostantivo meme proviene dalla parola mimesi, che in greco antico significa 'imitazione', e dal termine francese même, 'stesso', da lui scelto per la chiara assonanza con "gene". Meme, dunque, come unità di trasmissione culturale e unità di imitazione, in stretta correlazione all'essenza della memoria. In altri termini, il meme rappresenta l'effetto della trasposizione dei concetti della biologia evoluzionistica contemporanea in campo mentale e sociale: in particolare, della interpretazione tipica di Dawkins che vede nel gene l'elemento fondamentale del codice della vita e della sua evoluzione. 43 Cit. in Kuwabara (2000) (nostra traduzione) 44 Kuwabara (2000) (nostra traduzione) 45 Dawkins R., (1976), The Selfish Gene, Oxford University Press, Oxford

Ma come si diffondono i memi? Mentre i geni passano da generazione a generazione, i memi passano anche "lateralmente", da persona a persona della stessa generazione, attraverso l'imitazione e l'apprendimento sociale. Attraverso la reciproca osservazione, l'imitazione si ha riguardo i comportamenti, mentre l'apprendimento sociale riguarda l'ambiente. L'apprendimento sociale si basa sul principio di prova ed errore (trial and error), ricompensa e punizione. Attraverso la reciproca osservazione ed interazione, le conseguenze positive e negative dei comportamenti individuali diventano la base esperienziale per lo sviluppo di decisioni. La variazione avviene attraverso la mutazione di un meme in un individuo (la rielaborazione di un concetto o di un brano di codice sorgente), o attraverso la ricombinazione di memi provenienti da differenti individui (il confronto e lo sviluppo di concetti, la condivisione e combinazione di due codici sorgenti sviluppati parallelamente). L'apprendimento sociale quindi funge da campo per l'evoluzione memetica, dove i memi più adatti sopravvivono e si sviluppano in nuove generazioni. La diffusione dei memi, quindi, è un passaggio tra individui intergenerazionale e intragenerazionale. Mentre nell'evoluzione genetica i cambiamenti dei geni avvengono solo ad ogni generazione, nell'evoluzione memetica questi avvengono in continuazione, risultandone quindi in una velocità di evoluzione maggiore. L'evoluzione genetica lavora a livello della popolazione, mentre l'evoluzione memetica lavora sia al livello della popolazione sia al livello individuale. L'evoluzione memetica è quindi una evoluzione di tipo lamarckiano, ovvero gli individui mantengono e diffondono i "caratteri acquisiti" (cioè le idee e le altre espressioni culturali). Rispetto all'evoluzione genetica darwiniana, quindi, l'evoluzione memetica lamarckiana non è "cieca", casuale. Anche se non ha una visione completa della direzione intrapresa, le variazioni casuali che la sorreggono sono meno casuali e più dirette. Così come i geni interagiscono fra loro per produrre un fenotipo, i memi spesso agiscono in gruppo, formando un memeplesso (memeplex) dove si rinforzano a vicenda. Un memeplesso rappresenta un complesso di memi co-adattati, trasmessi insieme, come ad esempio religioni, ideologie politiche, sistemi di credenze. Per Kuwabara Linux rappresenta un memeplesso, caratterizzato da più porzioni di codice sorgente o patch (i memi), coadattati lungo tutto il processo di sviluppo. Le caratteristiche che permettono ai memi un'ampia diffusione sono46: 1. coerenza: per diffondersi, un meme deve trovarsi in armonia con i memi già presenti nelle persone che incontra; 2. novità: un meme deve rappresentare una novità radicale per poter essere considerato positivamente e conservato; 3. semplicità: il meme deve essere facilmente memorizzabile; 4. utilità individuale: un meme, per poter 46 Heylighen (1996) 127


essere considerato positivamente e conservato, deve aiutare i singoli individui nel perseguimento dei loro obiettivi; 5. importanza: per poter essere notato dagli altri individui e così diffondersi attraverso di loro, deve essere facilmente percettibile e di notevole significato; 6. espressività: il meme deve poter essere espresso in un linguaggio o in un codice con facilità; 7. formalità: l'interpretazione del meme deve dipendere poco dalla singola persona o dal contesto; 8. infettività: gli individui che portano con sé un meme devono essere inclini alla sua diffusione, come se fosse un virus; 9. conformismo: un meme si diffonde maggiormente se viene supportato dai memi già diffusi nella maggioranza delle persone; 10. utilità collettiva: un meme può diffondersi anche se è utile solamente per una collettività.

dell'autopoiesi elaborata da Maturana e Varela (1984)47. Mentre la teoria delle strutture dissipative e la teoria dei sistemi complessi adattativi concentrano la loro attenzione sui processi di formazione e di consolidamento delle diverse forme organizzative di un sistema, la teoria autopoietica, formulata nell'ambito disciplinare della biologia, punta a valutare le condizioni che definiscono il vivente, come forma autoorganizzata e separata dall'ambiente esterno. In altre parole, tale teoria è interessata non tanto ai processi di trasformazione dell'organizzazione di un sistema, quanto alle modalità secondo cui un sistema (soprattutto se vivente) riesce a mantenere la sua identità e unicità, pur in presenza dei detti processi di trasformazione. Questa differenza di approccio si riflette nella terminologia utilizzata: lo schema delle interazioni tra gli elementi costitutivi, che nella teoria delle strutture dissipative e nella teoria dei sistemi complessi adattativi veniva chiamato organizzazione, nella teoria dell'autopoiesi viene definito struttura.

È facilmente osservabile come molte di queste caratteristiche siano presenti nel caso di Linux e delle comunità di sviluppo di software open source. Una nuova porzione di codice (patch) deve essere coerente con il resto del codice; deve apportare un contributo innovativo (e quindi novità); deve essere semplice per poter essere compreso anche dagli altri partecipanti, deve rappresentare una utilità individuale o collettiva; deve avere una certa importanza o non verrà considerato dalla comunità; deve essere formalizzato secondo un linguaggio (il linguaggio di programmazione) di modo che possa essere compreso da tutti; i partecipanti, dato che aderiscono all'etica hacker basata sull'economia del dono, sono inclini alla loro diffusione all'interno della comunità di Linux e della comunità più ampia di programmatori e utenti.

Per organizzazione Maturana e Varela intendono, invece, qualcosa di più astratto: è l'insieme dei rapporti tra gli elementi costitutivi che definisce l'identità del sistema, le sue caratteristiche essenziali, e che non può venir meno, pena la perdita di questa identità da parte del sistema. La struttura è la materializzazione fisica dell'organizzazione, l'insieme dei componenti e delle interazioni che la realizzano tangibilmente; l'organizzazione può concretizzarsi in diversi tipi di strutture: essa costituisce, perciò, il "campo di variabilità" della struttura, l'insieme delle possibili strutture che il sistema può assumere senza perdere la sua identità. Chiarite queste differenze, è possibile cogliere le molte analogie che legano le teorie dell'auto-organizzazione alla teoria dell'autopoiesi, tenendo conto che, nel resto di questo paragrafo, si chiamerà "struttura" ciò che, nella teoria delle strutture dissipative e nella teoria dei sistemi complessi adattativi, è definita "organizzazione".

Ma non è una coincidenza che le tecnologie digitali siano adatte a processi evolutivi. Dawkins identifica tre qualità essenziali per un replicatore di memi affinché possa diffonderli con successo: fecondità, fedeltà delle copie, longevità. In breve, un replicatore diffonderà i memi con maggior successo tanto quanto saranno maggiori le quantità di copie dei memi che produrrà, maggiore sarà la fedeltà di queste copie agli originali, maggiore sarà la durata della vita delle copie affinché possano replicarsi. La natura delle informazioni digitalizzate soddisfa queste tre condizioni. Nella organizzazione a bazaar, l'evoluzione, attraverso la variazione, esplora risorse multiple, mentre l'auto-organizzazione, attraverso cicli di retroazione positivi, sfrutta una particolare risorsa.

Le diverse strutture, in cui l'organizzazione di un sistema autopoietico può concretizzarsi, possono trasformarsi l'una nell'altra in conseguenza di perturbazioni esterne. La storia di questo cambiamento strutturale, che avviene senza la perdita dell'organizzazione, è detta ontogenesi del sistema. Essa coincide, nel grafico delle biforcazioni, ogni ramo del quale rappresenta una struttura particolare48. Le perturbazioni però possono solo "innescare", e non determinare, tali cambiamenti: l'ambiente può solo dare l'avvio ad un cambiamento strutturale, ma è il sistema a decidere quale nuova struttura adottare, al posto della precedente, in risposta ad una perturbazione.

5.7. Conservazione dell'autoorganizzazione: Autopoiesi

Un sistema autopoietico è, dunque, autonomo rispetto al suo ambiente: è caratterizzato, cioè, da

La concezione dell'auto-organizzazione come forma di apprendimento è al centro anche della teoria

47 Maturana H., Varela F., (1980), Autopoiesis and Cognition, D. Reidel, Dordrecht 48 Bertuglia, Staricco (2000)

128


chiusura operativa, nel senso che si ristruttura in risposta agli stimoli esterni secondo le proprie regole interne, e non in modo imposto dall'ambiente. I cambiamenti prodotti dall'interazione fra essere vivente e ambiente sono innescati dall'agente perturbante e determinati dalla struttura del perturbato. Non tutte le perturbazioni esterne innescano cambiamenti strutturali: alcune sono distruttive, cioè provocano la perdita dell'organizzazione; altre non vengono neppure percepite dal sistema. Se il sistema, in un certo momento, non ha interazioni distruttive con il suo ambiente, è con quest'ultimo in un rapporto di compatibilità definito come adattamento; l'ontogenesi è il processo con cui il sistema conserva tale adattamento, mutando la propria struttura in risposta alle variazioni dell'ambiente. Il rapporto di adattamento tra sistema e ambiente è anche detto accoppiamento strutturale, per sottolineare come i cambiamenti strutturali del sistema siano innescati (anche se non determinati) proprio dall'ambiente. L'insieme delle interazioni non distruttive che un sistema ha con l'ambiente nel rapporto di accoppiamento strutturale è definito dominio cognitivo. L'aggettivo "cognitivo" viene utilizzato per indicare che queste interazioni non distruttive costituiscono tutto ciò che il sistema può "sapere" del mondo esterno. Per Maturana e Varela, l'ambiente di un sistema non è costituito da tutto quanto è esterno al sistema (come si intende nella Teoria Generale dei Sistemi), ma solo da quella parte del mondo esterno con cui il sistema può avere delle interazioni non distruttive. Non esiste un ambiente dato in partenza, stabile, oggettivamente rappresentabile; il sistema riconosce come suo ambiente solo ciò con cui può interagire, così come un uomo riesce ad essere cosciente solo di una minima parte di ciò che i suoi sensi percepiscono. 49 Il dominio cognitivo di un sistema non è fisso, ma dipende dalla struttura: ad ogni struttura corrisponde, infatti, un diverso insieme di interazioni non distruttive che il sistema può avere con il mondo esterno. Ogni cambiamento strutturale è accompagnato, dunque, da un cambiamento del dominio cognitivo del sistema e, di conseguenza, del suo ambiente. È per questo che si parla di accoppiamento strutturale: l'ambiente, con le sue perturbazioni, innesca i cambiamenti strutturali del sistema, che, a loro volta, modificano l'ambiente. Il processo ontogenetico di cambiamento strutturale (ossia di auto-organizzazione) di un sistema autopoietico può essere visto, dunque, come una forma di apprendimento: modificando la sua struttura, il sistema modifica il suo ambiente, ossia "conosce" nuove parti del mondo esterno con cui può interagire. Come un processore di negentropia, auto-organizzandosi, riconosce via via nuove fonti di ordine, così un sistema autopoietico, attraverso i cambiamenti strutturali, riconosce nuove parti del mondo esterno con cui interagire in modo non distruttivo. Tutti i sistemi autopoietici 49 Idem

sono dunque sistemi cognitivi, anche se privi di sistema nervoso; la loro stessa attività di autoorganizzazione è un processo di cognizione. Anche nel caso della teoria dell'autopoiesi, dunque, la metafora dell'apprendimento viene usata per descrivere il comportamento di un sistema capace di auto-organizzarsi (o, come forse sarebbe meglio dire in questo caso, di auto-strutturarsi). La principale differenza, rispetto alla teoria delle strutture dissipative e alla teoria dei sistemi complessi adattativi, riguarda un altro aspetto: i sistemi autopoietici sono in grado non solo di assumere autonomamente una struttura ordinata, ma anche di produrre da soli i propri elementi. A utopoiesi vuol dire proprio "produzione di sé". Negli organismi unicellulari, ad esempio, la struttura non solo si modifica da sé, ma si "produce" anche da sola: una volta che l'organismo è nato, ogni suo componente può essere prodotto solo dagli altri componenti, e così pure il confine che delimita il sistema e che lo definisce come unità. A sua volta, l'organismo può nascere solo da un altro organismo a lui identico, per divisione cellulare. In una cellula, i componenti sono correlati da una rete di interazioni chimiche (il metabolismo cellulare), che producono nuovi componenti destinati, alcuni, ad entrare nella stessa rete che li ha prodotti e, altri, a costituire la membrana cellulare, indispensabile per il funzionamento della rete50. Luhmann51 sostiene che si possa parlare di autopoiesi, anziché solamente di chiusura operativa, anche per i sistemi sociali, se si assume che gli elementi di tali sistemi non siano gli individui, ma le comunicazioni. Un sistema sociale non è nient'altro che l'insieme di tutte le comunicazioni che si riferiscono (e si riproducono) reciprocamente; è con la riproduzione di comunicazioni attraverso comunicazioni che un sistema sociale costruisce da sé, autopoieticamente, i suoi confini, differenziandosi dal suo ambiente. Oltre a differenziarsi dall'ambiente, il sistema sociale si differenzia al proprio interno in sottosistemi funzionali, ognuno dei quali tratta tutti gli altri sottosistemi come proprio ambiente. Non sempre una perturbazione ambientale ha la possibilità di modificare il sistema: ciò può avvenire solo quando tale perturbazione viene riconosciuta dal sistema, ossia diventa oggetto di comunicazione. Una volta che essa è entrata nella rete autopoietica di comunicazioni, è il sistema a decidere se e come reagire, in base alla sua attuale struttura. Per Fritjof Capra52 anche una rete sociale è uno schema di organizzazione non lineare: qui, però, i nodi e i collegamenti della rete non sono più realtà puramente biochimiche. Le reti sociali sono, innanzitutto, delle reti di comunicazioni nelle quali entrano in gioco linguaggi simbolici, condizionamenti culturali, relazioni di potere e così 50 Idem 51 Luhmann N. (1990), The Autopoiesis of Social Systems, in Luhmann N., (1990) Essays on SelfReference, Columbia University Press, New York 52 Capra (2002) 129


via53. Riprendendo il discorso iniziato da Luhmann, per Capra il modo specifico in cui i sistemi sociali realizzano la propria riproduzione autopoietica è quello della comunicazione. I loro elementi costitutivi sono delle comunicazioni che vengono continuamente prodotte e riprodotte da una rete di comunicazioni, e che non possono esistere se non all'interno di tale rete. Queste reti di comunicazioni sono in grado di autogenerarsi: ciascuna comunicazione, infatti, genera dei pensieri e dei significati, i quali a loro volta daranno origine ad altre comunicazioni così che la rete, nel suo complesso, viene a generare se stessa, è autopoietica. Sviluppandosi in una serie di circuiti che ritornano su se stessi, le comunicazioni producono un sistema di credenze, spiegazioni e valori condivisi – un comune orizzonte di significato -, continuamente alimentato da ulteriori comunicazioni. Attraverso questo orizzonte di significati condivisi, i singoli individui acquistano la propria identità di membri della rete sociale, e in questo modo la rete genera anche i propri confini, l'ambito della propria estensione. Non si tratta di confini fisici, ma di una ambito di aspettative, di fiducia e lealtà, che viene continuamente mantenuto e rinegoziato dalla rete stessa. Per Capra inoltre la cultura emerge da una complessa dinamica non lineare. Essa è creata da una rete sociale in cui, attraverso molteplici circuiti, i valori, le credenze e le regole di condotta vengono continuamente mantenuti, comunicati e modificati. La cultura emerge da una rete di comunicazioni fra individui; e, quando è emersa, viene a sua volta a condizionare le loro azioni. In altri termini, le strutture sociali (o regole di comportamento) che condizionano le azioni degli individui, vengono prodotte e continuamente rafforzate dalla loro stessa rete di comunicazioni. La rete sociale produce poi anche un corpo di conoscenze condivise (in cui rientrano informazioni, idee, abilità tecniche) che, assieme ai valori e alle credenze, contribuiscono a dar forma al modo di vita caratteristico di quella cultura. Inoltre, i valori e le credenze propri di una cultura esercitano un'influenza sul corpo di conoscenze in essa prodotto; fanno cioè parte di quelle lenti attraverso le quali vediamo il mondo, e ci aiutano a interpretare le nostre esperienze e a decidere quale tipo di conoscenza è rilevante, significativa. Queste conoscenze significative, continuamente modificate dalla rete di comunicazioni, vengono poi trasmesse di generazione in generazione assieme ai valori, alle credenze e alle regole di condotta che caratterizzano quella determinata cultura54. In una comunità Open Peer-to-Peer, quindi le comunicazioni svolgono anche la funzione di mantenere l'auto-organizzazione della comunità stessa, "riparando" e "sostituendo" gli elementi deboli: ossia, cercando di motivare i partecipanti o di sostituire la loro uscita coinvolgendone nuovi. Questi cicli autopoietici, basati sulle comunicazioni, permettono anche l'emergenza della cultura della 53 Idem 54 Idem 130

comunità e quindi della sua identità. Si vede quindi come il flusso di informazioni non permetta solamente l'evoluzione di un sistema complesso e dell'oggetto della sua attività, ma anche la costituzione e mantenimento della sua autoorganizzazione.

5.8. Definire la complessità per affrontarla Sembrano esserci idee intuitive abbastanza ben sviluppate su che cosa costituisca un sistema complesso, ma i tentativi di formalizzare il significato della complessità sembrano ancora incompleti. In informatica, è stata introdotta la nozione di complessità computazionale di un problema, definita come il tempo minimo impiegato da un computer per risolvere tale problema. Essa ha però un campo di applicazione molto ristretto, e non è adatta a descrivere la complessità di un sistema qualsiasi; inoltre, presenta una chiara "dipendenza dal contesto": il tempo minimo dipende, infatti, dal tipo di computer e dall'abilità del programmatore55. In realtà, la dipendenza dal contesto è ineliminabile. La maggior parte delle definizioni di complessità, perciò, anziché lasciarla implicita, la rendono esplicita: assumono, cioè, che la complessità di un sistema non sia una sua proprietà intrinseca, oggettivamente misurabile, ma dipenda dalla descrizione del sistema che ne viene fatta da un osservatore esterno. La teoria dei sistemi complessi adattativi permette di introdurre una particolare definizione di complessità: la complessità effettiva. Un sistema complesso adattativo, quando riceve un flusso di dati dall'esterno, ne individua le regolarità e le comprime in uno schema. Se il flusso di dati proviene da un altro sistema, lo schema non sarà che una descrizione delle regolarità di tale altro sistema. La complessità effettiva di un sistema, con riferimento ad un sistema complesso adattativo che lo osserva e ne costruisce uno schema, è la lunghezza di questo schema, ossia la lunghezza della più breve descrizione delle sue regolarità56. Anche in questo caso, ci si riferisce ad una descrizione fatta da un osservatore esterno; questa, però, non riguarda l'intero sistema ma solo le sue regolarità. Per una data descrizione la complessità effettiva raggiunge un valore elevato in una situazione intermedia, quando il sistema non è né troppo ordinato né troppo disordinato. Il concetto di complessità effettiva ha però dei limiti. Se si osserva il genoma degli esseri umani e quello delle grandi scimmie antropomorfe a noi più vicine nell'albero dell'evoluzione, si può notare che le differenze sono poco rilevanti; eppure, tali minime mutazioni genetiche hanno permesso agli uomini di elaborare un linguaggio e una cultura.

55 Bertuglia, Staricco (2000) 56 Idem


La lunghezza del genoma, cioè, non è in grado, da sola, di misurare in modo adeguato la complessità degli organismi, e degli esseri umani in particolare. Occorre allora integrare la complessità effettiva con il concetto di complessità potenziale, per tenere conto di come piccoli cambiamenti nello schema descrittivo interno possano portare ad una forte crescita delle complessità effettiva. La complessità potenziale, cioè, dà una misura del livello di complessità che un sistema potrà raggiungere nel corso della sua evoluzione futura. Per valutarla, si considerano le possibili storie future del sistema, e si calcola la complessità effettiva che il sistema avrà in ciascuna di quelle storie: la complessità potenziale del sistema è la media di tali complessità effettive, pesate ciascuna secondo la probabilità che il sistema ha di seguire la storia corrispondente. La complessità potenziale avrebbe così permesso di distinguere le scimmie dai primi esseri umani primitivi, pur avendo essi una complessità effettiva molto simile57. La nozione di complessità effettiva appare molto vicina alla definizione di complessità proposta da Casti58. Secondo questo autore, la complessità è una proprietà latente di un sistema S, che si manifesta solo quando S interagisce con un altro sistema O, generalmente in un processo di misura o di controllo. In questa interazione, si possono distinguere due forme di complessità: la complessità di S così come percepita da O, chiamata design complexity e indicata con CO(S); e la complessità di O così come viene percepita da S, chiamata control complexity e indicata con CS(O). design complexity CO(S):

O osserva S

control complexity CS(O):

O è osservato da S

Questa distinzione è stata generalmente trascurata nella fisica classica, dove l'interazione tra S ed O sembra unidirezionale, perché il sistema osservato S non appare esercitare alcuna forma di La osservazione sul sistema osservatore O59. control complexity ha, invece, un ruolo importante nella fisica dei quanti e del cosmo, nei sistemi biologici dotati di un qualche livello di autocoscienza e, soprattutto, nei sistemi sociali. Casti60 ha introdotto la seguente "regola aurea" per due sistemi complessi in interazione tra loro: la situazione migliore si ha quando i due sistemi hanno pressoché lo stesso livello di complessità, ossia: CO(S) = CS(O) In altre parole, bisogna essere complessi per 57 Idem 58 Casti J.L., (1986), On System Complexity: Identification, Measurement and Management, in J. Casti & A. Karlquist (eds.) Complexity Language and Life: Mathematical Approaches. Berlin: Springer, pp. 146-173. 59 Bertuglia, Staricco (2000) 60 Casti (1986)

comprendere e per gestire la complessità. Ciò comporta, in primo luogo, che la complessità di un sistema non va vista come un difetto che debba essere eliminato, al fine di una migliore comprensione o gestione del sistema; al contrario, quando il sistema appare troppo semplice al suo osservatore o gestore, un aumento della complessità può rivelarsi addirittura auspicabile, perché può essere causa e fonte di varietà e quindi ricchezza di aspetti. In secondo luogo, per riuscire a gestire la complessità, occorre creare modelli fedeli non solo del sistema da gestire, ma anche del sistema che gestisce. La complessità, la sua identificazione e la sua gestione sono il risultato di un processo interattivo fra il sistema gestito e il sistema gestore; quest'ultimo, quindi, deve disporre di un'adeguata descrizione (un modello) sia del sistema gestito sia di se stesso. Ne discende, tra l'altro, che dobbiamo avere uno strumento che permetta di stabilire il livello di complessità di entrambi, poiché la situazione migliore, ai fini della gestione della complessità, sarebbe quella in cui i due livelli di complessità sono uguali fra loro61. Da un punto di vista quantitativo, propone di misurare CO(S) tramite il numero di descrizioni non equivalenti che O può fornire di S. Per descrizione si intende una qualche forma di interazione che O può avere con S. Un sasso, ad esempio, per la maggior parte delle persone è un oggetto semplice, ed è oggetto solamente di poche interazioni (lancio, rottura, ecc.) mentre per un geologo rappresenta un sistema complesso in quanto si trova di fronte ad un campo di interazioni possibili più ampio (ad esempio, le varie modalità di analisi e studio del sasso)62. Una nuova classe di descrizioni, non equivalenti rispetto alle precedenti, emerge ogni volta che il sistema attraversa una biforcazione o si dota di un nuovo livello organizzativo nella sua gerarchia. CO(S), quindi, può essere assunta uguale al numero di biforcazioni che un sistema osservatore O riconosce nell'evoluzione di un sistema S. Lo stesso vale per la complessità effettiva di un sistema S: essa è la descrizione più breve, fatta da un altro sistema O, delle regolarità del sistema S, e il numero di tali regolarità dipende da quello delle biforcazioni. Ogni biforcazione, infatti, è un evento accidentale che si "congela" come una regolarità per il futuro del sistema. Tanto la definizione di complessità effettiva, quanto quella di design complexity, quindi, vedono nella complessità una proprietà del sistema, che si manifesta, però, solo nell'interazione di tale sistema con un osservatore. Ciò significa che uno stesso sistema può presentare, per due osservatori differenti, due livelli diversi di complessità. Inoltre, sia la complessità effettiva sia la design complexity di un sistema vengono valutate quantitativamente sulla base del numero di biforcazioni che un determinato osservatore individua nell'evoluzione di quel sistema. Infatti, ad ogni punto di 61 Bertuglia, Staricco (2000) 62 Idem 131


biforcazione il sistema acquisisce una nuova forma di organizzazione, che è qualitativamente differente dalle precedenti; in altre parole, una biforcazione fa sì che l'osservatore colga, nel sistema, nuove regolarità (e, quindi, un aumento della complessità effettiva), o possa dare del sistema nuove forme di descrizione (cioè ne veda accresciuta la design complexity). Infine, è bene ricordare come la comparsa di biforcazioni, nell'evoluzione di un sistema, sia dovuta alla non-linearità delle interazioni tra i suoi elementi: in questo modo, è possibile comprendere il legame esistente tra le due definizioni di complessità sopra riportate (basate sulla presenza di biforcazioni) e la definizione di sistema complesso data all'inizio (basata sulla non-linearità delle interazioni tra gli elementi costitutivi)63. La complessità di un problema si manifesta solo ad un osservatore complesso: per questo motivo le comunità Open Peer-to-Peer, che sono dei sistemi complessi, riescono ad affrontare e risolvere problemi complessi. Una moltitudine di agenti, in grado di agire con una certa libertà, possono esplorare differenti direzioni e prospettive. Sebbene solo pochi agenti avranno successo, la natura delle comunità Open Peer-to-Peer, basate sulla condivisione, fa sì che tutta la comunità riesca a trarne vantaggio.

5.9. Riduzione della complessità e valorizzazione della diversità Le comunità Open Peer-to-Peer risultano quindi importanti anche per una loro caratteristica: essendo sistemi complessi, possono affrontare con successo problemi complessi. Fino ad oggi, infatti, a parte alcuni casi eccezionali, si è sempre tentato di ridurre la complessità al fine di affrontarla. Le comunità Open Peer-to-Peer non rappresenteranno forse il primo tentativo di risoluzione della complessità attraverso la complessità, ma rappresentano invece un caso importante di come questo tentativo possa essere svolto, e di come possa essere portato alla conoscenza generale. Un primo esempio di questo tentativo viene riscontrato da Enzo Rullani64 nei distretti industriali. Per Rullani la razionalità deterministica tipica del pensiero moderno, e in special modo del fordismo, ambiva soprattutto a rendere efficiente lo sfruttamento del già noto. Per far ciò bisognava prima di tutto neutralizzare la complessità del mondo, che minacciava la possibilità di calcolo e razionalizzazione. Dovevano cioè essere ridotti gli spazi di varianza e di indeterminazione che rendevano imprevedibili gli eventi naturali, le scelte individuali, i significati percepiti da diverse persone e organizzazioni, i comportamenti manifestati nella vita economica e sociale65. In questo spirito, essi erano stati disciplinati e ridotti 63 Idem 64 Rullani (2002a) 65 Ibidem p.68 132

con l'uso della strumentazione uscita dalla rivoluzione industriale e cioè: • con l'uso della scienza e della tecnologia, incorporate nelle macchine e nel sistema tecnico della produzione di fabbrica, caratterizzato dalla ripetitività e standardizzazione delle operazioni e dei prodotti; • con il ricorso all'automatismo dei mercati, che ha imposto il prezzo come metro universale di misura di tutte le cose, sottoponendo in questo modo la vita produttiva e sociale ad un potente processo di quantificazione e astrazione. Il fordismo, nel corso del Novecento, aveva poi reso più drastica la spinta verso la razionalizzazione tecnica, inquadrando il lavoro nell'organizzazione scientifica varata da Taylor e generalizzando l'impiego della produzione a macchina, estesa a tutte le sfere di attività, comprese quelle di maggiore complessità. Grazie a questo trattamento, la complessità intrinseca di alcune attività non è più un buon motivo per sottrarle alla modernizzazione, perché può essere efficientemente ridotta mediante la tecnica della parcellizzazione: un compito complesso viene scomposto in una sequenza di operazioni elementari, ciascuna delle quali è abbastanza semplice da essere delegata ad un algoritmo di calcolo o ad una macchia. La linea di lavorazione o il programma di produzione potranno poi ricomporre i frammenti, aumentando il livello di complessità nei limiti dello strettamente necessario, inferiori a quelli iniziali. Per Rullani quindi la programmazione della grande impresa fordista genera quindi un ambiente artificiale a complessità ridotta. Un ambiente che ha il pregio fondamentale di rendere controllabile il comportamento degli agenti, dal momento che gli effetti delle azioni sono calcolabili e i rapporti tra le diverse azioni programmabili in anticipo. Il calcolo si sposta in questo modo al potere: ciò che può essere calcolato, diventa facilmente controllabile. Ed è anche vero il contrario: ciò che può essere controllato, offre un ottimo input – privo di ambiguità e di sorprese – per le procedure di calcolo. Nelle aree in cui rimane un eccesso di varianza o di indeterminazione, i dispositivi di previsione e di comando sono affiancati da procedure di negoziazione tra gli interessi organizzati. Alla fine, nell'affresco che rappresenta il capitalismo manageriale trionfante fino agli anni '70, grandi organizzazioni pubbliche e private assicurano la stabilità e prevedibilità dei comportamenti usando come riduttori di complessità la forza della conoscenza scientificotecnologica, quella del comando proprietario e quella, più duttile e adattiva, della contrattazione con gli stakeholder. Una modernità che procedeva riducendo la complessità “naturale” del mondo umano e sociale aveva pochissimi punti di contatto con la nozione di territorio, inteso come sintesi, sedimentata in un luogo, di storia, cultura e di


relazioni tra gli uomini66. Nella teoria e nella pratica dell'economia moderna, il territorio è di fatto scomparso; al suo posto la modernità ha proposto uno spazio artificiale, privo di complessità e posto a disposizione del calcolo di convenienza degli attori. Nel progetto fordista di modernità, la complessità delle società locali non era in alcun modo utilizzabile per produrre valore economico, ma era di ostacolo e di impaccio. Un territorio senza complessità è un territorio senza qualità. Uno dei tanti luoghi, uno dei tanti addensamenti o rarefazioni prodotte dall'algoritmo di calcolo67. Ma questa riduzione della complessità si è trovata di fronte ad un limite, e non a caso si parla ora di post-modernità e post-fordismo. In epoca postfordista il mercato non è più in continua crescita, ma, nella migliore delle ipotesi, stabile; la domanda è sempre più differenziata in prodotti poco standardizzati e dal ciclo di vita molto breve. In una tale situazione l'impresa deve imparare a "respirare" con il mercato, cioè ad adattare le proprie procedure produttive al carattere instabile, nervoso, imprevedibile, della domanda. Si ha il passaggio dal modello di strategia autoritario del tipo top-down, che caratterizzava il fordismo, a quello che i teorici dell'organizzazione chiamano "incrementale", del tipo bottom-up. In esso le strategie emergono dalle decisioni incrementali prese durante la continua attività di correzione, sperimentazione e apprendimento che ha luogo a livello operativo: non si dà più un soggetto "centrale", ma si ipotizza una molteplicità di microdecisioni. Non potendosi più basare sulle economie di scala, l'impresa assume come principi organizzativi quello della decentralizzazione, della flessibilità e del justin-time, per ridurre al minimo scarti, tempi morti e magazzini. Essa deve, necessariamente, porre in essere livelli relativamente elevati di autoorganizzazione, interpretando i segnali provenienti dall'ambiente e adattandovi le forme e le modalità della propria cooperazione. La fabbrica postfordista si razionalizza da sé, lavorando68. Si tende quindi oggi ad affrontare maggiormente la complessità, in tutte le sue sfaccettature: ad esempio, oggi ci si interessa alle caratteristiche specifiche del territorio negli interventi di sviluppo locale. E questo interesse è nato soprattutto da casi promettenti come i distretti industriali. Rullani collega il successo dei distretti industriali alla loro “straordinaria capacità di far coesistere un'efficiente organizzazione della produzione, con tutta la gamma di specializzazioni e di scambi tipici di una economia moderna, con livelli di elevata varietà (nello spazio), di variabilità (nel tempo) e di indeterminazione (nello spazio delle possibilità)”69. Esso rappresenta, in altri termini, la negazione pratica del “dogma centrale” della modernità, che considera incompatibili organizzazione e complessità, proponendo di conseguenza 66 67 68 69

Ibidem p.70 Ibidem p.71 Bertuglia, Staricco (2000) Rullani (2002a) p.82

organizzazioni condannate a mantenere artificialmente basso il livello di complessità ammessa al loro interno e nei rapporti con l'ambiente esterno. Per Rullani i distretti industriali offrono invece un esempio pratico di come sia possibile realizzare una ragionevole sintesi tra organizzazione e complessità, anche in assenza di dispositivi artificiali di riduzione della complessità basati sulla tecnica, sul comando o sulla negoziazione. La complessità, in altre parole, viene governata dai distretti in altro modo (senza ridurla a priori) e con altri dispositivi (diversi dalla tecnica, dal comando e dalla negoziazione). Il distretto industriale è un sistema che metabolizza la complessità attraverso una dinamica di apprendimento distribuito, che mobilita l'intelligenza di molti attori autonomi capaci di comunicare e di interagire tra loro. Nessuno di questi attori ha abbastanza potere tecnico, normativo o negoziale da ordinare il comportamento degli altri in un programma coerente di azioni, ma ciascuno impara, nel corso dell'azione, ad esplorare il suo segmento di complessità facendo esperienza in proprio e, al tempo stesso, facendo tesoro dell'esperienza degli altri. Di qui l'emergenza di una auto-organizzazione che progressivamente, attraverso ripetute prove, “impara” a rendere efficiente l'organizzazione interna del sistema e a rispondere in modo flessibile alle domande dell'ambiente esterno. Per Rullani70 il distretto industriale ha le caratteristiche tipiche di un sistema adattativo complesso, perché • è ordinato da processi auto-organizzatori, che avvengono per variazione, selezione e ritenzione delle varianti di volta in volta più adatte alla situazione contingente, a prescindere dall'esistenza di un progetto intenzionale e di attori consapevoli; • nell'elaborazione di varianti e nella selezione/ritenzione delle stesse utilizza un capitale intellettuale e sociale sedimentato dall'esperienza e assimilato nelle strutture specifiche, originali di ciascun distretto (linguaggi, circuiti logistici, sistemi fiduciari e di garanzia); • manifesta processi di crescita e dinamiche non lineari, grazie ai moltiplicatori che propagano nel distretto le soluzioni più efficaci e stoppano quelle non altrettanto riuscite; • ospitando un patrimonio di varianti e di nicchie ecologiche di gran lunga eccedente gli usi immediati, dà accesso ad una riserva di diversità che consente risposte flessibili e creative rispetto alle contingenze. Inoltre, sempre secondo Rullani, l'ecologia distrettuale modifica continuamente l'accoppiamento strutturale raggiunto tra gli uomini, i significati, i mezzi materiali e i prodotti. Nel suo funzionamento il distretto non “macina” soltanto informazioni e soluzioni tecniche, ma plasma strutture sociali, identità collettive, scale di valori. Rullani ha quindi una visione autopoietica del 70 Idem 133


distretto, che ha una certa capacità di risolvere problemi solo a condizione di potersi riprodurre come sistema vivente, formato da migliaia di uomini che cercano nel suo ambiente non solo soluzione economicamente efficienti, e paganti, ma anche risposte a bisogni di relazione, di comunicazione, di senso che eccedono l'orizzonte economico strettamente detto. Tutte queste persone abitano in modo permanente il distretto e non hanno un mondo di ricambio in cui soddisfare le loro esigenze extra-economiche. Dunque la micro-società distrettuale non può limitarsi ad essere efficiente dal punto di vista dell'economia, ma dovrà rispondere ad esigenze meta-economiche o extra-economiche che sono ugualmente importanti per riprodurre il sistema nel tempo71. Di conseguenza, il distretto può appartenere legittimamente all'economia soltanto se questa allarga la regione di sua pertinenza, uscendo dal determinismo e avventurandosi nella complessità. Per questo motivo per lungo tempo i distretti furono ignorati dagli economisti. Il distretto organizza la complessità della divisione del lavoro innovativo usando, come “collante”, la condivisione del contesto locale da parte di imprese che lavorano vicine l'una all'altra e che fanno parte dello stesso sistema di esperienza. Il distretto, in questo senso, non è altro che una rete collaborativa localizzata che utilizza il territorio come medium di relazione per facilitare la divisione del lavoro e la propagazione delle idee di successo. Si può dunque parlare di complessità considerando l'ambiente (la forma latente dello spazio delle possibilità) o considerando il sistema che lo esplora (la struttura interna che metabolizza la complessità dell'ambiente esterno e la rende governabile). Per Rullani “ci si aspetta infatti che l'esplorazione di un ambiente complesso abbia come risultato la costruzione di una struttura interna al sistema di pari livello di complessità; e che la complessità interna di un sistema possa essere considerata utile solo se si riferisce ad un ambiente con cui quella struttura ha qualche corrispondenza. L'apprendimento sottrae dunque complessità libera all'ambiente e la metabolizza nelle strutture del sistema sotto forma di complessità governata, ossia di varianza, indeterminazione e curvature dello spazio delle possibilità che il sistema è in grado di padroneggiare con variazioni o adattamenti rapidi e poco costosi, anche se non deterministici”72. La struttura interna si articola per livelli, in funzione delle proprietà emergenti che caratterizzano, ad esempio, un macrosistema rispetto ai suoi componenti elementari. Il manifestarsi di proprietà emergenti che sono proprie, ad esempio, delle cellule e non delle molecole, dei gruppi sociali e non degli individui che li compongono, consente di distribuire il governo della complessità tra diversi livelli di organizzazione, passando dal micro al macro. Il governo della complessità può avvenire regolando 71 Idem 72 Idem 134

il comportamento delle parti elementari, ma, per tutti gli aspetti che riguardano le proprietà emergenti a livello macro, questa regolazione può diventare molto difficile e costosa se non si stabiliscono meccanismi di governo a livello macro, che consentano di utilizzare il principio dell'equivalenza funzionale. Rullani termina la sua analisi ipotizzando una convergenza futura tra distretti locali e reti translocali, che sono a suo avviso due modi per governare la complessità attraverso l'interazione tra imprese differenti. Essi, per affermarsi, devono vincere la concorrenza delle gerarchie multinazionali e/o dei mercati. E riescono a farlo solo quando si tratta di organizzare produzioni complesse che, utilizzando sapere contestuale (del luogo o della rete), possono essere diffuse all'interno del sistema e, allo stesso tempo, protette dai concorrenti esterni73. L'elemento decisivo di queste due forme è la possibilità di fare esperienza nella condivisione delle innovazioni. Il contesto condiviso dal distretto (il circuito locale) o il contesto condiviso della rete (la cooperazione a distanza) possono essere due risorse complementari – quando un distretto, ad esempio, si apre ad una serie di relazioni con nodi de-localizzati di una rete più ampia di condivisione delle esperienze – o due risorse concorrenti, quando l'uno sostituisce l'altro. Anche dall'analisi di Rullani, quindi, si comprende come siano utili sistemi complessi integrati a livello locale ma inseriti anche in reti di dimensione più ampia, al fine di risolvere problemi complessi. Certamente vi sono delle differenze tra le comunità Open Peer-to-Peer e i distretti industriali, ma in loro possono essere riscontrati certi tratti comuni di confronto con la complessità attraverso la condivisione e la creazione di capitale sociale74.

5.10. Monocolture e diversità Il passaggio da una modernità riduzionista ad una post-modernità in grado di apprezzare la complessità non riguarda semplicemente la sfera economica, ma è una rivoluzione intellettuale. Si passa da una monocoltura della mente ad una intelligenza collettiva. Vandana Shiva, partendo dall'analisi dell'agricoltura contemporanea, arriva a comprendere come la monocoltura non sia solamente una pratica agricola, ma una concezione del mondo proveniente dalla modernità occidentale diffusa attraverso la globalizzazione dei mercati75. Il filo critico del pensiero di Vandana Shiva è che uniformità e diversità non sono solo modi diversi di uso della terra, ma anche modi di pensare e modi di vivere. La riduzione della complessità attraverso la riduzione della diversità, eredità della modernità e del fordismo, è la causa della diffusione delle 73 Idem 74 Maggioni (2002) 75 Shiva (1995)


monocolture, nella pratica e nella cultura. Per Vandana Shiva, le monocolture prima invadono la mente, e dopo si trasferiscono nella pratica. Le monocolture della mente generano modelli di produzione che distruggono la diversità e legittimano questa distruzione come progresso, crescita e miglioramento. Dal punto di vista delle monocolture della mente, la produttività sembra crescere quando la diversità è cancellata e sostituita con l'uniformità. Tuttavia, dal punto di vista della diversità, le monocolture comportano una diminuzione delle rese e della produttività. Sono sistemi poveri, in termini sia quantitativi sia qualitativi, ed anche altamente instabili e insostenibili. Questo perché distruggono sia la diversità e le alternative sia il controllo decentrato sui sistemi di produzione e di consumo. Le monocolture si diffondono non perché permettano di produrre di più ma perché permettono di controllare meglio. L'espansione delle monocolture dipende dalla politica e dal potere più che dai sistemi biologici della produzione. Shiva sostiene che il sapere scientifico occidentale è una monocoltura che, attraverso la globalizzazione dei mercati, si diffonde uniformando (cioè eliminando) le tradizioni locali. La scomparsa dei sistemi locali, attraverso l'interazione con il sapere occidentale dominante, si realizza a molti livelli, e con diversi passaggi. Innanzitutto, i saperi locali scompaiono semplicemente perché si fa finta di non vederli, negandone l'esistenza. I sistemi occidentali di conoscenza sono stati considerati, in genere, universali. Tuttavia un sistema dominante è anche un sistema locale, con insediamento sociale in una particolare cultura, classe e genere. Non è universale in senso epistemologico. È semplicemente la versione globalizzata di una tradizione locale e provinciale. Derivando da una cultura di dominazione e colonizzazione, i moderni saperi sono essi stessi sistemi di colonizzazione. La distanza stessa rimuove dalla percezione i sistemi locali, e quando riemergono nel quadro della globalizzazione, li si fa scomparire negandone lo status di sapere sistematico e definendoli “primitivi” e “non scientifici”.

Questo perché il sistema occidentale è considerato il solo “scientifico” e universale. I modelli della scienza moderna che hanno favorito questa lettura non discendono da una effettiva pratica scientifica, ma da visioni idealizzate della scienza, che le hanno attribuito un particolare status epistemologico. Il positivismo e i metodi della verifica e della falsificazione erano tutti basati sull'ipotesi che – contrariamente ai valori locali tradizionali del mondo, iscritti nel sociale – la moderna conoscenza scientifica potesse essere definita indipendentemente dalle mediazioni sociali. Si pensava che gli scienziati, in base a un sistema scientifico astratto, facessero affermazioni corrispondenti alla realtà del mondo da essi direttamente osservato. Le nuove tendenze della sociologia e della filosofia della scienza hanno messo in discussione le assunzioni positiviste, ma non la superiorità dei sistemi occidentali. Il sapere scientifico dominante alimenta dunque una monocoltura della mente, che apre un vuoto in cui le alternative locali scompaiono, secondo lo stesso meccanismo con cui la monocoltura delle piante introdotte dall'esterno porta alla distruzione della diversità locale. Il sapere dominante distrugge le condizioni stesse di esistenza delle alternative, così come l'introduzione delle monocolture distrugge le condizioni stesse di esistenza delle diverse specie. Come metafora, la monocoltura della mente è ben illustrata dal sapere e dalla pratica forestale e agricola. Silvicoltura e agricoltura “scientifiche” spaccano artificialmente il mondo vegetale in due parti separate e distinte, sulla base dei differenti mercati delle merci sui quali silvicoltura e agricoltura offrono materie prime e risorse. Nei saperi locali, il mondo delle piante non è artificialmente distinto tra la foresta, che fornisce legname commerciale, e la superficie agricola, che fornisce cibo. Foresta e campi sono un insieme ecologico unitario, e le attività della foresta contribuiscono a soddisfare i bisogni alimentari delle comunità locali, mentre l'agricoltura è modellata sulla ecologia delle foreste tropicali. Una parte degli abitanti della foresta raccoglie il cibo direttamente dalla foresta, mentre molte comunità praticano l'agricoltura fuori della foresta,

Fig. 45: Scomparsa delle alternative e riduzione della diversità con l'introduzione delle monocolture (Fonte: Shiva 1995)

135


ma la fertilità del suolo agricolo dipende da quella della foresta. La maggior parte dei saperi locali si basa sulla capacità di sostegno alla vita offerta dalle foreste tropicali, non sul valore commerciale del legno. Questi sistemi ricadono nel punto cieco di una prospettiva basata esclusivamente sullo sfruttamento commerciale delle foreste. Se taluni prodotti consuetudinari locali possono essere commercializzati, essi vengono considerati “minori”, mentre i tronchi e il legname sono i “prodotti principali”. I sistemi alimentari basati direttamente e indirettamente sulla foresta non esistono dunque nella visione riduzionista della silvicoltura e dell'agricoltura, nonostante che essi siano stati e siano tuttora il fondamento per la sopravvivenza di moltissime comunità nel mondo intero. Anche nelle zone non tribali, le foreste danno cibo e mezzo di sostentamento, attraverso input fondamentali per l'agricoltura, quali la conservazione del suolo e dell'acqua, foraggio e fertilizzante organico. Le pratiche silvicolturali indigene si fondano tutte sul massimo di sostenibilità e rinnovabilità delle diverse forme e funzioni delle foreste e degli alberi. Questa cultura comunitaria della silvicoltura è stata tramandata di generazione in generazione, attraverso la partecipazione ai processi di rinnovamento della foresta e di estrazione dei mezzi di sostentamento dagli ecosistemi forestali. Purtroppo i diversi saperi sviluppatisi insieme con i vari usi della foresta nell'alimentazione e in agricoltura furono eclissati dall'introduzione della silvicoltura “scientifica”, che considera la foresta solo come fonte di legname a fini commerciali e industriali. I legami tra foreste e agricoltura furono spezzati, e la funzione della foresta come fonte di cibo non fu più neanche percepita. La “silvicoltura scientifica” nelle sue attuali forme è un sistema di sapere riduzionista, che ignora le complesse relazioni all'interno della comunità della foresta e tra la vita delle piante e le altre risorse naturali come l'acqua e il suolo. Il suo modello di utilizzazione delle risorse si basa sulla crescita della “produttività”, derivante da una base sempre più ridotta, che riguarda solamente il legname. Al contrario, per le tribù e le altre comunità della foresta la produttività di un ecosistema complesso si misura in termini di erbe, tuberi, fibre, ricchezza genetica, ecc., elementi inutili, improduttivi e superflui dal punto di vista del mercato. Ignorando i collegamenti sistemici dell'ecosistema forestale, questo modello d'uso delle risorse genera instabilità nell'ecosistema e porta a un uso non produttivo delle risorse naturali su scala locale. La distruzione dell'ecosistema forestale e delle molteplici funzioni delle sue risorse interferisce a usa volta con gli interessi economici di quei settori della società che dipendono dalla foresta per la loro sopravvivenza, e cioè dal suolo, dall'acqua, dal cibo, dal foraggio, dal combustibile e dal fertilizzante. La caratteristica principale delle monocolture non è solo sopprimere le alternative, ma anche la possibilità delle stesse. La diversità è il carattere 136

distintivo della natura e il fondamento della stabilità ecologica. Diversi ecosistemi danno luogo a forme di vita e culture diverse. La coevoluzione delle culture, delle forme di vita e degli habitat mantiene intatta la diversità biologica del pianeta. Per Vandana Shiva diversità culturale e diversità biologica si tengono, e l'erosione della biodiversità avvia una reazione a catena. La scomparsa di una specie è connessa con l'estinzione d'innumerevoli altri specie, con le quali la prima è interrelata attraverso le catene alimentari, fatti che l'umanità ignora totalmente. Le varietà introdotte con la monocoltura azzerano la diversità delle colture tradizionalmente cresciute, e attraverso l'erosione della diversità i nuovi semi diventano un meccanismo d'introduzione e di accelerazione degli infestanti. La varietà indigene o razze specifiche locali sono invece resistenti alle malattie e agli insetti nocivi del posto. Anche quando si verificano certe malattie, alcuni ceppi possono risultarne colpiti mentre altri hanno la capacità di sopravvivere. La rotazione dei raccolti aiuta anch'essa nel controllo degli infestanti: dato che molti insetti nocivi sono specifici di piante particolari, la diversificazione delle colture nelle stagioni e negli anni determina una forte riduzione delle popolazioni d'insetti. Piantare lo stesso raccolto su vaste aree, anno dopo anno, incoraggia invece la crescita degli insetti. I sistemi di produzione basati sulla diversità possiedono dunque una protezione intrinseca. La distruzione della diversità è legata alla creazione delle monocolture, e con la creazione delle monocolture l'organizzazione autoregolantesi e decentrata dei diversi sistemi lascia il posto agli input esterni e al controllo esterno e centralizzato. Sostenibilità e diversità sono ecologicamente interconnesse perché la diversità determina molteplici interazioni, capaci di sanare le turbative ecologiche intervenute in qualsiasi parte del sistema. La non sostenibilità e l'uniformità significano che la turbativa in una parte si trasferisce in tutte le altre. Invece di essere delimitata, la destabilizzazione ecologica tende a essere amplificata. Strettamente legata alla diversità e uniformità è la questione della produttività. L'aumento delle rese e della produttività è stata determinante per l'introduzione della uniformità e della logica della catena di montaggio. L'imperativo della crescita genera quello della monocoltura. Ma la crescita è, in larga misura, una categoria socialmente determinata, carica di valori. I diversi sistemi hanno produzioni e rese molteplici, e buona parte delle produzioni ritornano nel sistema permettendo la produzione “a basso livello di input esterni” senza ricorrere al potere di acquisto, al credito e al capitale. Il bestiame e i raccolti si aiutano a mantenere la propria produttività simbioticamente e in modo sostenibile. Oltre alla stabilità ecologica, la diversità assicura forme diversificate di sostentamento e risponde a bisogni molteplici, tramite adattamento reciproco. I sistemi di produzione omogenei e unidimensionali


rompono la struttura comunitaria, eliminano le persone da molte occupazioni e rendono la produzione dipendente da input e mercati esterni. E questo crea vulnerabilità e instabilità politica ed economica, perché sia il fondamento della produzione sia i mercati delle merci diventano ecologicamente instabili. L'importanza del discorso effettuato da Vandana Shiva è quello di mostrare come la riduzione della diversità sia un pericolo collettivo, e di come questa possa verificarsi non solo in alcune pratiche specifiche quali l'agricoltura o la silvicoltura, ma sia una manifestazione culturale generale che bisogna contrastare. La valorizzazione della diversità o la monocoltura sono atteggiamenti mentali, che trovano poi riscontro nelle pratiche quotidiane. Ad esempio, ad effettuare lo stesso collegamento monocoltura-rischio, è stato John Quarterman, analizzando il sistema delle telecomunicazioni della città di New York durante l'attacco alle Twin Towers l'11 settembre 200176. Il sistema telefonico era gestito da una sola compagnia (una monocoltura), mentre vi erano molti Internet Service Provider (ISP) da cui accedere ad Internet. Come risultato dell'attacco, la rete telefonica collassò, mentre l'accesso ad Internet continuò ad essere disponibile. Come in una piantagione a monocoltura non resisterebbe all'attacco di un insetto infestante, anche la rete delle telecomunicazioni non resisterebbe ad un attacco terroristico. Viceversa, la diversità di un campo e di un sistema delle telecomunicazioni garantiscono la stabilità in caso di attacco.

5.11. Intelligenza collettiva Le comunità Open Peer-to-Peer, basandosi sulla diversità dei propri partecipanti, garantiscono un antidoto alla diffusione delle monocolture della mente. Anche le stesse religioni Open Source, sebbene possano apparire pittoresche, celebrano la diversità delle esperienze come strumento per raggiungere la Verità77. Ciò che fanno le comunità Open Peer-to-Peer, nei casi di maggiore espansione, quando riescono a coinvolgere un ampio numero di partecipanti, è costruire una “intelligenza collettiva”. La valorizzazione della diversità viene vista da un punto di vista etico-antropologico da Pierre Levy78, che, collegandola con le nuove tecnologie delle telecomunicazioni (e Internet in particolare), propone lo sviluppo di una intelligenza collettiva. Per Levy, infatti, a differenza delle innovazioni tecnologiche del passato, che erano sviluppate e dirette a livello locale, grazie alle telecomunicazioni ora siamo in grado di pensare collettivamente come utilizzare le telecomunicazioni per migliorare la società. Le gerarchie burocratiche (fondate sulla scrittura statica), le monarchie mediatiche (che si reggono sulla televisione e il sistema dei media) e 76 Quarterman (2002) 77 http://www.yoism.org/ 78 Levy (1996)

le reti dell'economia internazionale (che impiegano il telefono e le tecnologie del tempo reale) mobilitano e coordinano solo parzialmente le intelligenze, le esperienze, le tecniche, i saperi e l'immaginazione degli esseri umani. Ecco perché si pone con particolare urgenza la questione dell'invenzione di nuovi meccanismi di pensiero e di negoziazione, che possano far emergere vere e proprie intelligenze collettive. Per Levy, "se ci impegnassimo sulla strada dell'intelligenza collettiva, inventeremmo progressivamente le tecniche, i sistemi di segni, le forme di organizzazione sociale e di regolazione che ci permetterebbero di pensare insieme, di concentrare le nostre forze intellettuali e spirituali, di moltiplicare le nostre immaginazioni e le nostre esperienza, di negoziare in tempo reale e a ogni livello le soluzioni pratiche ai problemi complessi In un'epoca che dobbiamo affrontare"79. denominata "società della conoscenza" o anche network society basata sull'informazionalismo, la prosperità delle nazioni, delle regioni, delle imprese e degli individui dipende dalla loro capacità di navigare in quello che Levy chiama "Spazio del Sapere". La potenza ormai deriva dalla gestione ottimale delle conoscenze, siano esse tecniche, scientifiche o appartengano all'ambito della comunicazione o ancora abbiano a che fare con la relazione "etica" con l'altro. Più i gruppi umani riescono a costituirsi in collettivi intelligenti, in soggetti cognitivi aperti, capaci di iniziativa, d'immaginazione e di reazione rapida e meglio si garantiscono il successo in un ambiente circostante altamente competitivo. A lungo termine, tutto dipende dalla flessibilità e dalla vitalità delle nostre reti di produzione, di transazione e scambio dei saperi. Il totalitarismo ha fallito di fronte alle nuove forme di esercizio mobile e cooperativo delle competenze, perché, secondo Levy, era incapace di intelligenza collettiva. La nascita di una intelligenza collettiva non riguarda soltanto il grande spostamento delle economie occidentali verso il terziario, ma un movimento molto più profondo, di ordine antropologico. L'intelligenza collettiva di cui parla Levy è un progetto globale le cui dimensioni etiche ed estetiche sono importanti almeno quanto gli aspetti tecnologici e organizzativi. Questa visione dell'avvenire si organizza intorno a due assi complementari: quello del rinnovamento del legame sociale tramite il rapporto della conoscenza e quello dell'intelligenza collettiva propriamente detta. Che cos'è l'intelligenza collettiva? "È un'intelligenza distribuita ovunque, continuamente valorizzata, coordinata in tempo reale, che porta a una mobilitazione effettiva delle competenze"80. Il fondamento e il fine dell'intelligenza collettiva sono il riconoscimento e l'arricchimento reciproco delle persone, e non il culto di comunità feticizzate. Il coordinamento in tempo reale delle intelligenze 79 Ibidem pp.19-20 80 Ibidem p.34 137


implica dispositivi di comunicazione che, al di là di una certa soglia quantitativa, dipendono obbligatoriamente dalle tecnologie digitali dell'informazione. I nuovi sistemi di comunicazione possono offrire ai membri di una comunità i mezzi per coordinare le loro interazioni nello stesso universo virtuale di conoscenza. Se si vogliono mobilitare le competenze è necessario almeno identificarle. E per reperirle, bisogna riconoscerle in tutta la loro diversità. Oggi i saperi ufficialmente riconosciuti rappresentano solo una minima parte di quelli reali. Il problema del riconoscimento è fondamentale, poiché ha come fine non solo una migliore gestione delle competenze nelle imprese e nelle collettività in genere, ma implica anche una dimensione eticopolitica. Nell'era della conoscenza non riconoscere l'altro nella sua intelligenza, significa negargli la sua reale identità sociale, alimentare il suo risentimento e la sua ostilità, contribuire ad aumentare l'umiliazione, la frustrazione dalle quali trae origine la violenza. Al contrario, quando si valorizza l'altro in base al ventaglio diversificato dei suoi saperi, gli si permette di identificarsi in modo nuovo e positivo, si contribuisce a motivarlo, a sviluppare in lui, in contraccambio, sentimenti di riconoscenza che facilitano, di conseguenza, il coinvolgimento soggettivo di altre persone in progetti collettivi. Una intelligenza collettiva valorizza quindi la diversità personale. Il sapere dell'altro non può ridursi a una somma di risultati o di dati. Il sapere è anche un saper vivere, è inscindibile dall'atto di costruire e abitare un mondo e incorpora il tempo lungo della vita. L'indispensabile ascolto dell'altro non può ridursi alla costruzione di un sapere che ricalchi il suo, al puro e semplice assorbimento della sua abilità o delle informazioni che possiede. L'apprendimento in senso forte, è anche affrontare l'incomprensibilità, l'irriducibilità del mondo dell'altro, congiunta al rispetto che si ha di lui. La valorizzazione della diversità prende quindi la forma di un rapporto Peer-to-Peer. Ogni individuo, qualunque sia la sua posizione sociale attuale, qualunque sia il giudizio rilasciato dall'istituzione scolastica su di lui, rappresenta per gli altri un'occasione di apprendimento. "Per la mia esperienza di vita, il mio percorso professionale, le mie pratiche sociali e culturali, e poiché il sapere è coestensivo alla vita, offro delle possibilità di conoscenza a una comunità. [...] Non sono interscambiabile. Ho un'immagine, una posizione, una dignità, un valore personale e positivo nello Spazio del sapere. Tutti gli esseri umani hanno il diritto di vedersi riconoscere un'identità di sapere. Lo Spazio del sapere inizia a vivere nel momento in cui si sperimentano relazioni umane fondate su questi principi etici di valorizzazione degli individui a partire dalle loro competenze, di trasformazione effettiva delle differenze in ricchezza collettiva, di integrazione in un processo sociale dinamico di scambio di saperi, nel quale ciascuno sia riconosciuto in tutto e per tutto, e non sia bloccato nei propri percorsi di apprendimento da 138

programmi, prerequisiti, classificazioni a priori o pregiudizi sui saperi nobili o non nobili"81. In breve, l'ideale dell'intelligenza collettiva implica la valorizzazione tecnica, economica, giuridica e umana di un'intelligenza distribuita ovunque, al fine di innescare una dinamica positiva di riconoscimento e di mobilitazione delle competenze. Ma soprattuto non va confusa con progetti "totalitari" di subordinazione degli individui in comunità trascendenti. In un formicaio, gli individui sono "ottusi", mancano di una visione d'insieme e sono ignari del modo in cui ciò che fanno si connette con gli atti degli altri individui. Ma benché le formiche isolate siano "stupide", la loro interazione produce in comportamento manifesto globalmente intelligente. Si aggiunga che il formicaio possiede una struttura assolutamente fissa, che le formiche sono rigidamente divise in caste e sono interscambiabili al loro interno. Il formicaio rappresenta il contrario dell'intelligenza collettiva. In un collettivo intelligente, la comunità si dà esplicitamente come obiettivo la negoziazione costante dell'ordine delle cose, del suo linguaggio, del ruolo di ciascuno, la suddivisione e la definizione degli oggetti, la reinterpretazione della propria memoria. Niente è fisso, e tuttavia non regnano il disordine e il relativismo assoluti, poiché gli atti sono coordinati e valutati in tempo reale in base a un ampio numero di criteri, a loro volta costantemente ridefiniti rispetto al contesto. Interagendo con diverse comunità, gli individui che animano lo Spazio del sapere, lungi dall'essere membri intercambiabili di caste immutabili, sono al contempo singolari, molteplici, nomadi e in perenne metamorfosi (o apprendimento, il che è lo stesso). Per Levy questo progetto di costruzione della intelligenza collettiva comporta un nuovo umanesimo che include e amplia il "conosci te stesso" in direzione di un "impariamo a conoscerci per pensare insieme" e generalizza il "penso dunque sono" in un "noi formiamo un'intelligenza collettiva, dunque esistiamo come comunità significativa". Si passa dal cogito cartesiano al cogitamus. Lungi dal fondere le intelligenze individuali in una sorta di magma indistinto, l'intelligenza collettiva è un processo di crescita, di differenziazione e di mutuo rilancio delle specificità. L'immagine dinamica che emerge dalle sue competenze, dai suoi progetti e dalle relazioni che i suoi membri intrattengono all'interno dello Spazio del sapere, costituisce per un collettivo una nuova modalità di identificazione aperta, viva e positiva. Inoltre, nuove forme di democrazia, più adatte alla complessità dei problemi contemporanei rispetto alle forme rappresentative classiche, potrebbero allora vedere la luce82.

81 Ibidem p.33 82 Ibidem pp.37-38


Con un altro percorso (interessandosi infatti di organizzazione aziendale), anche Weick giunge a parlare di intelligenza collettiva, o meglio, mente collettiva83. L'aspetto innovativo del suo pensiero sta nel sostenere l'equivalenza tra i processi cognitivi di creazione del senso (sensemaking) e i processi mentali e sociali dell'organizzazione (organizing). Creare senso e organizzare sono esattamente la stessa cosa. La tesi di Weick è che la logica dell'affidabilità impone alle organizzazioni di attivare dei processi mentali collettivi più sviluppati di quelli presenti nelle organizzazioni operanti secondo i criteri di efficienza. Ma che cosa si deve intendere per processi mentali collettivi? Il cervello consiste di una estesa rete di unità molto semplici di elaborazione e che la conoscenza dipende dai modelli di connessione esistenti tra quelle unità. Input informativi complessi possono essere codificati e compressi da unità semplici a patto che queste siano riccamente connesse tra loro. L'attività di ogni unità dipende dall'attività delle unità vicine, connesse alla prima da legami eccitatori o inibitori che variano a seconda del proposito (design) e/o del processo di apprendimento. Questa tesi concorda con l'idea di Weick di un parallelismo tra l'organizzazione e la mente. Così come la mente può essere raffigurata come un'organizzazione reticolare di neuroni, anche le organizzazioni possono essere raffigurate come delle menti dove i singoli soggetti svolgono un ruolo analogo a quello svolto dalle unità neuroniche. Dei soggetti relativamente semplici possono essere messi in grado di apprendere input complessi se si connettono tra loro in modi che ricordano le reti neurali. Se i singoli soggetti possiedono delle conoscenze che non sono mutualmente esclusive ma che si sovrappongono tra loro, è più facile ottenere azioni efficaci e prestazioni coscienziose. La tesi di Weick è che le organizzazioni preoccupate da problemi di affidabilità devono favorire lo sviluppo di menti collettive per agire in modo coscienzioso, attento, coerente, ostinato e intelligente. A differenza di una prestazione abituale, una prestazione coscienziosa comporta dei processi di apprendimento che portano a migliorare e non semplicemente a replicare le prestazioni precedenti. La mente collettiva nasce nell'interazione pragmatica e orientata a un fine di vari soggetti. Se tutti i soggetti coinvolti contribuiscono, rappresentano e subordinano con cura le loro azioni, queste potranno essere interpretate come delle operazioni volte a sviluppare una mente collettiva.

azioni dei singoli dipende dall'interazione tra i know-how individuali. Non va nemmeno scordato che la mente collettiva, proprio perché è il risultato di interazioni sociali, è una conquista precaria. Si fa molto più in fretta a dissolvere una mente collettiva piuttosto che a costruirla. Quando l'interconnessione coscienziosa è visibile, premiata, discussa e conservata in storie vivide, è probabile che i nuovi membri la apprendano come stile di lavoro e la incorporino nella definizione del loro ruolo. Ciò che quindi fanno le comunità Open Peer-toPeer è costruire una intelligenza (o mente) collettiva, dove le diversità individuali vengono valorizzate e utilizzate, dove l'appartenenza ad una comunità non prescrive l'adesione ad una identità comune monolitica, una monocoltura della mente. Attraverso una intelligenza collettiva, possono essere costruite organizzazioni in grado di risolvere problemi complessi in maniera adattativa. Ad esempio, nel caso di Keen.org84 i partecipanti sono sia persone in cerca di consulenza da parte di esperti, sia potenziali esperti: ciò che fa la piattaforma è rendere possibile la ricerca ed identificazione delle conoscenze distribuite. Oppure l'organizzazione Honey Bee Network85, che si propone di mettere in rete fra loro tutte le persone creative impegnate in elaborare soluzioni a problemi locali, facilitando la condivisione di conoscenze e quindi l'apprendimento collettivo. In questo caso la costruzione di una intelligenza collettiva basata sulla diversità si pone come esplicito obiettivo la critica ad un modello di sviluppo basato su una monocoltura della mente, che prescrive un approccio top-down. E nello stesso caso di Linux (e di tutti i software open source), è la diversità dei partecipanti che porta alla risoluzione dei problemi emergenti: da differenti prospettive si effettuano differenti analisi e si propongono differenti soluzioni. Le comunità Open Peer-to-Peer possono essere utili per interventi di sviluppo locale non solo grazie alla costituzione di capitale sociale, ma anche al riconoscimento e alla valorizzazione del capitale intellettuale distribuito. Per Levy "la capacità di costituire e ricostituire rapidamente collettivi intelligenti diventerà l'arma decisiva dei bacini regionali di abilità specifiche in competizione entro uno spazio economico su scala mondiale"86. Una intelligenza collettiva prodotta da comunità Open Peer-to-Peer mobilita e allo stesso tempo arricchisce (grazie ad un confronto paritario, Peer-to-Peer) il capitale intellettuale individuale.

La superiorità di una mente collettiva rispetto a una pluralità di menti individuali sta nella capacità di affrontare eventi inattesi con molta maggiore efficacia. Nella mente collettiva, sebbene le attività restino individuali, il referente diventa un campo socialmente strutturato e la coscienziosità delle 83 Weick K., (1993), "Collective Mind in Organizations: Heedful Interrelation on Flight Decks", Administrative Science Quarterly, 38, pp.628-652

84 p.258 85 pp.332-334 86 Levy (1996) p.26 139


140


6. Reti collaborative per lo svolgimento di attività

6.1. Comunità attorno ad attività Si può notare, esaminando i casi esistenti, che le comunità Open Peer-to-Peer si formano al fine di soddisfare alcune esigenze a cui né lo Stato né il mercato riescono o sono intenzionati a fare. E spesso le forme con cui Stato e mercato cercano di soddisfare queste esigenze sono inadatte, portando così ulteriormente necessità di attivazione. La soluzione di queste esigenze avviene grazie ad una attività collettiva, su base collaborativa. Si può quindi dire che le comunità Open Peer-to-Peer si formano, si sviluppano ed evolvono attorno ad una attività, mirata alla soddisfazione delle proprie esigenze. Ovviamente una comunità non deve per forza organizzare una attività che rientra in un solo tipo, ma anche più attività oppure una attività complessiva le cui operazioni rientrano poi in differenti tipi. Oltre a queste attività, per così dire più “specifiche” di ogni comunità (tabella 5), le comunità devono organizzare altre attività che sono basilari, antecedenti alle attività specifiche. Queste attività infatti sono necessarie per la discussione collettiva su quali attività specifiche intraprendere: possono essere considerate come attività di “infrastruttura” (tabella ). Lo svolgimento delle attività infrastruttura permette quindi lo svolgimento delle attività specifiche: la distribuzione di informazioni permette la discussione e la comunicazione; la distribuzione di beni fisici permette la condivisione di beni fisici e attività svolte su di loro; la “distribuzione” di persone permette ai partecipanti spostamenti e viaggi. Le attività organizzative si trovano quindi ad un gradino più alto rispetto a quelle infrastruttura: sono necessarie per la organizzazione di una comunità, ma spesso molte comunità Open Peer-to-Peer svolgono queste attività specifiche

attività di infrastruttura

attività ma non svolgono altre attività specifiche. Per lo svolgimento delle attività specifiche sono invece necessarie sia le attività infrastruttura che quelle organizzative. Per poter comprendere appieno le caratteristiche generali condivise delle comunità Open Peer-to-Peer, è possibile utilizzare una teoria sviluppata appositamente per lo studio delle attività umane: la Teoria dell'Attività (Activity Theory). Comprendendo come avvengono le attività svolte dalle comunità Open Peer-to-Peer, possiamo comprendere il loro funzionamento e le loro caratteristiche generali, dato che le comunità Open Peer-to-Peer si formano esclusivamente per lo svolgimento di una o più attività. La Teoria dell'Attività sottolinea il carattere situato dell'azione umana, evidenziando come gli obiettivi e lo svolgimento dell'azione, dato lo scopo generale dell'attività a cui appartiene, siano costruiti e negoziati continuamente in funzione delle condizioni locali con cui interagisce.

6.2. Azione situata e attività La dipendenza di una azione dalla situazione e dalle circostanze specifiche in cui avviene è un concetto chiave di un recente filone di studi sull'attività umana definito in termini generali come “teoria della situatività”1. Il nuovo paradigma della'”azione situata”, che ha come principale teorizzatrice l'etnometodologa Lucy Suchman, richiama essenzialmente ad un cambiamento di prospettiva nell'analisi del comportamento umano che non considera più l'azione come l'esecuzione pedissequa di un piano stabilito a priori, ma come un adattamento plastico alle caratteristiche peculiari della situazione e delle circostanze.

organizzare attività economiche di scambio e distribuzione;

produrre contenuti;

svolgere ricerche;

progettare;

agire sulla dimensione locale;

sviluppare altre comunità;

distribuire:

informazioni;

beni fisici;

persone;

Tabella 5: Attività delle comunità Open Peer-to-Peer 1

Sangiorgi (2004) 141


Il paradigma “dell'azione situata” prende quindi le distanze dall'approccio tradizionale delle scienze cognitive e sociali che promuovono un'analisi del comportamento umano separato dall'ambiente in cui avviene e sottolinea invece la stretta dipendenza e quindi inseparabilità dell'azione dell'uomo dalle circostanze materiali e sociali. La prospettiva dell'azione situata considera ogni corso d'azione come dipendente dalle sue circostanze materiali e sociali. Invece di separare l'azione dalle circostanze in cui essa si verifica e di rappresentarla come l'esecuzione di un piano razionale, l'approccio dell'azione situata intende studiare come le persone usino le circostanze per sviluppare un corso d'azione. Oggetto di interesse dell'etnometodologia, da cui deriva in gran parte il paradigma dell'azione situata, è la comprensione delle modalità con cui i membri della società raggiungono nelle interazioni sociali quotidiane la comprensione delle azioni reciproche, attraverso un incessante processo di interpretazione e negoziazione. La situazione in cui si svolge l'azione rappresenta quindi l'insieme delle risorse che l'attore utilizza per trasmettere il significato della propria azione così come per interpretare le azioni degli altri attori; le situazioni, come immensi database e insiemi di opportunità, non sono preesistenti rispetto agli attori, ma sono costantemente costruite da essi, in base alle loro competenze e ai loro scopi, sia sul piano cognitivo che su quello pratico. La prospettiva dell'azione situata, con la sua necessità di “situare” e non di astrarre il comportamento umano, risponde inoltre ad una crescente consapevolezza dell'inadeguatezza delle metafore, prevalentemente di origine cognitiva, che privilegiano una interpretazione dell'azione umana quotidiana che separa l'uomo dall'ambiente, i processi mentali interni dagli eventi del mondo esterni, l'attore dal contesto sociale. Accanto ad una lettura dell'azione umana come continuamente negoziata in situ e mediata dalle risorse contestuali (materiali e sociali), la “teoria della situatività” evidenzia infine un altro aspetto: le azioni individuali non possono essere comprese considerando solo i fattori immediatamente presenti nella situazione o contenute nelle persone che agiscono in queste situazioni, ma devono essere lette come socialmente, culturalmente e storicamente situate. Le azioni sono quindi l'attuazione momentanea e contingente di un preesistente contesto socioculturale storicamente determinato, che deve essere considerato nell'analisi di qualsiasi azione umana. L'azione umana (in particolare l'interazione sociale) è il risultato di un processo continuo e situato di negoziazione del significato e quindi di adattamento alle circostanze concrete della situazione in cui avviene. Il presupposto alla base della lettura dell'azione umana come negoziata in situ risiede nel capovolgimento della prospettiva adottata tradizionalmente dalla scienza cognitiva; invece di considerare i “piani mentali” come prescrizioni per 142

l'azione da compiere, vengono descritte come risorse deboli e vaghe, repertori di risorse possibili, variamente utilizzati a seconda delle circostanze specifiche che l'uomo si trova ad affrontare. La prospettiva dell'azione situata considera i piani come rappresentazioni razionali dell'azione, come strumenti per ragionare sull'azione da svolgere o su quella appena svolta e non come meccanismi generativi dell'azione stessa. I piani, sinonimi di azioni dotate di scopo, esistono, ma si tratta quindi di piani attivati, negoziati e rivisti nel corso dell'azione e non invece formulati precedentemente e al di fuori di essa. Ciò in realtà non esclude l'esistenza di scopi e piani generali meno negoziabili e meno sensibili alle situazioni; l'improvvisazione e la flessibilità dei piani a breve termine è una risorsa chiave per la realizzazione di progetti e scopi a medio-lungo termine che investono maggiormente l'identità dell'attore e che quindi tendono a mantenersi inalterati. Il fatto che l'azione umana non possa essere pianificata e prevista in anticipo, ma che sia il risultato di una negoziazione e di una adattamento alle condizioni locali in cui avviene, evidenzia come l'oggettività delle nostre azioni sia qualcosa di raggiunto e costruito e non qualcosa di dato e determinato. L'uomo si confronta quotidianamente con un mondo che deve interpretare per poter agire invece che un ambiente al quale rispondere automaticamente. Gli uomini agiscono verso gli oggetti (fisici, sociali o astratti) sulla base del significato che quegli oggetti hanno per loro; un significato che non è però intrinseco all'oggetto, ma emergente dal processo di interazione tra le persone: è visto come una creazione sociale, continuamente modificato attraverso un processo di interpretazione con il quale le persone interagiscono con gli oggetti stessi. Questo continuo processo di interpretazione ha un particolare valore nelle interazioni sociali quotidiane, dove gli attori, sia che agiscano individualmente, collettivamente o come agenti di una organizzazione, nel momento in cui si incontrano devono necessariamente rendere conto ed interpretare le azioni dell'altro per formare la propria azione. Attraverso un doppio processo di indicazione delle azioni da svolgere e di interpretazione delle indicazioni fatte dall'interlocutore, gli attori sono in grado di adattare reciprocamente le proprie linee di azione congiunte ripetitive e socialmente consolidate. Gli attori devono continuamente adeguare le proprie linee di comportamento e ogni istante di interazione è il risultato di una negoziazione situata. La situatività dell'azione sociale oltre ad evidenziare il carattere negoziato del significato e dell'interazione umana, porta in primo piano i legame indissolubile tra l'attore e le risorse, materiali e sociali, del contesto. In direzione opposta alla tradizione delle scienze cognitive, la teoria della situatività cerca di spiegare le relazioni esistenti tra l'azione umana e il sistema socio-


culturale e privilegia come oggetto di indagine le attività quotidiane così come si svolgono in contesti culturalmente definiti. Nel momento in cui il comportamento umano viene studiato nei contesti della vita quotidiana e non in esperimenti di laboratorio, le metafore cognitive fondate sulla separazione tra “dentro” (mente) e “fuori” (ambiente) perdono il proprio valore e la propria utilità, mentre emerge un nuovo approccio che legge la cognizione come un complesso fenomeno sociale: le risorse contestuali, materiali e sociali, non sono più lette come stimoli esterni di un'attività cognitiva interna, ma come veri e propri “veicoli del pensiero” facenti parte quindi di un sistema allargato che unisce la persona al suo ambiente. Per quanto vi siano diverse concezioni di “cognizione distribuita”, la valorizzazione del ruolo svolto dai fattori contestuali ha portato al comune intento di formulare nuove unità di analisi che siano in grado di rappresentare la natura distribuita e mediata dell'agire umano.

6.3. Teoria dell'Attività La Teoria dell'Attività, attraverso i Sistemi di Attività, propone una visione molto simile. Per la Teoria dell'Attività la mediazione sociale si traduce nella partecipazione ad un Sistema di Attività con le sue comunità, regole e divisione del lavoro che, come gli strumenti, fanno da tramite nella relazione dell'uomo col mondo esterno. La mediazione sociale si traduce inoltre in un continuo processo di apprendimento e di creazione di nuova conoscenza: i cambiamenti nella conoscenza e nell'azione attivano necessariamente processi di apprendimento situati e mediati dall'uso del linguaggio e dall'interazione sociale in generale. Secondo la Teoria dell'Attività, il contesto dell'azione risulta formato dalla relazione storicamente costituita tra le persone occupate in attività socialmente e culturalmente determinate e il mondo con cui interagiscono. Il Sistema di Attività (fig.46) rappresenta l'unità di analisi per lo studio del comportamento umano, una sorta di “mappa concettuale” che evidenzia i luoghi principali attorno ai quali la cognizione umana è distribuita e attraverso cui l'azione umana è mediata: i soggetti che agiscono ed interagiscono e gli oggetti a cui l'azione è diretta, gli artefatti culturali (sia materiali che simbolici) che mediano l'azione, la comunità in cui l'azione si svolge secondo delle regole e una divisione del lavoro. Questa unità di analisi proposta presenta due importanti elementi. Da una parte utilizza la nozione di azione o di attività come ponte concettuale per superare la tradizionale separazione tra individuo ed ambiente, tra mente e corpo; l'azione stessa diventa una unità di analisi in grado di incorporare, nella sua descrizione, sia l'individuo agente che il suo ambiente culturalmente definito. Dall'altra parte sottolinea la

natura distribuita e mediata dell'azione umana integrando nelle proprie definizioni un contesto principalmente costituito da risorse materiali e da risorse sociali. La mediazione tramite risorse materiali non si limita a considerare gli artefatti come supporto fisico esterno all'azione dell'uomo, ma ne sottolinea la duplice natura materiale e concettuale; l'artefatto è concettuale in quanto, come prodotto dell'uomo, porta con sé la storia della propria evoluzione, i modelli comportamentali e culturali che lo hanno generato e plasmato. Nella sua duplice natura concettuale e materiale un artefatto condiziona l'azione umana sia abilitandola e supportandola che inibendola, vincolandola alla propria conformazione e potenzialità di utilizzo. La Teoria dell'Attività si riferisce, più che ad una teoria unica e strutturata, ad un approccio interdisciplinare alle scienze umane, ad un insieme di punti di vista e concetti per lo studio dell'attività umana originatosi a partire dalla psicologia russa degli anni '20; il nucleo originario della Teoria dell'Attività risiede infatti nel lavoro di tre psicologi russi, Vygotsky, Leont'ev e Luria, conosciuti come la troika, fondatori della cosiddetta culturalhistorical psychology. La scuola sovietica, ricollegandosi all'opera di Marx ed Engels, propose il concetto di attività come elemento risolutore ed unificante delle contraddizioni alla base della riconosciuta crisi della psicologia dell'inizio secolo. Attorno al concetto centrale di attività si sono sviluppati i contributi al framework teorico della Teoria dell'Attività fino ai giorni d'oggi. Lo sviluppo della Teoria dell'Attività può essere articolato in tre generazioni2: la prima generazione centrata attorno al pensiero di Vygotsky e il suo concetto di mediazione secondo cui l'azione umana è rappresentata dalla triade di soggetto, oggetto e artefatto mediante; la seconda generazione attorno al lavoro di Leont'ev che, oltre a fornire una sintesi del pensiero di Vygotsky, introduce la dimensione sociale dell'attività umana, delineando l'importanza della divisione del lavoro come mediazione tra l'azione del singolo e la collettività; e la terza generazione nella quale emerge un interesse non solo per il cosiddetto sviluppo verticale verso higher psychological functions, ma anche per quello orizzontale o interculturale. Quest'ultima generazione ha focalizzato il proprio interesse sullo studio dell'interazione tra sistemi di attività (Engeström) e culture differenti (Luria, Cole) sviluppando ulteriormente il concetto di contraddizioni originariamente proposto da Il'enkov3. La singola azione umana non viene quindi letta come unità discreta ed isolata, ma riceve significato dal suo essere parte di un Sistema di Attività collettivo socialmente e storicamente generato; a sua volta l'azione individuale contribuisce dal basso alla continua creazione e riproduzione dei Sistemi di Attività. 2 3

Engeström (1987) Idem 143


Le azioni di un medico, per esempio, acquisiscono significato se contestualizzate all'interno di un Sistema di Attività ospedaliero socialmente e storicamente determinato, all'interno di una comunità di pratica caratterizzata da un sistema integrato di artefatti, regole e organizzazione del lavoro; nello stesso tempo le azioni del medico, svolte in interazione con i diversi componenti del sistema, possono generare od esplicitare delle contraddizioni potenzialmente risolvibili attraverso un cambiamento che coinvolge la collettività. Le attività sono infatti sistemi instabili ed eterogenei in continua costruzione e cambiamento; sono formate da una moltitudine di elementi, voci e punti di vista, da persone che costruiscono insieme una situazione a partire da competenze, interessi, linguaggi ed esperienze differenti e quindi necessariamente conflittuali. La Teoria dell'Attività sottolinea il carattere situato dell'azione umana, evidenziando come gli obiettivi e lo svolgimento dell'azione, dato lo scopo generale dell'attività a cui appartiene, siano costruiti e negoziati continuamente in funzione delle condizioni locali con cui interagisce. Il modello del Sistema di Attività, unità di analisi dell'attività umana, descrive gli elementi principali attraverso i quali l'azione umana è mediata ovvero gli artefatti (mediazione strumentale) e la comunità (mediazione sociale) con cui il soggetto individuale o collettivo interagisce secondo regole, implicite o esplicite, e una divisione del lavoro, ovvero l'organizzazione di ruoli e compiti. Il Sistema di Attività non è una realtà statica. Le azioni individuali nel loro adattamento reciproco generano un processo di cambiamento incrementale così come possono attivare una profonda trasformazione qualitativa a cui tutto il sistema deve gradualmente adattarsi. Il Sistema di Attività rappresenta il contesto da cui la singola azione deriva il proprio significato, così come l'attività è costantemente ridefinita e costruita attraverso lo svolgimento locale delle singole azioni. Per questo motivo la comprensione e l'analisi dell'azione umana non può limitarsi ad una ricostruzione del suo svolgimento situato, ma deve leggere la sua manifestazione temporanea all'interno del Sistema di Attività o contesto di appartenenza e come attuazione di una evoluzione storico-culturale di tipologie ideali di attività. Secondo Daniela Sangiorgi4 il Sistema di Attività si presta potenzialmente ad integrare e descrivere le caratteristiche emerse dell'azione umana; è potenzialmente adattabile a diverse tipologie di attività umana e a diversi fini applicativi, tra cui anche attività propriamente progettuali; infine propone un approccio di intervento di natura partecipatoria fortemente radicato nell'analisi contestuale (approccio bottom up). Queste caratteristiche motivano ulteriormente l'utilizzo di tale approccio, che potrebbe rivelarsi utile per interventi progettuali mirati a comunità Open Peerto-Peer e alle loro attività. 4

Sangiorgi (2004)

144

6.4. La struttura gerarchica dell'attività Uno dei contributi più significativi di Leont'ev al costrutto teorico della Teoria dell'Attività è stata l'articolazione del concetto di attività in livelli gerarchici ed interrelati. Di fronte all'insufficienza di unità di analisi psicologica basata sull'azione individuale mediata, Leont'ev distingue il concetto di attività dalla sequenza di azioni di cui è composta, ciascuna orientata ad un obiettivo, ma complessivamente operante per il perseguimento dello scopo superiore dell'attività. L'emergere di azioni orientate ad obiettivi viene fatta risalire al passaggio degli uomini alla vita di società dove l'emergenza anche della più semplice divisione tecnica del lavoro conduce necessariamente all'isolamento di risultati separati, che sono raggiunti da partecipanti distinti all'interno di un'attività collettiva, ma che non soddisfano di per sé i loro bisogni. L'attività è una opera collettiva, sistemica, caratterizzata da una struttura di mediazione complessa. Nella Teoria dell'Attività, l'attività rappresenta il concetto motivante più alto: descrive ciò che gli individui o gruppi stanno cercando di compiere e quali siano i risultati verso cui tendano. All'interno della attività troviamo le azioni, svolte con il fine di raggiungere determinati obiettivi che porteranno il singolo individuo o il gruppo a raggiungere il risultato finale dell'attività. Ad ogni modo, una attività non può essere ridotta a semplici azioni. Le azioni hanno una vita relativamente breve e hanno un inizio ed una fine ben definibili. I Sistemi di Attività si evolvono invece su lunghi periodi socio-storici, spesso prendendo la forma di istituzioni od organizzazioni. Oltre all'articolazione dell'attività in sequenze di azioni Leont'ev introduce il livello sottostante delle operazioni, determinate dalle condizioni contestuali; a parte gli aspetti intenzionali dell'azione che indicano cosa l'attore vuol fare, ogni azione ha un aspetto operativo determinato dalle circostanze che definisce come concretamente ed effettivamente l'azione venga svolta. Le operazioni sono quindi dei comportamenti, assorbiti così profondamente, che non richiedono un impegno cosciente per l'esecuzione. Le operazioni sono risposte automatiche alle condizioni percepite riguardo all'oggetto dell'attività e alle azioni. Le differenze percepite tra lo stato corrente dell'oggetto e il risultato desiderato forniscono la motivazione per i singoli individui o per i gruppi a sviluppare obiettivi ed azioni, con il fine di trasformare l'oggetto nei risultati desiderati. La definizione dei tre livelli di attività, azione ed operazione non porta a una rigida visione dell'Attività umana. L'attività è vista infatti come un processo in continua trasformazione dove un'attività può perdere il proprio motivo e diventare consecutivamente un'azione o viceversa, un'azione può acquisire propria forza indipendentemente e diventare attività, oppure essere proceduralizzata e diventare una operazione inconscia.


Questo aspetto può essere facilmente illustrato quando consideriamo l'esempio di un bambino che apprende l'alfabeto. Inizialmente, tutti gli sforzi del bambino sono orientati verso come controllare la penna, affinché questa tracci i segni desiderati sul foglio. Con l'aumentare dell'abilità in questo gesto, l'obiettivo successivo è riuscire ad unire lettere in semplici parole. Quindi il bambino compone, con le parole, alcune frasi. Una volta che queste capacità sono acquisite, le attività di scrittura delle lettere e delle parole non rappresentano più delle attività, ma diventano delle operazioni automatiche che il bambino utilizza per compiere attività ben più complesse, come scrivere un saggio o un diario. L'attività è inoltre indipendente dal contenuto e può essere realizzata in differenti modi ed essere composta da diverse sequenze di azioni.

più semplice e piccola unità che preservi ancora l'essenziale unità e qualità di ogni attività complessa; l'attività deve essere analizzata nelle sue dinamiche e trasformazioni, nella sua evoluzione e cambiamento storico; l'attività deve essere analizzata come un fenomeno contestuale ed ecologico; l'attività deve essere analizzata come un fenomeno mediato culturalmente.

A sua volta un'azione può essere strumentale a realizzare più attività. Se questo si traduce in una certa flessibilità per la descrizione di fenomeni evolutivi, diventa però impossibile fare una generale classificazione di cosa sia un'attività o di cosa sia un'azione essendo di volta in volta determinate da chi è il soggetto o l'oggetto di quella particolare situazione. La Teoria dell'Attività rappresenta quindi un modello iterativo. Il processo di qualsiasi attività richiede un andamento ciclico tra le operazioni svolte e l'oggetto di interesse, comparandoli con i risultati desiderati in una valutazione continua. Questo ciclo di feedback non è limitato al singolo individuo, ma è esteso a tutta la comunità di cui questo fa parte. Attraverso la costituzione di una comunità, l'attività viene suddivisa in parti che possono essere svolte più facilmente, in cui i membri si specializzano.

6.5. Il Sistema di Attività come unità minima di analisi dell'attività umana La cultural-historical psychology ha proposto come unità di analisi del comportamento umano l'attività umana; Vygotsky propone come unità di analisi l'azione orientata ad un oggetto e mediata tramite strumenti culturali e segni, ma non integra la nozione di mediazione sociale nel modello teorico, cosa che verrà fatta da Leont'ev con la distinzione tra attività collettiva ed azione individuale. Yriö Engeström, principale esponente della scuola finlandese, evidenzia come in realtà i due concetti chiave di mediazione sociale e di mediazione strumentale non siano stati portati in un unico modello che possa superare ed integrare il triangolo di Vygotsky. Ciò richiede invece, a suo parere, la formulazione di una idea iniziale o cell che rappresenti una base condivisa per l'articolazione della teoria nelle sue diverse forme. Alcuni principi guida per la costruzione di questa struttura base dell'attività umana sono i seguenti: l'attività umana deve essere rappresenta nella sua

Fig. 46: Evoluzione dell'attività animale in attività umana (Fonte: Engeström 1987)

Il modello base viene quindi costruito e descritto da Engeström attraverso un'analisi dell'evoluzione dell'attività dall'originale forma animale all'attuale forma culturale umana. L'attività animale, rappresenta come una collettiva “metodologia di sopravvivenza” delle specie nel tentativo di risolvere le contraddizioni tra natura e popolazione, evolve ad una forma superiore nel momento in cui si testimoniamo delle “rotture” nella relazione tra i tre poli: la “sopravvivenza individuale” è spezzata dall'introduzione degli strumenti, la “vita sociale” dall'introduzione di tradizioni e regole collettive e la “sopravvivenza collettiva” dalla divisione del lavoro. L'effettiva evoluzione culturale umana avviene però nel momento in cui queste “rotture” o “mediatori emergenti” divengono “determinati da fattori unificati” e quando quello che era naturale ed ecologico diventa economico e storico5.

5

Engeström (1987) 145


Fig. 47: Modello del Sistema di Attività (Fonte: Engeström 1987)

Il modello proposto diventa quindi un Sistema di Attività (Activity System) (fig.46) nel quale le attività di adattamento originali si trasformano in attività di consumo, mentre l'introduzione degli elementi mediatori collega il consumo alle tre principali attività della società umana contemporanea quali la produzione, la distribuzione e lo scambio. Ogni triangolo può essere letto come una attività a se stante, ulteriormente scomponibile, ma fortemente interrelata agli altri triangoli del modello in un “tutto sistemico”. Gli elementi del sistema di Attività così rappresentato richiamano le definizioni e i concetti chiave della culturalhistorical psychology. Secondo il modello del Sistema di Attività, il soggetto coincide con l'individuo o sottogruppo che viene scelto come punto di vista per analizzare l'azione che è orientata ad un oggetto materiale o immateriale (idea o un piano), che verrà a sua volta “manipolato” e trasformato nell'output finale con il supporto di strumenti fisici o simbolici. L'azione del soggetto avviene all'interno di comunità che comprende più individui o sottogruppi che condividono lo stesso oggetto e che si distinguono da altre comunità. Accanto alla relazione mediata da strumenti tra soggetto e oggetto, vengono a delinearsi altre due relazioni mediate: la relazione tra soggetto e comunità mediata dalle regole e la relazione tra l'oggetto e la comunità mediata dalla divisione del lavoro. Le regole possono essere sia norme esplicite che implicite, convenzioni, abitudini che influenzano il comportamento del singolo all'interno della comunità; la divisione del lavoro, invece, si riferisce alle forme sia esplicite che implicite di organizzazione dell'attività della comunità e può riguardare sia la divisione orizzontale dei compiti che quella verticale che concerne il potere e lo status. Uno dei ruoli principali della comunità, nella Teoria dell'Attività, è quello di creare le regole. Le regole informano i singoli individui riguardo all'oggetto 146

dell'attività e quali siano i risultati desiderati. Le regole informano i singoli individui sulla posizione che ricoprono nella comunità, di quali conseguenti aspettative vengano investiti e su cosa debbano fare sull'oggetto. Anche se la Teoria dell'Attività dimostra come l'individuo venga modificato dalla società in cui è situato, esso può sempre scegliere liberamente quali regole seguire e come farlo. Il singolo individuo valuta le regole che riceve e ne può suggerire delle nuove. Le regole possono essere di tipo illuminativo e di tipo prescrittivo: nel primo caso forniscono al singolo individuo una prospettiva da cui guardare l'attività; nel secondo caso prevengono il singolo individuo dal cercare regole alternative per la soluzione dei problemi6. Il Sistema di Attività non è una realtà statica, ma è in continuo movimento e trasformazione a seconda di come i singoli elementi si modifichino ed evolvano e di come l'attività venga rinegoziata nel tempo: i compiti possono cambiare, le regole possono venire reinterpretate e quello che inizialmente era l'oggetto può trasformarsi all'interno del sistema divenendo un risultato, uno strumento o una regola. Le trasformazioni a cui è soggetto un Sistema di Attività nel tempo sono dovute essenzialmente al fatto che le attività non sono unità isolate, ma sono più come nodi all'interno di reti formate da altri Sistemi di Attività che si incrociano e si influenzano a vicenda. Un Sistema di Attività non si trova mai isolato, ma interagisce con una rete di altri Sistemi di Attività. Ad esempio, riceve regole e strumenti da alcuni Sistemi di Attività (ad esempio, il management), e produce risultati per altri Sistemi di Attività (ad esempio, i clienti). In questo modo, un Sistema di Attività viene influenzato da forze esterne, che vengono acquisite e poi modificate come fattori interni. Tuttavia non sono le influenze esterne, di per sé, a causare cambiamenti ed eventi incomprensibili all'interno dell'attività, ma il loro ingresso nel 6

Waite (2005)


Sistema di Attività. In questo modo, il Sistema di Attività agisce costantemente tra contraddizioni interne ed esterne. Per capire queste contraddizioni, bisogna espandere il Sistema di Attività fino ad includere almeno un altro Sistema di Attività interagente (fig.49). Queste contraddizioni si manifestano generalmente sotto forma di rotture, crolli, interruzioni, problemi che disturbano il normale svolgersi dell'attività e che il sistema deve risolvere. Per questo motivo le contraddizioni sono viste come una risorsa centrale per l'evoluzione e lo sviluppo dei Sistemi di Attività nel tempo e nel corso della storia. A partire dal lavoro di Ilyenkov, Engeström7 riassume le contraddizioni in quattro livelli. La contraddizione primaria è interna ad ogni elemento del sistema e riguarda il contrasto tra valore di scambio e valore d'uso che caratterizza la struttura socio-economica del capitalismo, come nel caso di un dottore che vive personalmente la contraddizione tra l'obiettivo di curare e aiutare i pazienti e la visione del paziente come fonte di guadagno. La contraddizione secondaria riguarda le relazioni tra gli elementi del Sistema di Attività, come nel caso di una rigida divisione del lavoro che impedisce l'evolvere del Sistema di Attività nell'utilizzo di strumenti più avanzati. La contraddizione terziaria si manifesta quando un oggetto o scopo culturalmente più avanzato è introdotto nell'attività come nel caso, per esempio, del tentativo di introdurre un nuovo modello di terapia in un ospedale in cui domina un approccio medico tradizionale. La contraddizione quaternaria infine riguarda le relazioni e i possibili contrasti emergenti tra il Sistema di Attività centrale e i cosiddetti Sistemi di Attività confinanti. Le attività confinanti possono essere di diverso tipo: le attività-oggetto che acquisiscono ed incorporano i risultati del Sistema

di Attività centrale; le attività che producono gli strumenti utilizzati dal Sistema di Attività centrale; le attività che producono soggetti che formano i soggetti dell'attività centrale; le attività che producono le regole adottate dal Sistema di Attività centrale. L'analisi e la valutazione degli effetti delle contraddizioni nei Sistemi di Attività e i conseguenti processi di sviluppo ed adattamento sono temi centrali nella lettura dinamica ed evolutiva dell'attività umana. Inoltre Engeström, con l'analisi della cellula, propone lo studio di quello che viene definito un ciclo espansivo ovvero il percorso di generazione collettiva di Sistemi di Attività socialmente e culturalmente nuovi8. Un ciclo espansivo è caratterizzato inizialmente da processi prevalentemente di interiorizzazione e socializzazione nei quali nuovi membri della comunità acquisiscono le competenze necessarie per integrarsi nel sistema, seguiti da processi di esternalizzazione, dove generalmente i singoli individui rispondono creativamente a contraddizioni interne al sistema e attivano un processo collettivo di individuazione di soluzioni. L'esternalizzazione raggiunge l'apice quando viene generato un nuovo modello di attività che si stabilizza a sua volta tramite processi di internalizzazione.

6.6. Comunità Open Peer-to-Peer e Sistema di Attività Dunque la Teoria dell'Attività, attraverso il modello del Sistema di Attività può essere utilizzata per analizzare e descrivere il funzionamento delle comunità Open Peer-to-Peer. In questo modo sarà possibile comprendere quali siano i meccanismi organizzativi più promettenti relativi ad un determinato ambito, problema o attività. Tutti i casi riscontrati di comunità Open Peer-to-Peer seguono sì dei principi comuni, ma hanno una

Fig. 48: Sistema di Attività e contraddizioni (Fonte: Engeström 1987) 7

Engeström (1987)

8

Idem 147


propria identità molto forte, che viene sviluppata autonomamente. Ciò significa che bisognerebbe descrivere ogni caso per poterlo comprendere fino in fondo, un modello generale non sarebbe esaustivo. Open Source e Peer-to-Peer hanno sì delle forti caratteristiche di base, ma, permettendo una partecipazione aperta e paritaria, permettono anche lo svolgimento di attività personalizzate. In altre parole, Open Peer-to-Peer non significa una singola forma organizzativa rigida e da applicare in ogni circostanza. Significa utilizzare i principi fondamentali secondo le proprie esigenze, e condividere con gli altri partecipanti i risultati. In questo modo le forme organizzative più adatte possono essere sviluppate e condivise.

obiettivi e con che relazioni intepersonali lo stia facendo. Le relazioni artefatti-divisione del lavororegole sono invece condivise all'interno della comunità (e anche tra comunità) e dicono con che strumenti, regole e ruoli si stia agendo. Inoltre l'utilizzo del Sistema di Attività è un modo per capire come possano funzionare queste comunità nonostante il fatto che molto spesso i partecipanti non hanno relazioni sociali antecedenti. In che modo quindi si possa formare e condividere una fiducia reciproca, che permette lo svolgimento dell'attività.

Fig. 49: Due sistemi di attività interagenti (Fonte: Engeström 1987)

Nel software Open Source ogni partecipante può modificare il codice sorgente per le proprie necessità e condividere i risultati con gli altri partecipanti: potrebbe darsi che le modifiche apportate interessino anche altri. Allo stesso modo, le comunità vengono sviluppate autonomamente secondo le proprie esigenze, e i risultati condivisi, di modo che chiunque li necessiti possa utilizzarli e migliorarli a sua volta. La stessa cosa avviene per le licenze: ne sono state sviluppate molte, che possono essere prese ad esempio e modificate per particolari esigenze. Nelle comunità Open Peer-toPeer la organizzazione della comunità viene quindi vista in maniera molto simile al codice sorgente. Da più versioni differenti, più probabilità di incontrare la soluzione più adatta. Non si dimentichi che le comunità Open Peer-to-Peer rappresentano un modo per valorizzare la diversità. È possibile allora qui considerare brevemente solo i punti più importanti, quelli più diffusi, che sono stati sviluppati nelle comunità Open Peer-to-Peer. Il concetto importante qui è che con il Sistema di Attività è possibile analizzare (e quindi trarne ispirazione) una comunità Open Peer-to-Peer. Cosa si comprende analizzando le comunità Open Peer-to-Peer attraverso il Sistema di Attività? Innanzitutto che le relazioni soggetto-oggettocomunità dipendono dal punto di vista con cui si osserva la situazione (ovvero: chi è il soggetto), e che quindi varerà non solo da comunità a comunità ma anche all'interno di una comunità stessa. Sono queste le caratteristiche specifiche di ogni comunità (o meglio: soggetto), che dicono perché una certa comunità si stia attivando e verso quali 148

In questo senso aumentano la propria importanza gli elementi comunità-regole-divisione del lavoro, in quanto sono le caratteristiche condivise da tutti i partecipanti che più sono state sviluppate dalle comunità Open Peer-to-Peer. In altre parole: le comunità Open Peer-to-Peer, per ovviare alla mancanza di relazioni sociali antecedenti (e quindi di fiducia e capitale sociale su cui basare l'attività), si sono dotate di un insieme di regole, strutture di reputazione e ruoli ben sviluppati, e che rappresentano quindi gli elementi che più possono prestarsi ad essere portati in altri ambiti. Sono infatti queste le caratteristiche che più di altre gestiscono l'attività: le caratteristica del soggetto, oggetto e artefatti dicono invece quali siano gli obiettivi e gli strumenti per raggiungerli (e variano quindi da comunità a comunità). È possibile comunque vedere una breve sintesi degli elementi più comuni, considerando soprattutto l'ambito delle comunità di sviluppo di software Open Source, che rappresentano i casi di comunità Open Peer-to-Peer "originali" (cioè da cui si è estesa la diffusione di questi elementi) e maggiormente analizzati.

6.6.1. Soggetto Anche se i soggetti variano da comunità a comunità, e quindi da attività ad attività (ma, all'interno di una attività, da azione ad azione), vi possono essere riscontrate delle caratteristiche comuni che spiegano la partecipazione attiva ad una collaborazione collettiva. Innanzitutto ogni soggetto ha pari diritti e le relazioni che si instaurano sono di tipo paritario, Peer-to-Peer.


Dire che ogni persona è posta sullo stesso livello equivale a dire che ha la medesima importanza, qualsiasi che siano le conoscenze e capacità che possa apportare. In una comunità Open Peer-toPeer le conoscenze e capacità non derivano da titoli, ma da ciò che si dimostra di saper fare e di sapere: anche le conoscenze e capacità non riconosciute ufficialmente possono ottenere una ottima considerazione. Non è un caso infatti che Charles Leadbeater e Paul Miller, parlando dei ProAm, includano anche comunità Open Peer-to-Peer9. Ciò che sta alla base della possibilità di partecipazione, oltre agli artefatti necessari per comunicare, sono motivazioni e il possedimento di conoscenze e capacità, ma anche la voglia di ottenerle attivandosi e partecipando ad una comunità Open Peer-to-Peer. Non è un caso che la maggior parte dei partecipanti alle comunità di software open source siano esperti programmatori: possedere (o desiderare di possedere) le conoscenze appropriate per l'attività di programmazione delle comunità Open Peer-to-Peer di software open source è il primo requisito per attivarsi10. Oltre alle conoscenze e capacità possedute, la partecipazione alle comunità Open Peer-to-Peer avviene in presenza di una motivazione personale. Certamente le motivazioni possono essere le più svariate (e spesso più motivazioni si rafforzano e portano alla cooperazione, in un ciclo di retroazione positiva), ma possono esserne identificate alcune costanti: • avere una passione per l'attività che la comunità Open Peer-to-Peer svolge: gli hacker adorano programmare, architetti e designer progettare, supporter ascoltare un preciso tipo di musica (come nel caso Neubauten.org), e quindi la loro partecipazione avverrà con più facilità in quelle attività che soddisfano queste passioni; • desiderare la partecipazione ad una nuova forma di cooperazione: spesso il solo desiderio di partecipare in un progetto cooperativo nuovo e promettente è sufficiente per spingere all'attivazione; • far parte di una comunità: molti partecipanti si attivano anche solo per il desiderio di far parte di una comunità, condividere un'identità comune con altre persone, stringere legami sociali, ottenere una reputazione. Confrontandosi con altre persone, i partecipanti ottengono una reputazione all'interno della comunità in base alle proprie conoscenze e capacità; migliorare le proprie conoscenze e • capacità: confrontandosi con gli altri partecipanti si condividono le conoscenze e capacità, che quindi possono essere diffuse ed acquisite. Spesso la propria professione richiede alcune determinate conoscenze e capacità che possono essere acquisite partecipando all'attività di determinate comunità Open Peer-to-Peer (così avviene 9 Leadbeater, Miller (2004) 10 Kim (2003)

per il software open source ma potrebbe accadere anche per architetti e designer); migliorare le condizioni della propria dimensione locale: molto spesso le comunità Open Peer-to-Peer si occupano direttamente di migliorare le condizioni delle specifiche dimensioni locali dei partecipanti, e in questo caso questa motivazione è sufficiente per attivare i partecipanti; ottenere aiuto per un proprio progetto: una comunità Open Peer-to-Peer molte volte può nascere da una iniziativa personale, un progetto ideato ma che necessita della partecipazione di persone per svilupparsi a dovere. In questo caso è il “fondatore” della comunità Open Peer-to-Peer che deve fornire una ragionevole promessa di sviluppo futuro11; seguire un proprio principio etico personale: i partecipanti possono fornire un apporto personale perché le proprie convinzioni etiche li spingono a farlo. Un esempio è la condivisione di informazioni e risorse, oppure aiutare chi necessita aiuto o migliorare le condizioni locali; ottenere una soluzione ad un problema che altrimenti né Stato né mercato possono fare (o sono intenzionati a fare): la maggior parte delle comunità Open Peer-to-Peer nascono per risolvere un problema specifico che non trova altrimenti soluzione; ricevere un beneficio economico: sebbene la maggior parte delle comunità Open Peer-to-Peer non preveda la generazione di benefici economici, alcune si pongono come obiettivo dare luogo ad una attività economica socialmente sostenibile. Non sempre quindi la partecipazione è totalmente gratuita.

Ad esempio, nel caso Neubauten.org, le motivazioni dei partecipanti sono quella di continuare ad ascoltare nuova musica incisa dagli Einstürzende Neubauten12, intervenire direttamente nel processo artistico, conoscere i musicisti, conoscere altri supporter. Nel caso Solar Roof, le motivazioni a partecipare sono date dal desiderio di diffondere idee e comportamenti sostenibili, migliorare le condizioni locali specifiche, migliorare le proprie capacità progettuali, conoscere altre persone. Nel caso BBC Action Network la motivazione principale è risolvere un problema locale e conoscere le persone con lo stesso interesse per poterlo fare. Nelle comunità sportive che sviluppano autonomamente le proprie attrezzature sportive le motivazioni riguardano avere attrezzature sportive non presenti sul mercato o altamente 11 Raymond (1998) 12 Senza il progetto Supporter's Project il gruppo avrebbe smesso di incidere musica nel 2000. La partecipazione dei supporter è quindi necessaria per permettere la continuazione della loro passione, ascoltare cioè la musica del gruppo 149


personalizzate, fare parte di una comunità in cui conoscere persone ed ottenere reputazione, migliorare le proprie capacità agonistiche. Nei casi della Grameen Bank, dabbawalla e Amul la motivazione principale è data dalla possibilità che la formazione di ampie comunità dà ai partecipanti di svolgere una propria attività lavorativa con condizioni vantaggiose. Nel caso del software open source, le principali motivazioni riscontrate13 sono quelle riportate nei grafici 3 e 4. Yochai Benkler14 propone una spiegazione di natura economica alla sostenibilità dei progetti Open Source basati sulla partecipazione volontaria. Per Benkler le comunità che noi chiamiamo Open Peerto-Peer svolgono attività di common-based peer production, ovvero una produzione collettiva basata sulla condivisione e sulla parità dei partecipanti. Per essere motivata alla partecipazione, una persona deve aspettarsi dei benefici monetari, sociali oppure edonistici (nel senso del piacere derivante dalla semplice creazione o azione). Ad esempio, una persona può preparare una cena per altre persone per ottenere benefici economici, il piacere di cucinare in sé, oppure per il piacere di mangiare in compagnia. La combinazione di queste motivazioni porta alla scelta di attività e ruoli diversi, come lavorare in un ristorante o preparare una cena per amici. La ricezione di benefici monetari può essere considerata sia positiva che negativa: in alcuni casi può essere sinonimo di corruzione (ad es. un giudice può ottenere dei benefici monetari se scrive un articolo per un giornale, ma non può riceverli durante un processo). I benefici complessivi derivano da una combinazione di questi fattori: quindi ogni persona considera l'opportunità e le modalità di partecipazione in base ai benefici totali e non solo a quelli economici. Oltre alle diverse motivazioni personali, si può capire che emergeranno più facilmente fenomeni di peer production quando questi riusciranno a motivare meglio del mercato o delle imprese, oppure motivare meno ma il contributo totale verrà assicurato da un numero maggiore di persone. Benkler, parlando di peer production, si riferisce a quei casi in cui l'attività si basa su apporto volontario e non orientato ad attività economiche: in queste, infatti, il ritorno economico può bastare a garantire la partecipazione. Ma nei casi di peer production, le condizioni necessarie alla loro emergenza sono due: una struttura dell'attività modulare (con moduli di piccole dimensioni), dove una remunerazione da parte del mercato sarebbe troppo costosa, ma dove ricompense edonistiche e socio-psicologiche possono essere positive; una attività dove il valore dei benefici economici è di limitate dimensioni se comparato ai benefici edonistici e socio-psicologici. L'estrema diversità di motivazioni riscontrabili nelle comunità Open Peer-to-Peer permettono alle collaborazioni a larga scala di convertire i problemi 13 Kim (2003) 14 Benkler (2002) 150

legati alla motivazione in problemi legati alla collaborazione. In altre parole, il problema non è motivare le persone a partecipare (vi sono molti modi per farlo), ma coinvolgerne un numero elevato, dove anche un minimo contributo, moltiplicato per il numero dei partecipanti, porta ad un risultato complessivo notevole. Parafrasando la legge di Linus elaborata da Raymond15, Benkler sostiene che “dato un numero sufficientemente ampio di contributi, gli incentivi monetari diretti, necessari per raccogliere i contributi, sono di poco conto”16. Una attività di peer production, basata su apporti volontari non retribuiti, non è limitata dal costo totale o dalla complessità del progetto, ma dalla sua modularità, dalla sua granularità (ossia la dimensione dei moduli) e dai costi della integrazione fra i moduli. Per modularità Benkler intende una proprietà di un progetto (ossia la attività di una comunità Open Peer-to-Peer) di essere diviso in componenti più piccoli (i moduli), che possono essere prodotti indipendentemente ed in tempi differenti prima di essere assemblati fra loro. Se i moduli sono indipendenti, i partecipanti possono scegliere come e quando contribuire in maniera indipendente, massimizzando così la loro autonomia e flessibilità nel definire le caratteristiche della propria partecipazione. Con granularità Benkler si riferisce alla dimensione dei moduli, in termini di tempo e impegno necessari da parte di un partecipante per produrli. Il numero di possibili partecipanti è inversamente proporzionale alla dimensione del contributo a scala minore necessario a produrre un modulo utilizzabile. Le dimensioni dei moduli sono certamente dipendenti dalle caratteristiche dell'attività complessiva (e dalla loro produzione indipendente), e definiscono il minimo impegno necessario per partecipare ad una attività. Se questo minimo impegno è abbastanza basso, gli incentivi necessari per produrre quel determinato modulo sono di poco conto e quindi un ampio numero di partecipanti può contribuire. Più piccole sono le dimensioni di ogni modulo, maggiore è il numero di possibili partecipanti. Sotto queste condizioni, secondo Benkler una attività viene svolta più efficacemente con processi di peer production. Indipendentemente dalle dimensioni dei moduli, la loro eterogeneità in dimensioni può aumentare la sua efficienza, permettendo ai partecipanti differenti livelli di contribuzione per differenti livelli di motivazione. Il rimanente ostacolo ad un efficace processo di peer production risiede nell'integrazione dei moduli in un prodotto finito, che avviene attraverso due operazioni: controllo della qualità dei moduli e unione di questi nell'attività complessiva.

15 Raymond (1998) 16 Benkler (2002) p.434


Grafico 3: Motivi per partecipare in una comunitĂ di software Open Source (Fonte: Kim 2003 )

Grafico 4: Benefici maggiori ricavati dalla partecipazione in una comunitĂ Open Source (Fonte: Kim 2003)

151


Affinché una attività sia portata avanti con processi di peer production economicamente sostenibili, la funzione di integrazione deve essere poco costosa oppure essa stessa abbastanza modulare per essere prodotta con un processo iterativo di peer production. Nei processi di peer production l'integrazione viene risolta in quattro modi: • iterativo peer production della funzione integratrice stessa (come la moderazione e la meta-moderazione in Slashdot); • soluzioni tecniche insite nella piattaforma (come nel caso del software su cui si basa Slashdot o Mars Clickworkers); • una organizzazione sociale regolamentata da norme (come in Wikipedia); • una reintroduzione limitata della gerarchia o del mercato solamente per l'integrazione (come avviene nel caso del kernel di Linux).

6.6.2. Oggetto ed artefatti per raggiungere gli obiettivi Mentre gli obiettivi variano da comunità a comunità (sono infatti la caratteristica specifica di ogni comunità, quella che la identifica attraverso l'attività), si può osservare come l'oggetto dell'attività sia quasi sempre una informazione, anche quando il risultato finale riguarda beni materiali. Si è visto infatti che le comunità Open Peer-to-Peer sono apparse ora in quanto solo ora ora è possibile distribuire rapidamente informazioni standardizzate in (quasi) ogni luogo. Come accennato precedentemente, le tre caratteristiche fondamentali per il funzionamento di una comunità Open Peer-to-Peer sono: 1. la produzione di informazioni (o comunque una loro centralità), che devono essere accessibili, modificabili e distribuibili: per la loro natura di beni non rivali, le informazioni possono essere condivise e riutilizzate in infiniti modi. La natura delle informazioni permette quindi la collaborazione collettiva; 2. la standardizzazione delle informazioni, che permette la facilità di comunicazione nella collaborazione collettiva; 3. l'utilizzo di reti che possano distribuire queste informazioni, le quali a loro volta dovranno tenere conto delle caratteristiche delle reti, al fine di poter essere distribuite e scambiate con facilità. La maggior parte delle comunità Open Peer-to-Peer svolge attività riguardanti informazioni, sia attraverso lo sviluppo e utilizzo di software, sia attraverso la produzione di contenuti, la progettazione, ma anche in attività riguardanti beni materiali come i dabbawalla le informazioni (cioè i codici utilizzati per identificare i contenitori e il loro percorso) hanno un ruolo fondamentale. In questo modo le comunità Open Peer-to-Peer rappresentano una modalità promettente di gestione della conoscenza.

152

Come nell'elemento dell'oggetto, anche gli artefatti utilizzati dipendono da comunità a comunità, anche se vi possono essere degli artefatti più comunemente utilizzati. Più in generale, gli artefatti utilizzati dipendono dall'oggetto dell'attività, dato che beni materiali e beni immateriali richiedono differenti artefatti, e i vari tipi di informazione richiedono differenti artefatti. È possibile qui fare una distinzione tra artefatti high tech e artefatti low tech, ossia tra artefatti basati sulle ICT oppure basati su metodi convenzionali di trasmissione delle informazioni. L'importanza della presenza di casi di comunità Open Peer-to-Peer che utilizzano artefatti low tech è che dimostrano che le forme di organizzazione delle comunità Open Peer-to-Peer non dipendono esclusivamente dalle ICT, ma possono anche essere applicate in contesti caratterizzati da scarse risorse economiche o tecnologiche. E dimostrano anche che queste forme di organizzazione non richiedono necessariamente ingenti investimenti economici, dato che gli artefatti low tech sono economici per la loro stessa natura, mentre gli artefatti high tech utilizzati sono quelli già presenti e facilmente accessibili (come ad esempio wiki, blog, e-mail, chat, ecc.). Le comunità Open Peer-to-Peer dimostrano quindi che non sono necessarie tecnologie sofisticate per affrontare problemi complessi, ma che solo rappresentano degli strumenti in grado di coinvolgere un numero elevato di partecipanti rendendo più semplice e rapida la coordinazione reciproca. A dimostrazione della centralità delle informazioni e quindi dei mezzi di comunicazione, si ricordi che per la Teoria dell'Attività gli artefatti possono essere sia strumenti fisici che mentali, cioè linguaggi e conoscenze. Le informazioni non solo rappresentano l'oggetto dell'attività, ma anche i suoi strumenti: in questo modo le comunità Open Peer-to-Peer rappresentano una modalità promettente di approccio all'informazionalismo. Può essere importante notare come tra gli artefatti (intesi in senso ampio) possano rientrare anche gli eventi che le comunità organizzano affinché i partecipanti possano incontrarsi, decidere come svolgere l'attività, conoscersi e sviluppare relazioni sociali. Questi incontri possono essere a frequenza settimanale o mensile (come nel caso della Grameen Bank o dei Self-Help Groups), oppure una frequenza minore, annuale (come avviene nel caso delle comunità di sviluppo di software Open Source attraverso gli sprint oppure nel concerto-evento al Palast der Republik per Neubauten.org). In tutti questi casi l'evento di ritrovo svolge una funzione di ancorare maggiormente la comunità e la sua attività alle condizioni locali, fisiche: le persone fisiche, le caratteristiche locali.

6.6.3. Regole Per quanto riguarda le regole che le comunità Open Peer-to-Peer si danno per auto-organizzarsi, bisogna considerare tre punti: l'etica a cui


aderiscono, i meccanismi con cui regolano il comportamento individuale e formano le regole specifiche, le forme legali con cui stabiliscono la cooperazione. Infatti le regole specifiche che ogni comunità si dà derivano dall'etica a cui aderiscono; da questa poi vengono formulate le regole specifiche attraverso determinati processi e formalizzate in licenze per avere una protezione legale alla collaborazione collettiva. Le regole rappresentano forse l'elemento maggiormente sviluppato e caratteristico, quello maggiormente mutuato da ambiti esterni al software. È quindi importante considerarle in maniera più approfondita perché mostrano come le comunità Open Peer-to-Peer rappresentino una rottura con la società attuale e le regole che vengono date per scontate (o meglio: come rappresentino la proposta di regole già diffuse nel passato ma ora in crisi).

6.6.3.1. L'etica Hacker del lavoro, del denaro e della rete 6.6.3.1.1. Hacker appassionato

come

L'aspetto fondamentale è quindi l'etica a cui le comunità Open Peer-to-Peer aderiscono, e da cui poi si generano le regole specifiche, formulate attraverso determinati processi e in determinate forme legali.Per le comunità Open Peer-to-Peer, possiamo dire generalmente che esse si basano su una forma di etica particolare, differente dall'etica del lavoro attuale, denominata etica hacker. Per una definizione di hacker, si può consultare il Jargon file17 (o 'file di gergo'), che è essenzialmente un vocabolario del gergo usato dagli hacker e dai professionisti dell'ICT, ma che contiene anche definizioni e regole di buona educazione da rispettare in rete (netiquette). La Netiquette, parola derivata dalle parole della lingua francese etiquette (buona educazione) e net (rete) o network, è un insieme di regole che regolano il comportamento di un utente su un newsgroup, mailing list o e-mail in genere. Il rispetto della netiquette non è imposto da alcuna legge, ma si fonda su una convenzione ormai di generale condivisione. Sotto un aspetto giuridico, la netiquette è spesso richiamata nei contratti di fornitura di servizi di accesso da parte dei provider. Il mancato rispetto della netiquette comporta una generale disapprovazione da parte degli altri utenti della Rete, con frequentemente un isolamento del soggetto "maleducato" e talvolta la richiesta di sospensione di alcuni servizi utilizzati per compiere atti contrari ad essa (solitamente la e-mail e usenet)18. 17 Si veda http://it.wikipedia.org/wiki/Jargon_File. La versione attuale, mantenuta da Eric Raymond, è consultabile a questo indirizzo: http://www.catb.org/~esr/jargon/. Una versione tradotta in italiano è presente a questo indirizzo: http://jhanc.altervista.org/ 18 http://it.wikipedia.org/wiki/Netiquette

Per questo documento gli hacker sono persone che "programmano con entusiasmo", che ritengono che "la condivisione delle informazioni sia un bene positivo di formidabile efficacia, e che sia un dovere etico condividere le loro competenze scrivendo free software e facilitare l'accesso alle informazioni e alle risorse di calcolo ogniqualvolta sia possibile". Questa è stata l'etica degli hacker fin da quando, nei primi anni '60, un gruppo di appassionati programmatori del MIT iniziò ad autodefinirsi in questo modo. Gli hacker stessi hanno sempre riconosciuto l'applicabilità dei loro metodi su scala più ampia. Non a caso il "file di gergo" precisa che un hacker è sostanzialmente "un esperto o un entusiasta di qualsiasi tipo. Si può anche essere hacker dell'astronomia, per esempio". In questo senso, una persona può essere un hacker senza avere mai nulla a che fare con i computer. Charles Leadbeater e Paul Miller19, ad esempio, prendono spunto dalla etica hacker per dire che i Pro-Am sono dotati di una etica simile, una etica Pro-Am. Per loro infatti l'etica hacker dovrebbe essere confinata al mondo dell'informatica, dato che il termine hacker proviene da quel contesto. In realtà hacker, secondo gli stessi hacker, non deve essere considerato strettamente legato all'informatica ma a chiunque abbia una passione e cerchi di eccellere in essa impegnandosi attivamente nell'apprendere conoscenze e capacità. Inoltre, utilizzare il termine hacker sottolinea il fatto che questa rivoluzione Open Source e Peer-to-Peer derivi proprio dall'ambito informatico, anche se poi diffusa in altri ambiti. In seguito, a partire dalla metà degli anni '80, per i media il termine è diventato sinonimo di criminale informatico: è proprio in questo periodo che si assistette alla diffusione dei primi virus e ai tentativi di intrusione nei sistemi informatici/informativi per provocare danni. Per evitare di venire confusi con coloro che attuano queste attività criminali, gli hacker hanno cominciato a chiamare queste persone cracker.

6.6.3.1.2. Etica Hacker ed etica protestante Il merito della comprensione della portata rivoluzionaria dell'etica hacker va a Pekka Himanen, che intravede il legame intercorrente tra etica hacker ed etica protestante del lavoro (descritta da Max Weber nel suo libro “L'etica protestante e lo spirito del capitalismo” pubblicato nel 190520). Per Weber l'etica del lavoro e del denaro tipica del capitalismo proviene direttamente dai valori dell'etica della religione protestante, che si sono quindi diffusi in tutta la società. Allo stesso modo, Pekka Himanen vede l'etica hacker come una nuova etica del denaro e del lavoro adatta per la network society, in grado di 19 Leadbeater, Miller (2004) 20 Max Weber, Die protestantische Ethik und der 'Geist' des Kapitalismus. Una versione in lingua inglese è accessibile al seguente indirizzo: http://www.ne.jp/asahi/moriyuki/abukuma/weber/worl d/ethic/pro_eth_frame.html 153


correggere le rigidezze e gli estremismi dell'etica del lavoro protestante, quale analizzata da Weber. Questo passaggio non è casuale, se si considera una condizione comune all'emergenza di queste due etiche. Certamente, sia l'etica protestante sia l'etica hacker sono nate in un contesto ricco di variabili specifiche, ma, nella nostra analisi, risulta interessante considerare il fatto che entrambe siano legate alla diffusione di informazioni, in un momento storico in cui le nuove tecnologie permettevano invece una loro ampia diffusione. Nel caso della Riforma Protestante, infatti, vi erano stati molti movimenti di riforma della Chiesa, ma l'opera di Lutero21 ebbe una importanza cruciale grazie alla sua rapida diffusione. Due elementi, più di ogni altra cosa, contribuirono al rapido successo delle idee di Lutero: l'interesse generale che suscitava questa disputa, giacché trattava tematiche molto sentite dalla popolazione, vicine quindi alle sue esigenze materiali e spirituali; in secondo luogo la stampa a caratteri mobili, inventata in quegli anni da Gutenberg, che consentì la stesura e la diffusione in migliaia di copie delle tesi luterane e dei successivi scritti. Tra le varie teorie religiose di Lutero22, una è importante per questa analisi. Per Lutero, in materia di fede l'unico riferimento per il cristiano è costituito dalla Bibbia (il principio della sola scrittura), e nessuno ha il diritto di proclamarsi esclusivo interprete del sacro testo. Tra la Bibbia ed i singoli fedeli non deve esistere alcuna mediazione. Ogni singolo fedele è chiamato a rafforzare la propria fede studiando direttamente la Scrittura sotto la guida dello Spirito Santo. Oltre alle conseguenze di carattere teologico, questo principio mette in discussione il primato della chiesa del vescovo di Roma, che non risulta fondata né sul diritto divino né sul Vangelo, ma è istituzione umana, di origine storica. Ogni credente è sacerdote per se stesso - il principio del sacerdozio universale dei credenti - e può accedere direttamente alla scrittura. Per concretizzare questa convinzione, egli tradusse la Bibbia in tedesco, in modo da renderla accessibile alla popolazione. In questo modo il “codice sorgente” della religione, che era tenuto “proprietario”, in un linguaggio non comprensibile (il latino) e non accessibile, venne diffuso e condiviso. Potrebbe essere una semplice coincidenza, ma bisogna comunque notare l'importanza della condivisione delle informazioni tra le persone. Con il fenomeno del movimento Open Source, le informazioni vengono nuovamente rese accessibili, in un linguaggio comprensibile, attraverso nuove tecnologie. Per un hacker, il computer in sé è intrattenimento, intendendo che un hacker programma perché trova la cosa di per sé interessante, emozionante e piacevole. Si tratta di un atteggiamento comune: gli hacker programmano perché le loro sfide della programmazione rivestono un interesse intrinseco. I problemi relativi alla programmazione suscitano 21 http://it.wikipedia.org/wiki/Lutero 22 http://it.wikipedia.org/wiki/Luteranesimo 154

nell'hacker una genuina curiosità che lo spinge a imparare ancora di più. L'attività degli hacker è anche qualcosa di gioioso e questo perché spesso tutto ha origine da sperimentazioni fatte per gioco; talvolta questa giocosità si manifesta anche nella vita quotidiana. Lo stesso atteggiamento può essere rintracciato anche in qualsiasi altro contesto della vita: per esempio tra gli artisti, gli artigiani e i "professionisti dell'informazione", dai manager agli ingegneri, ai lavoratori dei media e agli stilisti. Essere hacker non ha a che fare con alta tecnologia ma con l'abilità e con la dedizione per ciò che si fa. Considerati da questo punto di vista, gli hacker possono essere visti come un eccellente esempio di un'etica del lavoro più generale - a cui Pekka Himanen dà il nome di etica hacker del lavoro - che sta prendendo piede nella network society, in cui il ruolo dei professionisti dell'informazione si sta ampliando. Se usiamo un'etichetta coniata dagli hacker per esprimere questo tipo di atteggiamento, è quindi importante notare che potremmo parlarne anche senza fare il minimo riferimento al mondo dell'informatica. L'emergenza dell'etica hacker rappresenta una sfida sociale che sta mettendo in discussione quell'etica del lavoro protestante che da lungo tempo governa le nostre vite e che tuttora mantiene una salda presa su tutti noi. La nota espressione "etica protestante del lavoro" deriva naturalmente dal famoso saggio di Max Weber L'etica protestante e lo spirito del capitalismo. Weber colloca il concetto di lavoro come dovere alla base dello spirito capitalistico che ebbe inizio nel XVI secolo. Il lavoro come una "chiamata", un'espressione che riassume efficacemente le tre attitudini base dell'etica del lavoro protestante: il lavoro deve essere visto come uno scopo in sé; il lavoro deve essere considerato come un dovere, a cui adempiere senza discussioni. Se per Himanen la progenitrice dell'etica hacker del lavoro è l'accademia, per Weber l'unico precursore storico dell'etica del lavoro protestante è da rintracciarsi nel monastero. Tuttavia Weber fa notare che lo spirito del capitalismo, anche se aveva trovato nell'etica protestante la sua giustificazione essenzialmente religiosa, ben presto si emancipò da tale ambito e iniziò a operare secondo leggi proprie. È un requisito essenziale questa neutralità religiosa dell'etica capitalistica attuale. Viene chiamata protestante per l'origine, ma anche cattolici o scintoisti possono seguirla nel lavoro. La totale diffusione di questa etica protestante fa in modo che la natura stesa del lavoro non venga messa in discussione, ma venga elevato al rango di cosa più importante della vita. Visto in un contesto storico più ampio, questo ininterrotto dominio dell'etica protestante non è poi così sorprendente, purché ci si ricordi che anche se la network society differisce in modo significativo dalla precedente, la società industriale, la new economy non implica una rottura totale con il capitalismo descritto da Weber: si tratta soltanto di un nuovo tipo di capitalismo. Il lavoro è il nucleo della vita delle persone, e lo sarà anche nel prossimo futuro. La stessa network society non mette in discussione


l'etica protestante i cui meccanismi, sostenuti dal principio guida del lavoro, continuano a essere dominanti. Considerata in questo contesto generale, la radicalità dell'etica hacker consiste nella proposta di uno spirito alternativo alla network society - uno spirito che mette in dubbio l'etica protestante dominante, è questa l'unica occasione in cui gli hacker diventano veramente dei cracker (cercando, cioè, di aprire una falla nel “sistema” socioeconomico). Questa idea del lavoro era completamente sconosciuta alla chiesa preprotestante. Prima della Riforma gli ecclesiastici si preoccupavano di porsi domande come: "Esiste una vita dopo la morte?", ma nessuno di loro si interroga sul lavoro dopo la vita. Il lavoro non era tra i più alti ideali della chiesa: Dio stesso aveva lavorato per sei giorni e finalmente il settimo si era riposato. Questo era anche il principale obiettivo umano: in Paradiso, come di domenica, la gente non avrebbe dovuto lavorare. Lo scopo della vita era la domenica. La Riforma protestante, in termini allegorici, ha spostato il centro di gravità della vita dalla domenica al venerdì. L'etica protestante ha reindirizzato l'ideologia al punto di capovolgere il Paradiso con l'Inferno: nel momento in cui sulla Terra il lavoro è diventato uno scopo di per sé, gli ecclesiastici hanno trovato difficile immaginare il Paradiso come un luogo di semplice svago, e il lavoro non poteva più essere considerato una punizione infernale. Avere un'occupazione significa avere una chiamata, un incarico, un compito speciale e particolare da svolgere. Se l'etica hacker -intesa come generica sfida sociale- viene inserita in questo ampio contesto storico, è facile trovare punti di contatto con l'etica preprotestante. In questo senso si potrebbe dire che per gli hacker lo scopo della vita è più vicino alla domenica che al venerdì. Ma, si deve notare, soltanto più vicino: in definitiva quella degli hacker non è la stessa etica preprotestante del lavoro, che immagina una vita paradisiaca in cui non si fa nulla. Gli hacker vogliono realizzare le loro passioni, e sono pronti ad accettare anche il fatto che perfino la ricerca di compiti interessanti potrebbe non rappresentare il perfetto stato di beatitudine. Per gli hacker la parola passione descrive il tono generale della loro attività, anche se il suo soddisfacimento potrebbe essere un gioco divertente in tutti i suoi aspetti. Appassionata e creativa, l'attività degli hacker comporta anche del duro lavoro. Gli sforzi servono per la creazione di qualsiasi cosa, anche piccola. Se necessario, gli hacker sono pronti anche per le parti meno interessanti ma indispensabili per la creazione di un insieme. Il duro lavoro e la costanza diventeranno una sorta di gioco intenso.

6.6.3.1.3. Etica Hacker, tempo e denaro Un'altra dimensione fondamentale che caratterizza il modo di lavorare degli hacker è la loro relazione con il tempo. Per gli hacker, che prediligono un

ritmo di vita individualistico, una libera relazione con il tempo è sempre stata una loro caratteristica. Nel suo famoso saggio, Weber enfatizza la connessione organica tra i concetti di lavoro e di tempo, includendo un particolare senso del tempo nel suo concetto di etica del lavoro protestante: "il tempo è denaro". Lo spirito del capitalismo è sorto da questo atteggiamento nei confronti del tempo. Quando si pensa al prevalente rapporto con il tempo della network society, è ovvio che, nonostante la new economy differisca sotto molti altri aspetti del vecchio capitalismo industriale, nei riguardi dell'ottimizzazione del tempo segue in larga misura i precetti dell'etica protestante. La vecchia etica protestante, incentrata sul lavoro, già implicava il fatto che non ci fosse tempo per il gioco durante il lavoro. Nella società dell'informazione l'apoteosi di questa etica la si può ritrovare nel fatto che l'ideale ottimizzazione del tempo viene estesa perfino alla vita al di fuori del luogo di lavoro. Le pressioni ottimizzatrici sulla vita lavorativa - o sui venerdì, se usiamo questa allegoria- oggi sono così forti da iniziare a eliminare l'altro polo dell'etica protestante, la giocosità del tempo libero, ovvero della domenica (si parla infatti di venerdizzazione della domenica). Dopo che la vita lavorativa è stata totalmente ottimizzata, l'esigenza di ottimizzazione viene estesa a tutte le altre attività. Nell'economia dell'informazione, la vita intera è stata ottimizzata nella maniera tipica (ma non in tempi precedenti) del lavoro. Ma oltre all'ottimizzazione del tempo incentrato sul lavoro, l'etica protestante ha introdotto l'idea di un tempo lavorativo regolare come centro della vita. L'auto-organizzazione è andata perduta ed è stata relegata a ciò che resta dopo il lavoro. Al centro della vita sta il lavoro regolarmente ripetuto, che organizza tutti gli altri usi del tempo. Ma questa nuova flessibilità non conduce automaticamente a un'organizzazione del tempo più olistica. Infatti, la tendenza dominante nell'economia dell'informazione sembra essere rivolta verso una flessibilità che porta al rafforzamento della centralità del lavoro, magari distribuendo il tempo libero all'interno dell'attività lavorativa. Se si usano le nuove tecnologie per favorire la centralità del lavoro, tecnologie come quelle del telefono cellulare conducono facilmente a una dissoluzione del confine tra lavoro e tempo libero incentrato sul lavoro. Sia l'ottimizzazione sia la flessibilità del tempo tendono a far diventare il sabato sempre più simile al venerdì. Ma questo non è inevitabile: gli hacker ottimizzano il tempo per avere più spazio per il divertimento, e questo atteggiamento è stato condiviso dagli hacker fin dai tempi del MIT negli anni '60. Nella versione hacker del tempo flessibile, momenti diversi della vita come il lavoro, la famiglia, gli hobby ecc., sono combinati meno rigidamente, in modo tale che il lavoro non sia sempre al centro della vita. Il punto di vista dell'hacker è che l'uso delle macchine per l'ottimizzazione e la flessibilità del tempo dovrebbe condurre a una vita meno meccanizzata, ottimizzata e routinaria. Quando l'ideale degli hacker di un uso del tempo maggiormente autodeterminato si realizza, il venerdì (la settimana 155


lavorativa) dovrebbe diventare più simile al sabato (il riposo) di quanto non lo sia stato tradizionalmente. Storicamente, ancora una volta questa libertà di auto-organizzazione del tempo ha il suo predecessore nell'accademia, dove le persone potevano organizzare il proprio tempo: non avere la responsabilità del proprio tempo veniva associato a uno stato di prigionia o schiavitù. Soltanto nei monasteri l'attività era legata all'orologio, quindi, ancora una volta, il precedente storico dell'etica protestante può essere trovato in tale ambito. gli schemi della vita devono essere ripetuti sempre alla stessa ora e alla stessa maniera. venivano assegnati orari precisi per tutto. La fonte più importante di produttività dell'economia dell'informazione è la creatività, e non è possibile creare cose interessanti in condizioni di fretta costante o con un orario regolare dalle nove alla cinque. Quindi, per ragioni puramente economiche, è importante permettere la giocosità e gli stili di creatività individuali, dal momento che, nell'economia dell'informazione, la cultura della supervisione si rivolta facilmente contro gli obiettivi che si è prefissata. La dimensione etica richiesta è molto importante: stiamo parlando di una vita degna di essere vissuta. La cultura della supervisione dell'orario di lavoro di lavoro considera gli adulti come persone troppo immature per essere responsabili delle proprie vite. Presuppone che in qualsiasi impresa o agenzia governativa esistano soltanto poche persone che siano sufficientemente mature per assumersi le proprie responsabilità, e che la maggioranza degli adulti non è in grado di farlo senza una guida continua fornita da un ristretto gruppo di autorità. In una cultura del genere la maggior parte degli esseri umani si trova condannata all'obbedienza. Al contrario, gli hacker hanno sempre rispettato l'individuo e sono sempre stati anti autoritari. L'etica hacker ci ricorda anche -data la riduzione del valore individuale e della libertà che si verifica in nome del "lavoro" - che la nostra vita è qui e ora. Il lavoro è una parte della nostra vita in continuo divenire, nella quale ci deve essere spazio anche per altre passioni. Innovare le forme di lavoro è una questione di rispetto non soltanto nei confronti dei lavoratori ma anche per gli esseri umani in quanto tali. Gli hacker non fanno proprio l'adagio "il tempo è denaro" quanto "la vita è mia". Si comprende come l'etica hacker possa essere inserita a pieno titolo nel processo di individualizzazione. Nel descrivere questa dimensione del vecchio spirito capitalistico, l'etica del denaro protestante,per Weber il suo bene supremo, "è guadagnare denaro, sempre più denaro". Nell'etica protestante, sia il lavoro sia il denaro sono visti come fini a se stanti. La novità della new economy non consiste nel rifiutare il vecchio obiettivo dell'accumulo di denaro. Nella new economy il lavoro è ancora un valore autonomo, ma subordinato al denaro, cioè la capacità di 156

accumulare ricchezza: il risultato finanziario del lavoro prodotto da un'azienda (i suoi dividendi) sta diventando meno importante della sua crescita di capitale, dell'incremento di valore delle azioni. Il rapporto tra lavoro e capitale si sta sposando a favore del capitale. In questo modo si passa dalla frugalità protestante al consumismo autogratificante attuale. Oltre a rafforzare l'importanza del denaro, la new economy analogamente potenzia l'idea di proprietà, centrale nel vecchio spirito capitalistico, estendendola anche, in modo senza precedenti, all'informazione. Nell'economia dell'informazione, le aziende realizzano i loro profitti cercando di possedere le informazioni tramite brevetti, marchi di fabbrica, accordi di non divulgazione e altri mezzi. In rigido contrasto con questa rivitalizzata etica del denaro protestante, l'originale etica hacker enfatizza l'apertura. C'è la convinzione che la condivisione dell'informazione sia un bene di formidabile efficacia, e che la condivisione delle competenze, scrivendo free software, sia per gli hacker un dovere etico. Se storicamente il precursore del controllo sul libero flusso delle informazioni è il monastero (dove la spinta alla libertà di informazione veniva considerata un vizio), i precedenti storici dell'etica hacker sono l'accademia e l'etica scientifica (l'Accademia di Platone si basava sull'idea di synusia, l'azione concertata nella quale la conoscenza viene condivisa liberamente). In linea con questi principi etici, molti hacker distribuiscono apertamente i risultati della loro creatività affinché altri li usino, li testino e li sviluppino ulteriormente. In un'epoca in cui la motivazione economica è diventata preponderante e ha portato alla limitazione all'accesso a una quantità sempre maggiore di informazioni, è sorprendente leggere le motivazioni addotte dagli hacker per un progetto così imponente come quello di Linux, in cui il denaro non è una forza propulsiva e anzi ciò che viene creato viene distribuito agli altri. Nella nostra società, imbevuta di etica protestante, il lavoro è effettivamente una fonte di accettazione sociale. Perfino quando il lavoro in sé non implica un'interazione personale, l'accettazione sociale (oltre il semplice motivo di guadagnarsi da vivere) resta un'importante motivazione per il lavoro. Naturalmente, quasi in ogni tipo di lavoro anche il bisogno di appartenenza trova la propria espressione all'interno delle particolari circostanze sociali del luogo di lavoro, in quanto le persone hanno l'opportunità di partecipare ai cambiamenti sociali sia con i colleghi che con i clienti: ma i legami sociali che si formano all'interno del lavoro sono ancora più importanti dato che l'aumentare del tempo di lavoro toglie opportunità di creare legami nel tempo al suo esterno. Nella comunità degli hacker le motivazioni sociali giocano un ruolo importante, ma in modo differente. Non si può davvero capire il motivo per cui alcuni hacker usino il loro tempo libero per sviluppare programmi da offrire ad altri, senza


considerare la presenza di forti motivazioni sociali. Raymond afferma che questi hacker sono motivati dalla forza del riconoscimento tra pari23. Per questi hacker il riconoscimento all'interno di una comunità che condivide una passione è più importante e più intensamente soddisfacente del denaro, proprio come lo è per gli studiosi dell'accademia. La differenza decisiva rispetto all'etica protestante è che per gli hacker è importante che il riconoscimento tra pari non sia un sostituto della passione: deve venire come risultato di un'azione appassionata, della creazione di qualcosa di socialmente prezioso per questa comunità creativa. Nel caso dell'etica protestante spesso avviene l'opposto: le motivazioni sociali spesso servono a distrarre l'attenzione dall'idea che già di per sé il lavoro debba richiedere la realizzazione di una passione. E il risultato è che l'enfasi posta dall'etica protestante sulle forme sociali del lavoro diventa un doppio surrogato: per la mancanza di vita sociale al di fuori del lavoro e per l'assenza di passione nel lavoro in sé. È questo legame tra il livello sociale e quello passionale che rende così efficace il modello degli hacker, che realizzano qualcosa di molto importante a partire da profonde motivazioni sociali. In questo senso gli hacker contraddicono lo stereotipo di asocialità che è stato spesso loro assegnato e che non si è mai rivelato particolarmente fondato. Per gli hacker nella vita la motivazione organizzativa di base non è il lavoro o il denaro, ma la passione e il desiderio di creare insieme qualcosa di socialmente prezioso. Ciò detto, non si deve pensare che l'attitudine nei confronti del denaro della maggioranza degli hacker consista in una sorta di utopia paradisiaca o implichi una qualche avversione fondamentale nei suoi confronti. Originariamente, l'etica hacker si poneva innanzitutto il problema di quale posto assegnare al denaro in quanto motivazione e quali tipi di influenza sulle altre motivazioni dovessero essere evitati. Gli hacker non sono ingenui, non sono ciechi dinnanzi al fatto che in una società capitalistica è effettivamente molto difficile essere completamente liberi, a meno di avere sufficiente capitale individuale: è esattamente lavorando per qualcun altro che una persona può non essere libera di basare il proprio lavoro sulla passione personale, che si perde il diritto di determinare i propri ritmi di vita, e che l'ideale di apertura non è più nelle mani dell'individuo. Ci sono molti esempi di hacker che hanno scelto il "capitalismo hacker". Ma si crea una tensione intrinseca nell'introdurre l'idea di hacking all'interno di un capitalismo molto tradizionale. I significati originari dei termini capitalismo e hacker vanno in direzioni diverse. Conformemente all'importanza del denaro nell'etica protestante, lo scopo supremo del capitalismo sta nella crescita del capitale. L'etica del lavoro hacker, d'altro canto, enfatizza un'attività appassionata e libera da schemi. Anche se teoricamente è possibile conciliare entrambi gli scopi, la tensione tra di essi viene spesso risolta in pratica abbandonando l'hacking e seguendo le linee guida dell'etica

protestante. Un esempio è la Microsoft: inizialmente partita da una hacker, la motivazione del profitto ha preso il sopravvento sulla passione. Siccome l'hacking capitalistico condivide con l'etica protestante lo scopo di massimizzare il denaro, questo fondamento è destinato a influenzare e alla fine a dominare l'etica del lavoro di un'impresa. Quando il denaro diventa di per sé il fine principale, la passione non è più il criterio essenziale per le scelte di lavoro. I progetti vengono selezionati soprattutto sulla base della promessa di maggior profitto. Il riconoscimento, allora, viene determinato dalla posizione di potere raggiunta: la propria posizione all'interno dell'organizzazione e la ricchezza personale. Nonostante l'apparente tono anticapitalistico, in realtà l'hacking di Stallman non si oppone al capitalismo in quanto tale. L'etica del denaro hacker di Stallman non è contraria a far soldi, ma soltanto al far soldi chiudendo le informazioni agli altri. In tal senso, viene proposto un nuovo tipo di economia libera di mercato: libera in un senso molto più profondo rispetto al normale vocabolario capitalista, ma pur sempre un'economia capitalista. Nell'approccio etico di Stallman la domanda che sta alla base è: "La pratica di questa società di limitare le informazioni è davvero eticamente sostenibile?". Ricevere l'informazione prodotta da tutti gli altri e negare tutta l'informazione prodotta da sé implica un dilemma etico che si aggrava con il progredire dell'età dell'informazione, dal momento che una parte sempre più ampia del valore dei prodotti deriva dalla ricerca che ne sta alla base. La domanda che sorge da questa forma estrema di etica hacker è la seguente: può esistere una libera economia di mercato in cui la competizione non sia basata sul controllo delle informazioni ma su altri fattori, un'economia in cui la competizione sia su un livello differente (e naturalmente, non soltanto per il software)? Nel rispondere alla domanda, non dovremmo cavarcela con una soluzione semplice, e sbagliata, dicendo che si tratta di una nuova forma di comunismo, che abbiamo già visto non funzionare. Non si tratta veramente di comunismo: il comunismo implica un modello di autorità centralizzata, il comunismo è una formula di economia statalista, e ciò è estraneo agli hacker. Oltretutto, quando l'etica hacker del lavoro si oppone alla centralità del lavoro nel capitalismo si contrappone anche alla stessa caratteristica presente nel comunismo. Si deve ricordare che, malgrado le loro principali differenze, sia il capitalismo sia il comunismo si basano storicamente sull'etica protestante. Tutte le forme di etica hacker del denaro implicano invece una sfida a tutti i sistemi esistenti. La comunità hacker non è sempre unita nella sua risposta a queste grandi domande, ma soltanto nell'aver dato l'avvio di questo dibattito su questioni che stanno al cuore dell'economia dell'informazione, cosa che già di per sé rappresenta una sfida radicale.

23 Raymond (1998) 157


6.6.3.1.4. Etica Accademia

Hacker

ed

Per Himanen una possibile allegoria per il modello Open Source è rappresentata dall'accademia. Anche gli scienziati mettono a disposizione liberamente il loro lavoro affinché gli altri lo usino, lo testino e lo sviluppino ulteriormente. La loro ricerca è basata sull'idea di un processo aperto e autoregolato. Questa idea di autoregolazione è una continuazione della synusia dell'Accademia platonica, che comprendeva anche l'idea dell'avvicinamento alla verità attraverso il dialogo critico. L'etica scientifica richiede un modello in cui le teorie vengano sviluppate collettivamente, e i loro difetti percepiti e gradualmente eliminati per mezzo di una critica fornita dall'intera comunità scientifica. Naturalmente, gli scienziati hanno scelto questo modello non solo per ragioni etiche, ma anche perché nel tempo si è dimostrato il modo più efficace per creare un sapere scientifico. La ragione per cui il modello open source degli hacker originari funziona così efficacemente va ricercata nel fatto che – oltre a realizzare le loro passioni tramite le motivazioni derivanti dal riconoscimento dei pari, come avviene per gli scienziati – in larga misura esso si adegua a un modello accademico ideale aperto, che storicamente è il più adatto alla creazione di informazioni. Più importanti di un qualsiasi risultato finale sono le informazioni sottostanti o la catena di discussioni che hanno prodotto la soluzione. Nondimeno, l'etica scientifica non riguarda soltanto i diritti, ma ha anche due obblighi fondamentali: le fonti devono essere sempre citate (il plagio è eticamente aborrito) e la nuova soluzione non deve essere tenuta segreta ma resa pubblica a beneficio della comunità scientifica. Il soddisfacimento di questi due obblighi non è richiesto dalla legge, ma dalle forti sanzioni morali interne alla comunità scientifica. Secondo questo modello, la normale ricerca scientifica fornisce continuamente nuove aggiunte (“versioni di sviluppo”) a ciò che è già stato ottenuto, e dopo aver testato i miglioramenti la comunità scientifica li accetta come parti del proprio corpus di conoscenze (“versioni stabili”). Molto più raramente si ha una totale rivoluzione di paradigma. Inoltre, sia il modello accademico sia quello degli hacker hanno una struttura di divulgazione caratteristica. La ricerca è aperta a tutti, ma in pratica i contributi divulgati dalle pubblicazioni scientifiche più attendibili vengono selezionati da un più ristretto gruppo di giudici. Eppure questo modello è progettato per garantire, a lungo termine, che sia la verità a determinare il gruppo di giudici, piuttosto che il contrario. Come il gruppo di giudici accademici, il gruppo di giudici del network degli hacker mantiene le sue posizioni solo fintanto che le sue scelte corrispondono alle scelte meditate dell'intera comunità dei propri pari. Se un gruppo di giudici non è in grado di fare questo, la comunità lo scavalca e crea nuovi canali. Ciò

158

significa che fondamentalmente la posizione dell'autorità è aperta a tutti ed è basata soltanto sui risultati: nessuno può acquisire una posizione permanente. Nessuno può assumere un ruolo in cui il proprio lavoro non possa essere giudicato dai pari, proprio come le creazioni di qualsiasi altra persona. Gli hacker portano con forza al centro dell'attenzione il fatto che, nell'età dell'informazione, ancora più importante dei singoli risultati scientifici è il modello accademico aperto che permette la creazione di quegli stessi risultati. Si tratta di un'intuizione fondamentale. Infatti, è talmente importante che la seconda grande ragione del successo pratico del modello degli hacker sembra consistere nel fatto che il loro metodo di apprendimento è modellato allo stesso modo in cui si sviluppano i nuovi software. Una cosa che effettivamente può essere considerata come la frontiera del loro apprendimento collettivo. Così il loro modello di apprendimento ha gli stessi punti di forza del modello di sviluppo. Il “tipico” processo di apprendimento hacker inizia con l'individuazione di un problema interessante, quindi lavoro per risolverlo usando fonti diverse, e poi sottomettono la soluzione a test prolungati. Un punto di forza fondamentale del modello di apprendimento hacker sta nel fatto che ciò che uno di essi impara poi lo insegna agli altri. Quando un hacker studia il codice sorgente di un programma, spesso lo sviluppa ulteriormente, di modo che altre persone possano imparare da questo lavoro. Intorno ai vari problemi si sviluppa una discussione continua, critica, evoluiva. La ricompensa per la partecipazione a questa discussione è il riconoscimento dei pari. Il modello di apprendimento aperto degli hacker viene definito da Himanen come “accademia della Rete”. È un ambiente di apprendimento in continua evoluzione creato dagli stessi hacker, dove gli insegnanti sono spesso quelli che hanno appena imparato qualcosa. E ciò è utile, perché sovente qualcuno da poco impegnato nello studio di un argomento ha maggiori possibilità di insegnarlo ad altri, rispetto all'esperto che non ne ha più familiarità quotidiana e ha, in un certo senso, perso la padronanza dei meccanismi di pensiero tipici dei neofiti. Per un esperto, immedesimarsi con chi sta imparando qualcosa richiede livelli di semplificazione ai quali spesso resiste per motivi intellettuali. E non necessariamente l'esperto può trovare soddisfacente insegnare i concetti base. Al contrario, uno studente potrebbe ritenerla un'attività estremamente gratificante, dal momento che, di regola, non gli vengono offerte sufficienti opportunità di usare il proprio talento. Ancora una volta questo modello hacker tende ad assomigliare all'Accademia di Platone, in cui gli studenti venivano non considerati obiettivi per la trasmissione di conoscenza ma compagni di apprendimento (syntheis). Nella concezione accademica, il compito principale dell'insegnamento era quello di rafforzare l'abilità dei discepoli nel porre problemi, nello sviluppare linee di pensiero e avanzare critiche. Con il


risultato che ci si riferiva metaforicamente all'insegnante come a una levatrice: l'arte dialettica, cioè, viene paragonata da Socrate a quella della levatrice: come quest'ultima, il filosofo di Atene intendeva "tirar fuori" all'allievo pensieri assolutamente personali, al contrario di quanti volevano imporre le proprie vedute agli altri con la retorica e l'arte della persuasione. L'idea socratica è che lo scopo dell'insegnamento sia quello di aiutare la persona a imparare, a essere in grado di porre delle domande. In questo caso, il docente diventa enabler delle conoscenze del discepolo, e non provider. Il senso etico dell'originale modello accademico e di quello hacker, ben riassunta dalla idea di Platone secondo la quale l'individuo libero non deve essere forzato ad apprendere una disciplina, è totalmente diverso da quello del monastero, il cui spirito è rappresentato dalla regola monastica di Benedetto: “parlare e insegnare spetta al maestro, tacere e ascoltare si addice al discepolo”24. Oltre a quello del lavoro e del denaro esiste un significativo terzo livello dell'etica hacker che può essere chiamato netica, o etica del network. Questa espressione si riferisce al rapporto tra gli hacker e le reti della network society in un'accezione più ampia rispetto al più familiare netiquette. E neppure in questo caso tutti gli hacker condividono i valori della netica nel loro insieme, valori che tuttavia appaiono strettamente collegati nel loro significato sociale e in relazione all'etica hacker. La prima parte della netica riguarda il rapporto tra gli hacker e i network mediatici come la Rete: per gli hacker sono fondamentali i diritti nel cyberspazio come la libertà di parole e la privacy, e sono contro una regolazione dello spazio elettronico di tipo totalitario. Gli hacker socialmente consapevoli sottolineano il fatto che la tecnologia di crittazione non deve soltanto soddisfare i bisogni di segretezza dei governi e delle attività commerciali, ma anche di proteggere gli stessi individui dai governi e dalle attività commerciali. Per gli hacker la libertà di espressione e la privacy sono stati ideali importanti, e la Rete si è sviluppata coerentemente su questi principi. Il bisogno di organizzazioni apposite è nato negli anni '90 quando i governi e le imprese si sono interessate alla Rete su vasta scala, cercando di imprimerle uno sviluppo in una direzione opposta a quella degli ideali hacker. In casi di stati totalitari, i poteri forti sono in grado di controllare i media, specialmente quelli tradizionali e centralizzati, come stampa, radio e televisione. Naturalmente cercano anche di acquisire il controllo sui contenuti della Rete, nonostante in pratica questa appaia un'impresa decisamente più ardua, a causa della struttura decentralizzata della Rete. Per tale ragione la Rete è diventata un medium importante per la libera espressione individuale nelle società totalitarie. E gli hacker, che hanno creato questo medium, dall'e-mail ai newsgroup al web, hanno aiutato i dissidenti in varie parti del mondo a usare la Rete. 24 cit. a p.65 in Himanem (2001)

6.6.3.1.5. I sette valori dell'etica Hacker In conclusione, per Pekka Himanen i sette valori fondamentali della network society e dell'etica protestante sono sette: denaro, lavoro, ottimizzazione, flessibilità, stabilità, determinazione e misurabilità dei risultati. Anche l'etica hacker ruota attorno a sette valori, seppur differenti. Il primo valore-guida nella vita degli hacker è la passione, vale a dire un'occupazione intrinsecamente interessante che stimola l'hacker facendolo divertire mentre la mette in pratica. Il secondo valore guida è la libertà: gli hacker organizzano le loro vite non seguendo gli schemi di una giornata lavorativa routinaria e costantemente ottimizzata, ma in termini di flusso dinamico tra il lavoro creativo e le altre passioni della vita, nel cui ritmo resta sempre uno spazio per il gioco. L'etica del lavoro hacker consiste nel mescolare la passione con la libertà. Nell'etica del denaro hacker ciò che più impressiona è che molti hacker seguono ancora l'hacking originario, nel senso che non vedono il denaro come valore di per sé, ma motivano la propria attività con gli obiettivi del valore sociale e dell'apertura. Questi hacker vogliono realizzare la loro passione insieme agli altri, e creare qualcosa di valore per la comunità ed essere perciò riconosciuti dai loro pari. E permettono che i risultati della loro creatività vengano usati, sviluppati e testati da chiunque, in modo tale che tutti possano imparare agli altri. Anche se gran parte dello sviluppo tecnologico di questa età dell'informazione è stata raggiunta all'interno di un contesto capitalista tradizionale e di progetti governativi, una parte significativa di esso come i personal computer e la Rete, non esisterebbero senza quegli hacker che hanno condiviso con altri le loro creazioni. Un altro aspetto chiave dell'etica hacker è l'attitudine nei confronti del network, ovvero la netica, definita dai valori dell'attività e della responsabilità. L'attività in questo contesto comprende la fattiva e completa libertà di espressione, la privacy, per proteggere la creazione di uno stile di vita individuale e il rifiuto di una ricezione passiva in favore del perseguimento attivo della propria passione. In questo caso, responsabilità significa preoccuparsi per gli altri come scopo in sé e implica il desiderio di liberare la network society da quella mentalità della sopravvivenza che quasi ineluttabilmente scaturisce dalla sua logica. Fa parte di questo tipo di approccio anche l'obiettivo di far partecipare tutti al network, di sentirsi responsabili per le conseguenze a lungo termine della network society e di aiutare direttamente coloro che sono stati lasciati ai margini della sopravvivenza. Si tratta di sfide tuttora aperte, e resta da vedere se in questo caso gli hacker possano esercitare un'influenza profonda come quella che hanno avuto sugli altri due livelli. Un hacker che vive su tutti e tre i livelli secondo l'etica che gli è propria – lavoro, denaro, 159


netica – ottiene il più alto rispetto da parte della comunità. Infine, laddove riesca a rispettare il settimo e ultimo valore ottiene una vera e propria consacrazione. È la creatività, l'uso immaginativo delle proprie capacità, il continuo sorprendente superarsi e il donare al mondo un nuovo contributo che abbia un reale valore. Per l'etica protestante la creatività non ha un'importanza fondamentale, e le sue tipiche creazioni sono le agenzie governative e le imprese commerciali modellate sul monastero. Nessuna delle due incoraggia l'individuo a impegnarsi in attività creative. Dal punto di vista hacker, la centralità del tempo libero può essere altrettanto indesiderabile della centralità del lavoro. Gli hacker intendono fare qualcosa di significativo, vogliono creare. Se evitano un lavoro che non offre l'oro l'opportunità di essere creativi, considerano il tempo libero in quanto tale come uno stato ideale inadeguato. Gli hacker non credono che il tempo libero sia automaticamente più significativo del tempo lavorativo. La desiderabilità di entrambi dipende da come vengono realizzati. Ai fini di una vita significativa, il dualismo lavoro/tempo libero deve essere del tutto abbandonato. Il significato della propria esistenza non può essere cercato nel lavoro o nel tempo libero, ma deve scaturire dalla natura dell'attività in quanto tale, dalla passione, dal valore sociale, dalla creatività. Grazie alla sua enfasi sulla creatività, l'etica hacker deve in ultima analisi essere considerata distinta sia da quella protestante sia da quella preprotestante. Situandosi tra il lavoro e il tempo libero, rappresentano uno spirito genuinamente nuovo.

6.6.3.1.6. Etica Hacker economia del dono

ed

L'etica Hacker non solo rappresenta una sfida all'attuale etica, ma anche l'espressione di una differente forma di scambio, paritaria, denominata economia del dono. Guardando alla storia, all'evoluzione del Free e Open Source Software, ai rapporti fra i produttori e utilizzatori, si trovano molte analogie con il modello di economia basata sullo scambio antico di doni, ossia attraverso la reciprocità, contrapposto invece all'attuale modello basato sul mercato. Il mercato rappresenta quel processo che ottimizza l'allocazione e la ripartizione di risorse scarse per soddisfare i bisogni. Presuppone uno scambio di beni con beni e on servizi secondo un astratto valore di equivalenza rappresentato da un prezzo. La reciprocità è un principio di regolazione economico e sociale proprio dei sistemi istituzionali precedenti la regolazione del mercato. Riguarda la comunità e l'economia domestica: è una relazione che lega molte persone attraverso uno scambio durevole di doni o rapporti di cooperazione. Le relazioni non sono neutre come nel caso del mercato, ma il legame sociale che si costituisce è per così dire contestualizzato e orientato in modo specifico, non è indipendente dalle caratteristiche dei singoli soggetti coinvolti. 160

Oggi l'inadeguatezza di un modello improntato a una pura logica di mercato, la crisi del welfare state, l'importanza delle risorse intellettuali, di conoscenza e di reti di relazioni nel produrre un utile economico e sociale hanno riacceso l'interesse per forme di regolazione sociale in disuso come la reciprocità, finalizzate alla creazione di un'attività economica radicata in una relazione sociale, caratterizzata da forma di cooperazione e di solidarietà. E hanno messo in evidenza l'importanza di un modello economico che integri principi economici, sociali e redistributivi: un modello economico che costituisce il nucleo di un'economia solidale. In essa rientra un modello di produzione del software alternativo a quello delle grandi imprese monopolistiche, in quanto si basa su un sistema di scambio cooperativo diffuso che oggi, grazie alle strutture di rete e, in particolare, a Internet, è in continua espansione. Nel suo saggio sul dono scritto nel 1924 Marcel Mauss25, attraverso una rassegna della letteratura etnologica conosciuta al suo tempo, mette in risalto come in tutte le società tradizionali arcaiche la regola sociale fondamentale alla base dell'ordine e dell'organizzazione sociale non fosse il contratto e lo scambio mercantile, ma il dono. Esso rappresenterebbe una forma particolare di scambio, caratterizzata da una natura collettiva, da finalità non puramente utilitaristiche e dall'essere inserito in un insieme di obblighi sociali. Mauss spiega che i soggetti che procedono allo scambio non si impegnano come singoli individui, ma si obbligano, scambiano e contrattano in nome di un interesse e di un dovere morale collettivo e di carattere generale. Infatti, proprio in virtù della logica che guida lo scambio dei beni improntata a un principio di natura etica e non utilitaria, l'atto dello scambio presenta un valore in sé di pari importanza a quello dell'oggetto che viene scambiato. E questo segna la grande differenza con il commercio mercantile, in cui il valore materiale concreto del bene scambiato costituisce il motore principale dell'azione. Nel dono la forma dello scambio assume un significato più importante dell'equivalenza del valore concreto dei beni scambiati, come conseguenza del fatto che l'aspetto economico delle relazioni è profondamente inserito in un legame sociale. A differenza dello scambio mercantile, nel dono si offre anche quello che si ha di più prezioso. Nel dono la forma dello scambio assume un significato più importante dell'equivalenza del valore concreto dei beni scambiati, come conseguenza del fatto che l'aspetto economico delle relazioni è profondamente inserito in un legame sociale. Ciò non toglie che la circolazione dei doni costituisca un elemento essenziale per incrementare il valore del bene che circola. 25 Mauss M. (1923-24), Essai sur le don. Forme et raison de léchange dans les sociétés archaïques,in Année sociologique, ns, t. 1, pp. 30-186


Tuttavia, mentre nello scambio mercantile e anche nella redistribuzione gli elementi accrescitivi sono la pura circolazione e la distribuzione, nel dono il fattore qualificante non è dovuto né al mero interesse né a obblighi coercitivi o a manifestazioni di potere. Anche se esistono, queste dimensioni non sono quelle prevalenti. Il dono e la sua circolazione sono insieme espressione e strumento di coesione di un legame sociale; di conseguenza la cosa donata porta una traccia del suo donatore, del suo luogo di origine, e possiede una storia specifica e unica. Nel dono non sono le leggi del mercato e della concorrenza a regolare i rapporti fra le persone, né le regole formali imposte da una gerarchia come nella redistribuzione, ma donatori e donatari sono vincolati da una obbligazione morale allo scambio reciproco inscritto in una prescrizione sociale. Si è quindi in presenza di un rapporto di tipo Peer-toPeer. Mentre nel commercio lo scambio è immediato e viene regolato attraverso il contratto, il dono disegna un rapporto che continua in un cielo infinito. L'ingresso in una relazione di scambi di doni implica un indebitamento perenne, un coinvolgimento in relazioni personali che limitano la libertà di interrompere a proprio piacimento la relazione. Se lo scambio di doni non risponde a un principio meramente utilitario quali ragioni spingono a donare, quali sono i principi di economicità che ne costituiscono il fondamento? Qual è infine l'utilità che deriva da un'obbligazione di reciprocità? Oltre al piacere di donare in sé, lo spirito del dono, si trovano ragioni di ordine strutturale ed economico. Una delle esigenze alla base di questo contratto sociale primitivo è quella di mantenere la pace con la parte avversa e di rafforzare il legame all'interno del gruppo dei donatori, di stringere delle alleanze. Il trasferimento consensuale dei beni da un individuo a un altro avrebbe la funzione di trasformare questi da nemici in partner e alleati. Il dono è dunque uno strumento essenziale per avviare e consolidare strategie di collaborazione, garantendo cioè la fiducia necessaria. Ma oltre, a queste, le spiegazioni più diffuse sono di ordine socioeconomico. L'economia del dono sarebbe propria di una “economia dell'abbondanza”, in cui una consistente quantità di ricchezze si accompagna a una bassa densità della popolazione. Nelle società primitive, dove il problema della scarsità delle risorse non esisteva o non era così pressante per lo sviluppo, il ricorso al dono avrebbe costituito un mezzo per attenuare lo scarto fra la quantità delle risorse esistenti e la loro concentrazione in determinati gruppi sociali. Il dono sarebbe in questo caso uno strumento di redistribuzione della ricchezza fra i membri della comunità, una forma per garantire e stabilire un obbligo sociale di partecipazione diffusa alle ricchezze esistenti. Il suo carattere di elargizione spontanea ne avrebbe segnato la differenza con la forma di raccolta imposta e successivamente distribuita da un'autorità.

Altri studi antropologici, che non considerano società dell'abbondanza le società primitive, individuano in una economia basata sul dono un efficace strumento per massimizzare le risorse esistenti e la loro gestione. Il dono rappresenterebbe una forma primitiva di contratto sociale che verrebbe a fornire una garanzia e una risorsa contro il pericolo di scarsità dei beni. Quindi il meccanismo di regolazione basato sul dono favorirebbe una più equa distribuzione delle risorse e rappresenterebbe un rimedio contro la scarsità. Questo sistema di scambi di doni non è, quindi, semplicemente l'espressione di una generosità gratuita, di un istinto fraterno originario. Esso risponde a un'obbligazione che trova il fondamento e la garanzia di adempimento in gratificazioni e in sanzioni collettive, che rendono atti apparentemente volontari conformi a regole sociali. Sono queste norme che prescrivono il carattere dello scambio e rendono, quindi, il dono solo apparentemente libero e spontaneo, e ne disegnano anche il contenuto complesso e ambivalente. Il dono quindi non rappresenta una idea di gratuità, ma di un diverso modello di scambio. Nel suo noto saggio sul dono Marcel Mauss, infatti, lo qualifica come una forma di scambio fondata sulla reciprocità (ossia Peer-to-Peer) personalizzata e differita della triplice obbligazione di dare, ricevere e restituire. Ciò significa dire che il dono presuppone un qualche tipo di restituzione, non immediata, non comportante il ritorno di un bene di uno stesso tipo, non rispondente quindi al principio di equivalenza dello scambio. Chi dona implicitamente accetta il rischio di una non restituzione e chi riceve liberamente contraccambia, a sua discrezione. Il saggio di Mauss mette anche in evidenza come alla distanza nel tempo di un modello di reciprocità generalizzata fra donatori e donatari assicurerà un'equivalenza degli scambi per il mantenimento di una relazione di reciprocità. Donare è conveniente, anche se non a breve termine.

6.6.3.2. Le licenze 6.6.3.2.1. La licenza contratto sociale

come

La collaborazione collettiva risulta regolata da un vero e proprio “contratto sociale”: le licenze. Sebbene queste riguardano non le forme di collaborazione ed organizzazione, ma l'utilizzo dei risultati, rappresentano comunque quale saranno i possibili utilizzi dei risultati della collaborazione collettiva. Rappresentano quindi la “promessa”, gli “obiettivi”, che la collaborazione collettiva si propone di raggiungere: cosa si promette a chi vuole partecipare, quali traguardi bisogna raggiungere per chi già partecipa. Oltre quindi alle specifiche regole di ogni comunità Open Peer-to-Peer, le licenze rappresentano la base legale, la difesa da attacchi esterni e dalla appropriazione indebita dei risultati. 161


Numerose licenze sono oggigiorno disponibili, riguardanti l'ambito software ma non solo, anche opere artistiche quali testi, musiche, immagini, ecc.: è possibile oggi intraprendere una attività Open Peer-to-Peer riguardante qualsiasi tipo di informazione (e quindi di disciplina e scopo finale). Inoltre, se necessario, le licenze esistenti possono fornire da ispirazione per la stesura di specifiche licenze. Per comprendere il funzionamento delle licenze, è possibile consultare il libro Copyleft & opencontent - l'altra faccia del copyright di Simone Aliprandi26, che offre una estensiva e completa descrizione della filosofia Open Source in relazione alla disciplina legislativa. Secondo Aliprandi, l’idea di una tutela giuridica su un’opera software non si è affermata in modo parallelo e graduale rispetto alla diffusione del software stesso ma in modo direttamente proporzionale non tanto allo sviluppo della produzione software, quanto piuttosto all’interesse che il mercato ha man mano dimostrato verso questo settore. La scelta ovviamente fu determinata dai crescenti interessi economici che necessariamente si andavano a formare attorno al mercato del software. Aliprandi infatti ricorda che “la funzione primaria di tutti gli apparati giuridici di proprietà intellettuale è quella di creare dei diritti esclusivi di sfruttamento in modo da poter da un lato garantire un profitto al titolare di tali diritti, dall’altro (in una più ampia prospettiva di politica del diritto) di incentivare la creatività e l’inventiva in generale. Tutelare un frutto dell’ingegno e della creatività, sia esso un’invenzione o un’opera espressiva, significa soprattutto tutelare ed incoraggiare gli investimenti compiuti per la sua realizzazione”27. Le aziende d’informatica, che verso la fine degli anni ’70 iniziarono a voler tutelare i loro cospicui investimenti, potevano servirsi dei meccanismi tradizionali del diritto industriale, facenti capo ai due diversi modelli del diritto d’autore e del brevetto: il primo concepito originariamente per le creazioni di tipo artistico-espressivo, il secondo invece per le invenzioni di carattere tecnicoindustriale. Mentre il diritto d’autore mira a proteggere solo la forma espressiva dell’opera (ovvero la modalità con cui l’autore trasmette un messaggio, sia esso in forma letteraria, musicale, figurativa, multimediale etc.), la tutela brevettuale mira a proteggere il contenuto dell’invenzione (ovvero l’idea o il procedimento che sta alla base dell’invenzione). Aliprandi sottolinea come ciò, tuttavia, non significhi che ad una stessa opera non possano essere applicate in sovrapposizione entrambe le tutele. Esse infatti non si escludono a vicenda, ma anzi apportano diversi gradi e meccanismi di protezione: per esempio, il diritto d’autore ha una maggior durata nel tempo ed è applicabile automaticamente a partire dal mero atto della creazione; il brevetto ha una durata minore, richiede una formalizzazione, ma una volta 26 Aliprandi (2005) 27 Ibidem p.30 162

perfezionato può consentire una protezione più efficace a causa della sua estensione al contenuto e al procedimento28. Il software rappresenta un caso controverso. Fino al momento della sua comparsa, il confine fra opere tecnico-funzionali e opere espressive era sempre stata piuttosto pacifica; con il suo arrivo, però, il mondo del diritto si trovò di fronte ad un’entità molto più difficile da inquadrare e che si collocava proprio a cavallo delle due categorie di opere dell’ingegno. A livello dottrinale più che a livello pratico, infatti, a creare dubbi era proprio una caratteristica peculiare del software: la sua funzionalità, ovvero la sua vocazione di opera destinata alla soluzione di problemi tecnici; caratteristica questa che lo avvicinerebbe ineluttabilmente alla categoria delle invenzioni dotate di industrialità. D’altro canto, però, il software appare carente del requisito della materialità considerato da alcuni come condicio sine qua non per la brevettabilità. Storicamente, inoltre, la tutela brevettuale venne vista con diffidenza dalle imprese produttrici di hardware: esse temevano che tale prospettiva avrebbe attribuito uno eccessivo potere alle aziende di software e reso il mercato dell’hardware schiavo delle loro scelte di mercato29. Per le imprese produttrici di hardware, infatti, il software non era che un prodotto secondario, un corollario dei loro prodotti di punta: non avevano nessuna intenzione di organizzare attività commerciali basate sul software, tant'è che per molto tempo distribuivano, con l'hardware e il codice binario, anche il codice sorgente. Data la sussistenza dei diritti esclusivi derivante dalla tutela d’autore, in base ai cardini del diritto privato è necessario che l’autore del software stipuli un contratto con l’utente nel quale definisca di quali prerogative si spogli e di quali quindi possa essere investito l’utente, ovviamente per contro di un corrispettivo (stante la patrimonialità di tali diritti). Una prassi di questo tipo, basata cioè su contratti stipulati ad hoc per ogni situazione o soggetto, poteva aver ragion d’essere solo nell’era "primordiale" dell’informatica, quando la figura del programmatore era assimilabile ad un libero professionista chiamato alla progettazione di un sistema informatico specifico per un centro di ricerca. Dal momento dell’ingresso del software nella schiera dei beni di consumo, gli autori iniziarono a stilare dei contratti di portata generale in cui esprimevano i termini della distribuzione e della riproduzione del software su cui essi vantavano i suddetti diritti esclusivi: nacque così il tipo contrattuale della licenza d’uso di software30. Il software, a seconda del grado di libertà che il titolare dei diritti di tutela decide di attribuire agli utenti della sua opera, può essere classificato all’interno di un insieme di definizioni, che sono 28 Ibidem p.31 29 Idem 30 Ibidem p.33


ovviamente da intendersi in modo piuttosto elastico. In una scala di valore che parte da un grado minimo di libertà per l’utente verso il grado massimo, al primo scalino abbiamo prevedibilmente il software proprietario, con le sue molteplici e sovrapposte forme di distribuzione. Le più diffuse sono: il software commerciale proprietario, che prevede l’acquisto della licenza d’uso del prodotto o per avviarne l’uso (solitamente per mezzo di parole-chiave che permettono di superare i meccanismi di crittazione) o addirittura per entrare in possesso del supporto materiale (CD-ROM o floppy-disk). Ci sono poi le versioni di prova, chiamate trial version (versioni di prova) o demo, nelle quali il programma si presenta privo di alcune funzionalità, oppure completo ma con una possibilità di utilizzo limitata nel tempo (in questo caso di parla anche di shareware); tutto ciò sempre attuato mediante meccanismi automatici di crittazione. Scaduto il periodo di prova, solitamente il programma invita l’utente ad acquistare la licenza per poterne continuare l’uso. Abbiamo anche il caso sicuramente meno diffuso - dei programmi ADware, i quali mostrano durante l’uso alcuni banner pubblicitari; i costi di licenza quindi sono coperti in via indiretta dalle aziende inserzioniste. Infine si parla di freeware, riferendosi a un software commerciale completo che però viene ceduto in uso gratuito per motivi promozionali, o in base a contratti che puntano più che altro sull’aspetto della manutenzione e della customizzazione. Sullo scalino centrale si trova invece il fenomeno del software libero e aperto (Free Software e Open Source software) basato sul meccanismo del copyleft. Sul terzo e ultimo scalino, quello col massimo grado di libertà per l’utente, troviamo infine il public domain software (software di pubblico dominio), ovvero un software non solo distribuito gratuitamente e liberamente, ma addirittura privo di ogni annotazione di copyright, tanto da occultarne anche la paternità (il cosiddetto aspetto ’morale’ del diritto d’autore). Uno strumento dunque regalato alla conoscenza, di cui chiunque è libero di fare ciò che vuole senza alcun limite derivante da licenza.

6.6.3.2.2. Copyleft La scelta del public domain dovrebbe essere quella che garantisce la maggior libertà di diffusione e di adattabilità e perciò dovrebbe rappresentare il modello più calzante con l'indirizzo etico della Free Software Foundation. E infatti è così, ma solo in linea di principio: asciare il software in un regime di pubblico dominio comporta che chiunque possa farne ciò che vuole; ma pubblico dominio in questo caso non vuol dire "proprietà di tutti" intendendo "tutti" come "comunità organizzata", bensì intendendo "tutti" come "ciascuno". Di conseguenza, ciascuno potrebbe anche attribuirsi arbitrariamente i diritti esclusivi di tutela e iniziare a distribuire il software da lui modificato come se fosse software proprietario, criptando il

sorgente e misconoscendo la provenienza pubblica del software, senza che nessuno possa agire nei suoi confronti. Una simile prospettiva avrebbe presto vanificato gli scopi del progetto GNU, con il rischio oltretutto di vedere defraudato il lavoro dei numerosi sviluppatori che vi avevano aderito con spirito di dedizione e gratuità. Bisognava escogitare una soluzione per far sì che ogni affiliato del progetto fosse a sua volta tenuto a mantenere lo stesso grado di libertà sul lavoro da lui svolto. Per Aliprandi questa è stata forse la idea più geniale ed interessante di Stallman: egli capì che l’arma più efficace per difendersi dalle maglie troppo strette del copyright (così come si è evoluto negli ultimi anni) stava nel copyright stesso. Per rendere dunque un software veramente e costantemente libero è sufficiente dichiararlo sotto copyright e poi riversare le garanzie di libertà per l’utente all’interno della licenza, ribaltando così il ruolo della stessa e creando un vincolo di tipo legale fra la disponibilità del codice e le tre libertà fondamentali: di utilizzo, di modifica e di ridistribuzione.

Fig. 50: Copyleft

Come già aveva fatto per l’etimologia di GNU, Stallman cercò di attribuire a questo criterio un nome emblematico; e lo fece sfruttando un gioco di parole, anzi un doppio gioco di parole. Scelse l’espressione copyleft che, a seconda dei significati che si danno alla parola left, trasmette una duplice idea: un’idea di ribaltamento degli stereotipi del copyright tradizionale, se s’intende left (sinistra) come contrario di right (destra); ma anche e soprattutto un’idea di “libertà d’azione” dato che left è il participio passato di leave, cioè “lasciare”, “permettere”31. Una traduzione (un po' forzata) di copyleft potrebbe essere “permesso di copia”, ma nella traduzione italiana si perde irrimediabilmente il senso del duplice gioco di parole, dato che non si può cogliere l’idea di ribaltamento. Quest’ultima sfumatura semantica è stata poi evidenziata con un’ulteriore gioco di parole: gli hacker della Free Software Foundation amano apporre, ironicamente, sui propri lavori la nota presente in fig.50 ovvero, "copyleft - tutti i diritti rovesciati" con una © rovesciata a sinistra invece del canonico "copyright (C) - all rights reserved" (cioè, "copyright - tutti i diritti riservati"). Dopo tale annotazione venivano poi elencati (alla stregua di una licenza d’uso) tutte le libertà di cui l’utente era ufficialmente investito e veniva rimarcato l’obbligo di mantenerle intatte in futuro nei confronti degli altri utenti. Il copyleft consiste quindi nel convertire le licenze d’uso, da decalogo 31 Per le implicazioni giuridiche e le prospettive del concetto di copyleft si veda la ottima analisi di Aliprandi (2005) pp.98-122 163


degli obblighi dell’utente, in una sorta di "statuto" dei suoi diritti, intoccabili nel tempo e invariabili presso terzi. Aliprandi aggiunge una ulteriore precisazione: nel caso di opere (software o non software) distribuite sotto licenze copyleft è improprio parlare di “tutela del diritto d'autore”. Infatti è il diritto che tutela l’opera, non la licenza; al massimo la licenza chiarisce i termini di distribuzione dell’opera allentando (a certe condizioni e secondo la volontà dell’autore) le maglie dell’impostazione standard prevista dall’attuale sistema di copyright. Quindi è più corretto parlare di opera “distribuita” sotto licenza copyleft oppure “disciplinata” da una licenza copyleft oppure “opera in regime di copyleft”.

6.6.3.2.3. GPL Stallman stesso, con la consulenza di alcuni colleghi hacker e giuristi, nel 1989 volle redigere il testo base della licenza da apporre ai programmi GNU. Lo fece lasciando immancabilmente trasparire gli intenti ideologici del progetto anche nelle parole di quello che invece sarebbe potuto rimanere un testo di tipo tecnico-giuridico, franco da certe connotazioni. Venne chiamata GNU General Public License, più conosciuta per il suo acronimo GPL. Già dalle prime righe si può notare quindi che si tratta di un documento che basa tutta la sua essenza ed efficacia sul copyright, a differenza di ciò che si può pensare comunemente. Lo si coglie pure dal fatto che lo stesso testo della GPL viene dichiarato inequivocabilmente tutelato da copyright da parte della Free Software Foundation Inc., organizzazione identificata inequivocabilmente con tanto di città, via e numero civico. Successivamente si riporta una nota, che è poi l’essenza del concetto di copyleft inteso però solamente come “permesso di copia”: "chiunque può copiare e distribuire copie letterali di questo documento, ma non ne è permessa la modifica"32. Quest’annotazione preliminare è ovviamente resa necessaria al fine di evitare che il destinatario della licenza ne possa stravolgere la funzione primaria cambiandone i contenuti e alterandone la disciplina a suo piacimento; quindi, sotto questo aspetto, unico soggetto autorizzato a rilasciare modifiche o addirittura nuove versioni è la FSF, in posizione di detentrice dei diritti di copyright33.

6.6.3.2.4. LGPL Le prime applicazioni della GPL hanno fatto però emergere un problema di tipo pratico, derivante proprio da una caratteristica specifica e peculiare della licenza: la sua “viralità”. In pratica tutto il codice sviluppato per funzionare in associazione con software GPL dev’essere a sua volta coperto 32 http://www.gnu.org/copyleft/gpl.html 33 Per una accurata analisi della licenza, si veda Aliprandi (2005) pp.37-38] 164

da GPL, pena la caducazione dell’intera licenza. Ma bisogna tenere presente che il software non è un’entità statica e monolitica, bensì un insieme fittissimo di altri software, se per software intendiamo una serie di istruzioni impartite al computer. Perciò è possibile che nel modello "a cascata" di ridistribuzione del software libero, grazie alla disponibilità del codice sorgente completo e alla possibilità di modifica garantite dalla GPL, qualche sviluppatore voglia scorporare il pacchetto software e rielaborarne solo una parte, oppure decida di fare interagire un software di derivazione libera con un software proprietario. Aliprandi porta come esempio le librerie: esse sono delle "raccolte di funzioni" precompilate (dette routine), funzionali al software che lo incorpora ma da esso ben distinguibile. Quindi un’eccessiva rigidità (come per certi versi è quella della GPL) può risultare controproducente allo sviluppo di software libero: uno sviluppatore GNU che vuole creare una libreria sotto i parametri del copyleft sa che successivamente gli sviluppatori di software proprietario non potrebbero usarla e quindi la libreria perderebbe gran parte del suo potenziale. Proprio per questo motivo, dopo che molti collaboratori del progetto GNU fecero notare tale difficoltà, la Free Software Foundation decise nel 1991 di stilare una seconda licenza, chiamata LGPL, Library General Public License34. È dunque una licenza apposita per il caso delle librerie, che si presenta come una versione della GPL alleggerita però di alcune restrizioni (per questo infatti è stata recentemente rinominata “Lesser GPL”, ovvero “GPL attenuata”). Ovviamente la Free Software Foundation "diffida" chiunque ad usare questa licenza per software che non siano librerie, pena l’esclusione del programma così distribuito dalla "famiglia" del software libero.

6.6.3.2.5. BSD Sulla scia dei segnali di successo raccolti nell’ambito della comunità hacker (e non solo) dalla licenza di Stallman, cominciarono a diffondersi altre licenze per software che - pur con funzioni e criteri diversi - si ispiravano al modello individuato dalla FSF. Un esempio importante è dato dalla BSD License35, che ha le sue radici, negli anni d’oro della scienza informatica, in un progetto che potrebbe essere considerato addirittura come precedente al progetto GNU. L’acronimo BSD si riferisce alla Berkley Standard Distribution, ovvero la versione di Unix sviluppata negli anni '70 dalla prestigiosa università californiana con il modello di libera condivisione tipico dell’epoca. Quando poi (alla fine degli anni '80) la compagnia produttrice di software AT&T decise di commercializzare Unix ci fu un’inversione di tendenza e ovviamente le nuove versioni del sistema operativo contenevano codice BSD inframmezzato da codice proprietario. Dunque gli sviluppatori originari della BSD separarono il proprio codice dal resto del sistema 34 http://www.fsf.org/licensing/licenses/lgpl.html 35 http://opensource.org/licenses/bsd-license.php


operativo; si impegnarono poi a “riempire i buchi” e, una volta trasformata la BSD in un sistema operativo completo e indipendente, iniziarono a ridistribuirla sotto una nuova singolare licenza rilasciata dalla University of California (appunto la BSD license). Costoro dopo qualche anno (nel 1993) si organizzarono nel "FreeBSD Project" con lo scopo di coordinare lo sviluppo del software e di rilasciarne le versioni aggiornate. La prima versione (1.0) risale al 1993, mentre nel 1999 si era già giunti alla versione 3.0. Si tratta di una licenza piuttosto asciutta, senza componenti ideologiche o programmatiche e parti esemplificative, i cui termini risultano sintetici e essenziali e la cui applicazione si risolve nell’inserimento di una breve nota standard da inserire nei file che s’intendono tutelare con la licenza. La nota (detta template, ovvero “sagoma”) deve riportare il nome di chi detiene il copyright (owner), l’organizzazione a cui egli appartiene e l’anno di realizzazione. Il testo della licenza prosegue poi specificando che, del software così tutelato, sono permesse la ridistribuzione e l’utilizzo in forma sorgente o binaria, con o senza modifiche, ma solo se vengono rispettate tre condizioni: • le ridistribuzioni del codice sorgente devono mantenere la nota sul copyright; • le ridistribuzioni in forma binaria devono riprodurre la nota sul copyright, l’elenco delle condizioni e la successiva avvertenza nella documentazione e nell’altro materiale fornito con la distribuzione; • il nome dell’autore non potrà essere utilizzato per sostenere o promuovere prodotti derivati dal software licenziato, senza un apposito permesso scritto dell’autore. In fine si trovano gli avvertimenti (disclaimer) sull’assenza di garanzia e sullo scarico di responsabilità, che ricalcano grossomodo lo schema dei loro corrispondenti all’interno della GPL. Tuttavia questa licenza presenta una caratteristica più problematica, ovvero la possibilità di usare il codice da essa tutelato per sviluppare software proprietari: aspetto che la pone al di fuori del paradigma di copyleft, poiché non è garantita la trasmissione all’infinito dei diritti da essa concessi, i quali si interrompono nel momento in cui il codice diventa proprietario. T uttavia, storicamente, le dispute più accese riguardanti la BSD non derivavano da questa caratteristica (d’altronde l’importante era che venisse dichiarato esplicitamente che non si trattava di software libero nel senso voluto dalla FSF), bensì quella che venne chiamata la "clausola pubblicitaria". La clausola obbligava l’utente a "dare esplicito riconoscimento all’Università [Berkeley] nelle eventuali inserzioni pubblicitarie previste per i programmi derivati"36. Ma col tempo alcuni sviluppatori aggiunsero alla clausola i nomi di altre organizzazioni che avevano sostenuto lo sviluppo del software, comportando che dovessero 36 cit. in Aliprandi p.40

essere citati sempre più soggetti nelle inserzioni. Questo ingombrante effetto a catena portò nel 1999 l’università californiana a decidere di eliminare quella clausola dalla versione ufficiale della licenza. Più o meno identica alla BSD nella struttura e nello spirito generale è la MIT License, che prende il nome dal noto centro di ricerca del Massachusetts.

6.6.3.2.6. Mozilla La licenza caratterizzante il progetto Mozilla37 risulta interessante per la sua rilevanza storica: può essere vista come la prova generale antecedente la nascita del termine Open Source. Quando la Netscape decise di diffondere il sorgente del suo prodotto di punta, il Netscape Navigator, dovette fare i conti con una situazione abbastanza diversa da quella in cui si trovava il progetto GNU: quest’ultimo infatti aveva degli intenti propagandistici e no-profit che non potevano armonizzarsi invece con la realtà di una grande azienda. Bisognava quindi "liberare il sorgente" senza però rendere il software un effettivo software libero, nel senso voluto dalla Free Software Foundation, dato che non si voleva precludere la possibilità di inframmezzarlo con codice di natura proprietaria; bisognava anche appurare se qualcuna delle licenza già comparse sul mercato fosse stata adeguata al tal fine. I grandi nomi impegnati in questo progetto (ovvero Torvalds, Raymond e O’Reilly) consultarono esperti di informatica, diritto e marketing, prendendo in esame le caratteristiche delle licenze GPL, LGPL e BSD. La conclusione fu che era giunto il momento di stilare una nuova apposita licenza, che, a detta dei loro promotori, si sarebbe posta come un primo tentativo di compromesso fra i criteri giuridicoideologici del software libero tradizionale e lo sviluppo a livello aziendale di software a sorgente aperto. Nacque così la Netscape Public License (NPL), il cui testo venne diffuso a titolo informativo in un newsgroup telematico per testare il livello di gradimento da parte degli utenti: era il 5 marzo 1998. Da subito il feedback ricevuto da tutta la comunità Open Source si rivelò estremamente critico: la licenza infatti, con una certa contraddittorietà, riservava alcuni privilegi al detentore originario dei diritti nella distribuzione del codice sorgente; essa dava a Netscape il privilegio di porre sotto un’altra licenza le modifiche fatte al suo software, perciò l’azienda poteva tenere come private quelle modifiche, approfittarne per migliorare il software e rifiutarsi di ridistribuire il risultato; per di più veniva riservata a Netscape anche la possibilità di redigere versioni aggiornate della NPL, alla stregua di quanto faceva la Free Software Foundation con la GPL (con la differenza che la Free Software Foundation era un’organizzazione no-profit e non un’impresa con interessi economici).

37 http://www.mozilla.org/ 165


Preso atto di questi punti critici, i coordinatori del progetto seppero rivisitare la loro impostazione. Il 21 marzo infatti venne diffusa una nuova licenza, libera da quei privilegi che avevano generato tante critiche: la Mozilla Public License (MPL), che prese il suo nome stravagante da un nomignolo usato scherzosamente dagli sviluppatori della Netscape; essa era stata predisposta per operare "all’interno della NPL" ed era identica a quest’ultima tranne che nella mancanza dei privilegi. Il codice di Navigator fu dunque pubblicato per la prima volta il 31 marzo 1998 sotto licenza NPL; il codice da qui derivato poteva invece essere sotto MPL (o sotto ogni altra licenza compatibile) e quindi poteva essere inserito (in grado variabile) all’interno di un pacchetto di software commerciale. In questo modo il Progetto Mozilla riusciva finalmente ad assecondare il duplice intento di diffusione a sorgente aperto e di proficua strategia aziendale.

6.6.3.2.7. Open Source Nel 1998 la diffusione di software sotto licenze diverse dal concetto tradizionale di licenza d’uso era diventata una prassi ormai radicata e la scelta "illuminata" di Netscape rappresentò l’avvenuta maturazione dei tempi per una - per così dire istituzionalizzazione dell’Open Source. Le più rappresentative e carismatiche personalità della comunità emergente cominciarono a cogliere la necessità di fare chiarezza (anche da un punto di vista giuridico) sul fenomeno che avevano strenuamente sostenuto e pensarono di organizzarsi in gruppi di lavoro e associazioni che coordinassero i vari progetti e ne mantenessero alta la visibilità. Una volta costituite tali organizzazioni e confermata la loro credibilità a livello internazionale, esse iniziarono un’opera di cernita, commento e consulenza sui testi delle licenze che via via si trovavano in circolazione, segnalando quali fossero le più indicate a determinate finalità: una sorta di "patrocinio", una certificazione di conformità allo spirito dei vari progetti. I primi a muoversi in questo senso furono proprio alcuni degli artefici di Mozilla, i quali sotto la guida di Eric Raymond costituirono la Open Source Initiative con lo scopo appunto di farsi supremi custodi e garanti del concetto di “software Open Source”. Come base per questo progetto, la OSI raccolse i suoi esperti di informatica e di diritto per stilare una sorta di documento-decalogo in cui venissero delineati gli standard secondo i quali un software potesse essere definito Open Source: la Open Source Definition, ovvero la “definizione di open source”. Fedele alla sua vocazione di "statuto dei diritti dell’utente" questo testo focalizza la centralità di tre diritti primari che la tipologia di distribuzione del software deve rispettare: • il diritto di fare copie del programma e di ridistribuirle liberamente; • il diritto di accesso al codice sorgente; • il diritto di poter intervenire sul programma e modificarlo. 166

Dunque la Open Source Definition (OSD) non è un modello di licenza per software open source (come qualcuno potrebbe pensare) bensì una specifica di quanto è ammesso in una licenza software perché possa essere considerata Open Source"; secondo Aliprandi può esser vista, in un certo senso, come una "licenza per le licenze"38. Dopo una breve introduzione che ammonisce il lettore a non considerare “Open Source” come semplice sinonimo di “disponibilità del sorgente”, il documento si estrinseca in 10 sezioni che da un lato chiariscono e riconfermano alcuni principi cardine del software libero, dall’altro ne creano alcuni indipendenti ed appositi per il concetto di Open Source. L’obiettivo della OSI era trasformarsi in una specie di "consorzio" che vigili sulla corretta interpretazione e applicazione della Open Source Definition, attribuisca una certificazione ai prodotti che ne rispettavano i principi e apponga su di essi un marchio di garanzia. Inizialmente è stata richiesta la registrazione dell’espressione "Open Source" come marchio, ma l’autorità americana a ciò preposta non l’ha accettata poiché troppo generica e descrittiva; la OSI ha dunque optato per il meno equivocabile "OSI certified", cioè "certificato dalla OSI". La OSI quindi non solo consente l’uso dell’espressione Open Source per i software che rispettino i criteri della OSD, ma autorizza su di essi l’apposizione ufficiale del marchio registrato; si crea così un riconoscimento più forte di quello che abbiamo simbolicamente chiamato "patrocinio", espressione più calzante per la prassi utilizzata dalla Free Software Foundation. È quindi possibile rileggere le principali licenze di software presentate alla luce dei criteri della Open Source Definition, rilevando quattro fondamentali aspetti: • la possibilità che il codice (sotto quella particolare licenza) venga miscelato con codice di matrice commerciale; • la possibilità che le modifiche apportate al codice siano mantenute, senza quindi essere restituite all’autore originale; • la possibilità che il codice così realizzato venga liberamente ri-licenziato da chiunque; • la permanenza di alcuni privilegi speciali sulle modifiche per chi detiene il copyright originale. Anche la Free Software Foundation, dall’alto della sua posizione privilegiata (e unanimamente riconosciuta) di prima custode della libertà nel software, ha da sempre sfruttato la visibilità e la credibilità derivatele da un a personalità come Stallman per guidare gli utenti di software verso una corretta qualificazione del concetto di software libero. I meccanismi con cui questa organizzazione ha conferito il suo benestare (o "patrocinio") alle diverse licenze in circolazione, sono però piuttosto diversi da quelli prescelti dalla Open Source Initiative. Per prima cosa la Free Software Foundation non usa come modello di riferimento 38 Aliprandi (2005) p.43


un documento-manifesto quale può essere considerato la OSD, bensì una vera e propria licenza che funge - ma solo in seconda battuta anche da manifesto: ovvero la GPL, che viene "solennemente" elevata al grado di licenza del ’free software’ per eccellenza. Essa diventa in tal modo l’unica vera licenza che realizza appieno le quattro libertà basilari previste dalla “free software definition” 39: • la libertà di eseguire il programma, per qualsiasi scopo (libertà 0); • la libertà di studiare come funziona il programma e adattarlo alle proprie necessità (libertà 1); • la libertà di ridistribuire copie in modo da aiutare il prossimo (libertà 2); • la libertà di migliorare il programma e distribuirne pubblicamente i miglioramenti, in modo tale che tutta la comunità ne possa trarre beneficio (libertà 3). Ovviamente l’accesso al codice sorgente è considerato come prerequisito essenziale alla ’libertà 1’ e alla ’libertà 3’.

libero del software e sviluppo libero della relativa documentazione. L’idea di diffondere un’opera non software (principalmente un’opera letteraria) con gli stessi criteri della licenza GPL cominciò a prospettarsi già ai primi sviluppatori e promotori del progetto GNU, i quali erano soliti annotare di volta in volta le modifiche tecniche che apportavano al software libero anche sul relativo file di testo con le istruzioni tecniche. Fin quando lo sviluppo del software rimaneva in fase sperimentale, la modifica dei manuali d’istruzioni non dava grandi problemi, essendo anch’essi in via di redazione; la situazione si faceva più intricata quando veniva rilasciata una versione definitiva del software in un pacchetto (completo di manuale) pronto per la distribuzione al pubblico. Infatti in questo passaggio, il software era un’opera già completa e definita che però godeva delle libertà derivatele dai termini della licenza GPL, ovvero il “permesso di copia” e la possibilità di modifica; il relativo manuale invece sottostava alla tutela tradizionale per le opere letterarie tecnico-scientifiche, quindi senza le fondamentali libertà della GPL.

6.6.3.2.8. Licenze per opere non software: Creative Commons

Da ciò scaturiva una situazione di fastidiosa incoerenza con l’etica hacker e soprattutto di paradossalità pratica, dato che le varie versioni modificate, che sarebbero derivate dal software libero originario, non avrebbero potuto accompagnarsi ad un manuale altrettanto aggiornato e modificato. Ad esempio, uno sviluppatore che avesse aggiunto una funzionalità al software libero originario (possibilità garantitagli dalla GPL) non avrebbe potuto però aggiungere un’apposita sezione al manuale senza violare i diritti di copyright dell’autore originario del manuale. Alla fine degli anni ’90 con la grande diffusione di Linux e l’affacciarsi del software libero sul mercato globale, la questione della non modificabilità dei manuali d’informatica sarebbe risultata una grave pecca per un fenomeno che doveva fare da modello per un nuovo paradigma di diffusione delle conoscenze qual era il movimento Open Source. Alcuni sviluppatori iniziarono dunque ad applicare

Per comprendere l'emergenza delle principali licenze riguardanti opere non software, bisogna tenere conto dell'estrema versatilità delle tecnologie digitali nel memorizzare testi, immagini, suoni. Le nuove tecnologie dell'informazione, infatti, permettono la digitalizzazione di quasi tutti i tipi di opera, e le reti informatiche ne permettono una rapida distribuzione attraverso la copia delle informazioni. Copia che è (ed è ancora) al centro di dibattiti sulla sua legalità o meno, e quindi sulla necessità di licenze particolari. Il fatto che l'input per l’applicazione dei principi di libertà di copia e di modifica alle opere non software provenga dall’ambito informatico non dipende semplicemente dalla particolare disposizione culturale ed etica della comunità hacker, ma anche da un nesso di praticità e convenienza fra sviluppo

licenze

può essere miscelato con software commerciale?

le modifiche possono essere mantenute private e non restituite all'autore originale?

può essere rilicenziato chiunque?

contiene privilegi speciali sulle modifiche per chi detiene il copyright originale?

GPL

no

no

no

no

LGPL

no

no

no

BSD

no

no

NPL

no

MPL

no

no

Dominio pubblico

no

39 Aliprrandi (2005) Tabella 6: Carateristiche delle principali licenze di Free e Open Source Software (Fonte: Aliprandi 2005) 167


licenze

è una licenza di software libero?

è compatibile con la gpl?

è nello spirito del copyleft?

GPL

LGPL

Non del tutto

BSD originale

no

no

BSD modificata

no

NPL

no

poco

MPL

no

Non del tutto

non è una licenza

no

Dominio pubblico

Tabella 7: Principali licenze di Free e Open Source Software e spirito copyleft

la licenza GPL (quindi una licenza nata per il software) anche alla documentazione relativa al software e successivamente anche ai testi divulgativi dei vari progetti Open Source. Questa crescente necessità di malleabilità e libertà di diffusione della manualistica e dell’altro materiale divulgativo relativo al software libero, spinse la Free Software Foundation a redigere una nuova apposita licenza: venne chiamata “GNU Free Documentation License (FDL), ovvero “Licenza per documentazione libera del progetto GNU”, e la sua prima versione (la 1.1) comparve nel marzo 2000. Il testo, già ad un primo sguardo, mostra di ricalcare fedelmente lo stile e la struttura della GPL, in modo preminente per ciò che riguarda alcuni rilievi programmatici; risulta invece (rispetto alla sua capostipite) meno influenzata da considerazioni propagandistiche. Il Preambolo ci chiarisce immediatamente gli scopi della nuova licenza, cioè "rendere un manuale, un testo o altri documenti utili e funzionali, liberi nel senso di assicurare a tutti la libertà effettiva di copiarli e ridistribuirli, con o senza modifiche, a fini di lucro o meno"40. Successivamente, uscendo dalla sfera programmatica e avvicinandosi alle implicazioni pratiche e giuridiche dell’applicazione della licenza, si dice che essa "prevede per autori ed editori il modo per ottenere il giusto riconoscimento del proprio lavoro, preservandoli dall’essere considerati responsabili per modifiche apportate da altri"41. Una prospettiva così innovativa e interessante per tutto il mondo della comunicazione non poteva rimanere relegata alla distribuzione di documentazione relativa al software libero, come d’altronde gli stessi compilatori della FDL avevano intuito. Dalla seconda metà degli anni ’90 (ovvero gli anni del successo di Linux e della GPL) nel giro di pochi anni infatti molti autori ed editori di opere multimediali pensarono di applicare il paradigma delle licenze software anche ad opere del tutto prive di carattere tecnico-funzionale e rivolte piuttosto alla pura sfera della creatività artisticoespressiva. E’ evidente però che in questo passaggio alle opere di tipo narrativo, poetico, musicale, grafico, cinematografico non poteva 40 Aliprandi (2005) p.71 41 Idem 168

attuarsi una semplice trasposizione di paradigmi come poteva invece avvenire per la manualistica tecnico-informatica. Il trattamento di queste opere doveva tenere conto appunto della loro diversa vocazione di opere destinate a veicolare messaggi di tipo emozionale, a trasmettere sensazioni e ad esprimere spiccatamente la personalità dell’autore, in modo non comparabile ad un’opera funzionale o compilativa. In primo luogo, nell’ambito delle opere artisticoespressive l’aspetto della malleabilità e della loro indiscriminata modificabilità passa decisamente in secondo piano, prevalendo piuttosto quello della libera e gratuita distribuzione. Ad esempio, per le strette implicazioni con la sensibilità individuale dell’autore di cui abbiamo parlato, molti compositori di brani musicali hanno optato per licenze che incoraggiassero la massima libertà di copia, ma che limitassero la possibilità di intervenire sull’opera senza il loro esplicito consenso. Lo stesso può dirsi per le opere poetiche o figurative. In opere di questo tipo ci si allontana inevitabilmente dai principi di disponibilità e apertura del sorgente (che risultano poco calzanti alla realtà del fenomeno), per concentrarsi piuttosto sulla libertà di copia e sulla trasparenza dei formati; di conseguenza sarebbe forse il caso di non parlare più di ’open source’, ma semplicemente di "copyleft". Nel 2001 ha preso il via un progetto che si rivelerà presto uno dei più ambiziosi in fatto di libera diffusione delle conoscenze e della creatività in generale, addirittura più ambizioso del progetto GNU e della Open Source Initiative per l’ampiezza del panorama cui si rivolge: si tratta del progetto Creative Commons il cui sito ufficiale è Esso nasce www.creativecommons.org42. dall’iniziativa di alcuni nomi di spicco nell’ambito della scienza della comunicazione e della proprietà intellettuale, fra cui James Boyle, Michael Carroll, Eric Eldred e soprattutto Lawrence Lessig, docente presso la facoltà giuridica di Stanford e già grande studioso delle implicazioni giuridiche del software libero. 42 Esistono anche altre iniziative dedicate alla formulazione di licenze per opere artistiche, si veda Aliprandi pp.87-93


Il nome del progetto intende riecheggiare il titolo di un famoso saggio pubblicato nel 1968 dall’economista Garret Hardin e intitolato The tragedy of the commons43. In breve, Hardin sostiene che i “beni comuni” (commons) sono destinati per loro natura a perire, poiché ciò che è di tutti non riceve la stessa tutela che invece riceve un bene privato dal suo proprietario; dunque per preservare e fare aumentare il valore di questo bene è giusto affidarne la gestione esclusiva ad un unico soggetto: è questa l’essenza del concetto di proprietà privata. Tale assunto, se può essere vero per i beni materiali/consumabili, non è detto sia vero per i beni immateriali come la conoscenza e la creatività. Basti pensare alla ben nota massima di George Bernard Shaw secondo cui "se tu hai una mela e io ho una mela, e ce le scambiamo, allora tu ed io abbiamo sempre una mela ciascuno. Ma se tu hai un’idea ed io ho un’idea, e ce le scambiamo, allora abbiamo entrambi due idee"44. E’ per questo che molti degli esponenti di Creative Commons, primo fra tutti Lawrence Lessig, in occasione degli eventi di sensibilizzazione amano parlare di comedy of the commons, proprio a sottolineare che, nel caso di beni come questi, il loro valore aumenta nel momento in cui più persone possono avvalersene. Da qui proviene l’input per l’attivazione del progetto: l’idea è quella di dar vita ad una collettività di creazioni artistiche libere, al di là delle ottiche di guadagno tipiche del classico paradigma di proprietà intellettuale. Tuttavia l’apparato di principi del progetto non si pone in polemica con il mondo dell’imprenditoria culturale (sia essa editoria, produzione discografica, produzione cinematografica) la quale persegue legittimamente dei profitti, tutelando i suoi cospicui investimenti per mezzo del diritto d’autore, ma vuole che questo non si trasformi necessariamente in un’arma a doppio taglio a scapito dei singoli artisti indipendenti. Come è giusto che sia tutelata la struttura imprenditoriale, è però anche giusto che venga tutelata la libertà d’espressione di colui che, magari solo in via estemporanea, vuole esprimere artisticamente la propria personalità, senza voler necessariamente entrare nelle maglie del mercato dell’editoria. Anche qui, come nell’impostazione del progetto GNU, non si tratta di ingaggiare una guerra indiscriminata contro il copyright, bensì solo di ridimensionarne alcuni aspetti problematici e adattarne la visuale al nuovo contesto di comunicazione digitale e telematica, con un particolare sguardo per la crescente multimedialità. Il tipo di opere abbracciate dal concetto di “libera espressione” è intuibilmente molto più ampio di quello di “libera diffusione delle conoscenze”; difatti il progetto Creative Commons si occupa di incentivare e raccogliere opere di ogni tipo, da quelle letterarie (sia tecnico-scientifiche, sia 43 Hardin G. (1968), The Tragedy of the Commons, in Science, vol. 162. 44 cit. in Aliprandi (2005) p.81

narrative o poetiche) a quelle musicali, da quelle figurative in generale a quelle cinematografiche. Inoltre il progetto intende realizzare un immenso database di opere concesse in libera condivisione e s’impegna a sviluppare un ampio catalogo di lavori di alta qualità su diversi media, e promuovere un’etica basata sulla condivisione, l’educazione del pubblico e l’interazione creativa. Le licenze Creative Commons rappresentano una serie di sfumature intermedie fra il regime di copyright tradizionale (che ha un’applicazione automatica e standard) e il regime di public domain.

Fig. 51: Logo Creative Commons

Per raggiungere gli obbiettivi prefissati, il gruppo di giuristi del progetto Creative Commons ha redatto un set di undici licenze ispirate ai modelli proposti dalla Free Software Foundation, chiamate coerentemente "Creative Commons Public Licenses" (CCPL) e rilasciate pubblicamente nel dicembre 2002. Esse sono il risultato dell’unione di quattro caratteristiche-base (rese graficamente con specifici segni, come si vede nella figura 52), le quali, a seconda delle loro diverse combinazioni, attribuiscono alle varie licenze differenti funzioni giuridiche: • la caratteristica attribution si riferisce all’obbligo di rendere merito all’autore originario dell’opera e quindi di citarlo in ogni utilizzazione dell’opera; • la caratteristica no derivs indica il divieto di apporre modifiche all’opera e quindi di crearne opere derivate; • la caratteristica non commercial vieta l’utilizzo dell’opera per scopi commerciali; • la caratteristica share alike, che letteralmente si traduce con 'condividi allo stesso modo', indica invece l’obbligo di applicare alle opere da essa derivate lo stesso tipo di licenza dell’opera originaria (è lo stesso fenomeno del trasferimento ad libitum del copyleft). Per una questione logica, la caratteristica dello share alike è incompatibile con quella del divieto di opere derivate: infatti non avrebbe senso vietare le opere derivate e nello stesso tempo rendere obbligatorio un determinato trattamento per le opere derivate. Di conseguenza le combinazioni che si ottengono (che sono anche i nomi inglesi delle varie licenze) risultano essere: • Attribution45; • Attribution-NoDerivs46; • Attribution-NonCommercial-NoDerivs47;

45 http://creativecommons.org/licenses/by/2.5/ 46 http://creativecommons.org/licenses/by-nd/2.5/ 47 http://creativecommons.org/licenses/by-nc-nd/2.5/ 169


• • •

Attribution-NonCommercial48; Attribution-NonCommercial-ShareAlike49; Attribution-ShareAlike50.

In base alle proprie esigenze, dunque, un autore può scegliere liberamente sotto quale particolare regime di licenza distribuire la propria opera. Tutte le licenze Creative Commons si presentano in una triplice enunciazione: una versione sintetica (Common deed), facilmente comprensibile al grande pubblico degli utenti ("a human-readable summary") e nella quale vengono semplicemente elencati i diritti e gli obblighi trasmessi dalla licenza; una versione più dettagliata (Legal code), redatta in linguaggio giuridico, che ricalca gli schemi tipici delle licenze fin qui esaminate (principalmente della FDL) e che fa da testo ufficiale di riferimento per qualsiasi controversia legale; e infine una versione elettronica (Digital code) che permette a motori di ricerca ed altre applicazioni di identificare la tua opera in base alle condizioni di utilizzo specificate dalla licenza. Indipendentemente dalla loro categoria funzionale, tutte le CCPL hanno in comune la libertà di copiare, distribuire, mostrare ed eseguire in pubblico l’opera. Sono invece condizionate ai peculiari termini della licenza scelta le altre due libertà fondamentali, cioè "realizzare opere derivate" dall’opera licenziata e "attribuire all’opera un uso commerciale". Tutte le licenze (nelle versioni sintetiche) dopo l’elencazione delle libertà e delle relative condizioni, riportano due raccomandazioni: la prima è riferita alla certezza del regime di licenza applicato in ogni fase della distribuzione e il suo testo letterale è: "per qualsiasi riutilizzo o distribuzione, dovete dire chiaramente quali sono i termini di licenza di quest’opera"51; la seconda è riferita alla derogabilità in via contrattuale delle previsioni della licenza e il suo testo letterale è: "ciascuna di queste condizioni può essere tralasciata qualora abbiate ricevuto il permesso dell’autore"52. Infine in ogni licenza si ricorda che il diritto di fair use e altri diritti non sono in nessun modo influenzati dagli effetti della licenza. Inoltre, sempre sul sito ufficiale, si spiega con quali accorgimenti pratici scegliere, scaricare ed utilizzare la licenza: ad esempio, nel caso di opera diffusa via Internet, si consiglia di inserire nel sito anche un "bottone", che riporti il logo Creative Commons e la dicitura some rights reserved, ovvero alcuni diritti riservati (in richiamo della tradizionale espressione all rights reserved, “tutti i diritti riservati”); questo sarà anche un link che rimanderà alla licenza prescelta nella sua versione sintetica, la quale a sua volta rimanderà alla versione Legal Code; infine vengono fornite le righe di codice per l’attivazione della versione Digital Code. 48 49 50 51 52

http://creativecommons.org/licenses/by-nc/2.5/ http://creativecommons.org/licenses/by-nc-sa/2.5/ http://creativecommons.org/licenses/by-sa/2.5/ Aliprandi (2005) p.83 Idem

170

Infine, dalla fine del 2003 esistono anche alcune licenze specifiche per la condivisione di opere musicali: la Sharing Music CCPL e la Sampling CCPL. Al di là della redazione e del costante aggiornamento delle licenze e della raccolta e promozione delle opere diffuse liberamente, Creative Commons ha attivato alcune iniziative settoriali tra cui icommons, che mira all’internazionalizzazione del progetto Creative Commons, promovendo e sostenendo la formazione di organizzazioni simili negli altri paesi del mondo e coordinandone l’attività.

attribution

share alike

no derivative works

non commercial Fig. 52: Simboli Creative Commons

Fig. 53: Creative Commons, some rights reserved

6.6.4. Comunità All'interno del Sistema di Attività, con l'elemento comunità, si intende l'insieme delle persone con cui il soggetto preso in esame interagisce in un dato momento. È quindi un concetto relativo al contesto di studio; tuttavia in questa analisi , dato che si è considerato il soggetto come un generico partecipante, è possibile considerare la comunità come una generica forma di comunità, ossia come la forma di organizzazione che le comunità Open Peer-to-Peer generalmente assumono. È già stato detto infatti come queste reti collaborative che si formano tra i partecipanti diano luogo a delle comunità e non ad organizzazioni aziendali come tradizionalmente considerate. Anche se molti casi di comunità Open Peer-to-Peer danno luogo ad attività economiche, essi si organizzano sempre come comunità, ossia come reti orizzontali, non gerarchiche, la cui forma


è data dalle relazioni di reputazione e non da quelle di potere. La struttura della rete è quindi un fenomeno emergente, bottom-up, che nasce dall'attribuzione di un certo grado di reputazione ad ogni partecipante da parte degli altri partecipanti. Si ha quindi un processo di peer review53, ossia recensione o revisione paritaria, dove ogni azione viene votata dagli altri partecipanti. E spesso vi sono meccanismi di moderazione delle votazioni e di meta-moderazione (ossia moderazione delle moderazioni), come nei casi di Slasdot e Kuro5hin: in questo modo i processi decisionali sono veramente decentralizzati, ed ogni partecipante ha voce in capitolo in ogni decisione. Sarà poi la sua correttezza o bravura a fornirgli una maggiore reputazione e quindi maggiori probabilità di essere ascoltato oppure di rivestire ruoli più importanti o impegnativi. In questo modo le azioni più corrette e che portano maggiori vantaggi alla comunità portano ad una maggiore reputazione di chi le ha eseguite, che guadagna così una maggiore influenza all'interno della comunità. Le comunità Open Peer-to-Peer non sono caratterizzate da gerarchie, ma ciò non significa che non vi siano posizioni preminenti al suo interno: le posizioni di potere (gerarchia) impongono un comportamento alle persone, mentre le posizioni di reputazione consigliano i comportamenti indicano quali siano le direzioni più promettenti. Molto spesso il desiderio di ottenere una reputazione tra pari è anche tra i motivi principali per la partecipazione54. Molti ricercatori55 hanno così notato come le comunità Open Source (e quindi anche molte comunità Open Peer-to-Peer) si organizzino con una struttura orizzontale caratterizzata da un centro gravitazionale dove la "forza gravitazionale" che muove i partecipanti verso il centro o verso l'esterno è la reputazione56. Questa struttura è simile a quella identificata da Lave e Wenger57 nelle comunità di pratica e denominata Legitimate Peripheral Participation (LPP). Le comunità Open Peer-to-Peer hanno quindi una 53 Il termine peer review nasce nell'ambito della comunicazione scientifica, dove la selezione degli articoli degni di pubblicazione avviene tramite un processo di revisione paritaria (in inglese chiamata peer review), cioè una valutazione fatta da specialist di pari livello. Gli editori e le agenzie di finanziamento usano la revisione paritaria per selezionare le proposte ricevute. Questo processo inoltre costringe gli autori ad adeguarsi agli standard della loro disciplina. Pubblicazioni e premi che non abbiano subito una revisione paritaria sono generalmente guardati con sospetto dai ricercatori e dai professionisti di molte discipline (Fonte: http://it.wikipedia.org/wiki/Peer_review) 54 Raymond (1998) 55 Crowston, Howison (2005), Madanmohan (2002), Nakakoji, Yamamoto, Nishinaka, Kishida, Ye (2002) 56 Per una analisi dell'importanza della reputazione nell'ambito Open Source, sia tra partecipanti che tra comunità e imprese si veda Watson (2005) 57 Lave, Wenger (1991)

struttura radiale, dove si susseguono, dall'esterno verso l'interno, vari livelli caratterizzati da una reputazione ed impegno maggiori per chi vi si trova. Ad ogni livello può corrispondere un determinato ruolo (si può accedere ad un ruolo solo se in possesso di una determinata reputazione), oppure uno stesso ruolo può essere visto con una struttura centripeta basata sulla reputazione (vi sono vari livelli di reputazione all'interno di uno stesso ruolo, ognuno caratterizzato da un impegno e mansioni differenti). È quindi utile corretto ragionare in termini di livello di reputazione ed impegno: andando verso il centro aumenta l'impegno da parte dei partecipanti e la loro reputazione. Si muovono verso il centro grazie al fatto che il loro impegno aumenta la loro reputazione, ed aumentano il proprio impegno per mantenere o aumentare la propria reputazione. Di questo modo si viene a formare un ciclo di retroazione positivo che spinge i partecipanti ad impegnarsi con crescente intensità. L'evoluzione di una comunità Open Peer-to-Peer è quindi determinata da due fattori: l'esistenza di membri motivati ad acquisire una notevole influenza, e il meccanismo interno alla comunità che permette e incoraggia il continuo ricambio all'interno dei livelli di reputazione e quindi dei ruoli. Possono quindi essere riscontrati alcuni livelli tipici di reputazione/impegno: • partecipante inattivo: beneficia dei risultati ottenuti dalla comunità senza effettuare alcun impegno personale. Può essere presente in molti casi di comunità Open Peer-to-Peer, soprattutto quando l'obiettivo è la produzione di informazioni (Software Open Source, Wikipedia, Ohmynews, ecc.) oppure la fornitura di un servizio (i clienti dei dabbawalla o di Amul, ad esempio). Pur non internvenendo direttamente nell'attività, essi sono molto importanti, perché sono in grado di aumentare l'importanza della comunità e della sua attività, attraverso un effetto di rete (network effect). Nel caso del software Open Source essi utilizzano il software attirati dalla gratuità, qualità, adattabilità e rapidità di sviluppo. Fuori dal contesto del software, i partecipanti inattivi beneficiano dell'attività della comunità ma sono i membri con il minore impegno, anche se comunque fondamentali per l'esistenza della comunità. L'importanza che ha Wikipedia non deriva solo dai partecipanti che si attivano nel suo sviluppo, ma anche da chi la utilizza e ne diffonde la notizia dell'esistenza. Un numero elevato di utenti costituisce un forte incentivo alla partecipazione da parte dei partecipanti più attivi. Nel caso dei dabbawalla, i clienti non possono essere considerati attivi (non svolgono alcun ruolo nel trasporto dei cibi) ma sono importanti in quanto senza di essi l'attività di dabbawalla non esisterebbe. Ad ogni modo, la presenza e l'importanza dei

171


partecipanti inattivi dipende fortemente da caso a caso; partecipante periferico: contribuisce all'attività della comunità occasionalmente, ad esempio presentando caratteristiche nuove e roìichieste al progetto di un software. I suoi contributi sono irregolari, su un periodo di coinvolgimento breve, e spesso rappresenta la prima fase di attivazione di un nuovo partecipante all'interno della comunità; partecipante attivo: contribuisce all'attività della comunità regolarmente. È questo il caso del tipico partecipante, su cui si basa l'attività della comunità; partecipante del nucleo centrale: è responsabile per la coordinazione e gestione dello sviluppo della comunità. Questi partecipanti sono stati attivi nella comunità per un periodo temporale relativamente lungo e hanno apportato contributi significanti. Svolgono anche il ruolo di intermediari tra il Leader (se presente) e gli altri partecipanti, per ridurre il numero di informazioni che questi deve processare (come nel caso di Linux)58; leader: solitamente chi ha fondato la comunità o ideato il progetto che questa sviluppa. È responsabile della visione della comunità e della direzione generale. Può anche non essere presente: in questo caso i suoi compiti vengono portati avanti dai membri del nucleo centrale. I partecipanti del nucleo centrale e il leader rappresentano infatti i livelli con massima

reputazione ed impegno, in grado di indicare le direzioni più opportune per la comunità grazie alla propria esperienza. Non a caso in queste due posizioni vi si trovano spesso i fondatori delle comunità, in quanto sono i partecipanti caratterizzati dalla maggior esperienza della comunità e del suo ambito di azione. La presenza di un leader non deve confondere: il loro status di leader è differente da quello delle gerarchie, in quanto non dirama ordini ma consigli, e la sua posizione può modificarsi nel corso del tempo. Nella teoria LPP, infatti, una comunità professionale evolve ricreandosi ogni qualvolta che nuovi partecipanti periferici diventano partecipanti pienamente integrati attraverso un processo di apprendimento in cui acquisiscono le capacità e conoscenze presenti nella comunità attraverso l'interazione con i suoi partecipanti e lo svolgimento di azioni. Il libero accesso al codice sorgente permette ai nuovi membri di una comunità di software Open Source l'accesso alle conoscenze elaborate dalla comunità e fissate nel codice e la possibilità di lavorare con gli altri partecipanti. Leader e nucleo centrale possono comunque cambiare nel tempo, permettendo così la espressione delle differenti esigenze presenti all'interno della comunità. Inoltre, le caratteristiche tipiche delle comunità Open Peer-to-Peer garantiscono che un leader, se presente, oppure un nucleo centrale non si trasformino mai in una dittatura.

Fig. 54: Livelli di reputazione e impegno in una comunità Open Peer-to-Peer 58 Kuwabara (2000) 172


Da un lato, il leader o nucleo centrale sanno che non devono effettuare azioni che possano alienare loro la simpatia dei partecipanti, in quanto senza di essi non esisterebbe la comunità. Dall'altro, i partecipanti sono spinti a non uscire dalla comunità e fondarne una simile dall'etica Hacker, che considera questa pratica, detta forking59, come una azione negativa e da rifiutare. I partecipanti, infatti, possiedono le caratteristiche e le conoscenze utilizzabili per poter fondare una nuova comunità, ma facendo ciò romperebbero lo spirito di condivisione tipico della etica Hacker e quindi delle comunità Open Peer-to-Peer. In questo modo leader e nucleo centrale e i restanti partecipanti si auto-organizzano, decentralizzando le decisioni ma centralizzando la reputazione, considerata lo strumento con cui aiutarsi per effettuare le decisioni.

6.6.5. Divisione del lavoro Un'altra caratteristica importante delle comunità Open Peer-to-Peer è di come esse suddividano l'attività fra i propri partecipanti, soprattutto in ragione del fatto che pochi di questi si conoscono e possono quindi sapere chi sa fare meglio cosa, o più generalmente chi dispone delle risorse più adatte per un determinato compito. Sono due le caratteristiche fondamentali che garantiscono una divisione del lavoro sostenibile da parte di partecipanti che non si conoscono, e potenzialmente di un loro numero elevato. La prima riguarda l'istituzione di ruoli "relativamente standardizzati" e "modificabili", nel senso che ogni comunità basa la propria attività su ruoli in minima misura predefiniti e descritti nei minimi termini (ossia minimamente standardizzati), di modo che qualsiasi partecipante, anche un nuovo membro senza esperienza, possa capire come agire e quindi farlo autonomamente. La partecipazione poi in questi ruoli è libero e viene portata avanti in maniera autonoma da ogni partecipante, secondo le proprie capacità e disponibilità: in questo senso i ruoli sono "modificabili", nel senso che ogni partecipante svolgerà sì il ruolo come viene richiesto dalla comunità, ma lo farà in maniera del tutto personale. Come detto prima, le comunità Open Peer-to-Peer sono un ottimo esempio dell'attuale processo di individualizzazione e attivazione: in questo senso valorizzano l'autonomia personale e la diversità. I ruoli presenti nelle comunità analizzate differiscono da caso a caso. Infatti i ruoli derivano da una divisione del lavoro della comunità, e quindi sono legati al tipo di attività che la comunità porta avanti. Comprendere i ruoli di una comunità di software Open Source può permettere di capire come venga divisa l'attività della comunità, e anche se in altri campi di applicazione questi cambino, alcune caratteristiche rimangono simili. Nell'ambito del software Open Source sono molto importanti quei ruoli addetti al controllo del codice 59 http://en.wikipedia.org/wiki/Code_fork

(reader), alla segnalazione degli errori (bug reporter) e alla loro riparazione (bug fixer). Da alcuni casi non appartenenti al software (Grameen Bank, Open Health, BBC Action Network), si può invece notare alcuni ruoli, non presenti nelle comunità software, invece costanti nel caso sia molto importante la dimensione locale della comunità. Questi ruoli sono principalmente due: agenti e mentori. Gli agenti agiscono da intermediari, soprattutto quando non sono utilizzabili artefatti high tech; i mentori invece sono persone, con una lunga esperienze di partecipazione nell'attività della comunità, il cui ruolo è condividere le proprie conoscenze ed esperienze con i membri più recenti. La seconda caratteristica riguarda l'auto-selezione dei partecipanti rispetto alla partecipazione prima e al tipo di ruolo poi. Una comunità Open Peer-toPeer presenta dei ruoli da svolgere, ma saranno i partecipanti che decideranno se e come partecipare, in base alle proprie conoscenze. fornisce una spiegazione della Benkler60 sostenibilità economica dei processi di autoselezione per il rivestimento dei ruoli, all'interno di una comunità di ampie dimensioni, basate sulla produzione collaborativa di informazion. Bisogna ricordare che Benkler considera queste comunità come una forma di organizzazione differente dai mercati e dalle gerarchie, una forma di organizzazione che denomina peer production. La sua ipotesi centrale è che il capitale intellettuale dei partecipanti è estremamente variabile e difficilmente individuabile. Le persone hanno differenti conoscenze, capacità, storie, culture e motivazioni che influenzano profondamente il loro modo di lavorare e relazionarsi con altri partecipanti. La creatività è quindi molto difficile da standardizzare e specificare. Mentre una approssimazione può essere fatta nei mercati o nelle imprese attraverso titoli di studio, referenze, ecc. in una grande comunità di persone in continua evoluzione, caratterizzata quindi da una costante incertezza, è difficile riuscire a controllare queste caratteristiche. Quando poi ci si ricorda che queste caratteristiche sono fondamentali nella produzione di conoscenza e quindi partecipazione all'attività della comunità, allora si comprende l'importanza dei processi con cui vengono assegnati i ruoli. Un modello di produzione distribuita di informazioni permette una migliore identificazione dei partecipanti con le caratteristiche adatte per ricoprire un determinato ruolo in un determinato intervallo temporale. Le continue interazioni e comunicazioni tra i vari partecipanti li porta ad una conoscenza reciproca e quindi alla capacità di comprendere se le proprie capacità sono quelle richieste per un determinato ruolo oppure sono quelle di un altro partecipante. Sebbene sia i mercati che le imprese incentivino processi di auto-selezione, spesso la loro rigidità non porta ad un utilizzo ottimale di questi processi. Ovviamente, processi di auto-selezione non sono 60 Benkler (2002) 173


mai accurati e vi possono essere degli errori di comprensione. È questa l'importanza dei processi di peer review, ovvero di revisione tra gli utenti. Le possibilità sono due: processi di peer review per la conferma dei ruoli (come Slashdot, Kuro5hin) oppure l'utilizzo di molti partecipanti per una sola azione, che comporta una ridondanza dei risultati e una loro analisi statistica (come in NASA Mars Clickworkers). Sebbene l'utilizzo di più partecipanti per una stessa azione possa essere considerata una forma di gestione non ottimale delle risorse umane, questa pratica è invece utile nella gestione di comunità di ampie dimensioni per favorire uno sviluppo dell'attività senza dover applicare uno stretto controllo sulle azioni. Dato che la maggior parte dei partecipanti contribuisce alla comunità nel proprio tempo libero, queste sono quindi risorse umane che altrimenti non sarebbero state utilizzate in progetti collettivi. Secondo, e probabilmente più importante, la ridondanza fornisce valori importanti in termini di robustezza e innovatività di un sistema. Essendo impegnate differenti persone nella produzione dello stesso modulo, il sistema produttivo ne guadagna in robustezza contro errori occasionali, e in un numero maggiore di differenti approcci creativi per affrontare uno stesso problema. In questo modo si assisterà ad un modello di sviluppo delle innovazioni di tipo evoluzionista dove differenti alternative vengono presentate e selezionate dai partecipanti, come anche Kuwabara aveva segnalato precedentemente. Questi meccanismi riducono l'incertezza associata con la probabile presenza di azioni incorrette o direttamente volte alla sabotazione. La presenza dei fraintendimenti che i partecipanti hanno delle proprie abilità e il costo correlato di eliminazione di questi fraintendimenti fanno parte dei costi di transazione associati con questo particolare tipo di organizzazione, simili a quelli associati al controllo della qualità nei mercati e nelle imprese. Per Benkler l'auto-selezione dei ruoli (che vede abbinata alla suddivisione dell'attività in moduli caratterizzati da dimensioni limitate) è più vantaggiosa delle normali forme di organizzazione del mercato e delle imprese, quando il numero dei partecipanti è elevato, cosa assai frequente nelle comunità Open Peer-to-Peer. I modelli organizzativi del mercato e delle imprese si basano sulla proprietà di un insieme ben definito e delimitato di risorse che vengono messe a disposizione ad un numero ben definito di agenti che svolgono progetti ben definiti. In altre parole, tutte le attività, le risorse e il numero dei partecipanti sono fissi e predeterminati, senza possibilità di variazione. Al contrario, una organizzazione di peer production mette a disposizione un numero non definito di risorse ad un numero non definito di partecipanti, che possono sviluppare un numero di progetti alternativi non definito a priori. La variabilità delle caratteristiche individuali suggerisce a Benkler che ogni risorsa possa essere utilizzata più o meno produttivamente da ogni partecipante e la produttività generale della comunità aumenterà con l'aumentare del numero di risorse e di 174

partecipanti fino a giungere ad un insieme totalmente aperto in cui tutte le risorse sono disponibili a tutti i partecipanti. Anche se in una gerarchia il vertice può possedere le informazioni necessarie per affidare un compito o un ruolo predefinito ad un determinato agente in una attività predefinita, in una comunità Open Peer-to-Peer i costi di transazione necessari per mettere in contatto quel determinato agente con quella determinata risorsa possono essere troppo onerosi se comparati rispetto al guadagno che si otterrebbe se il partecipante più vicino a quella risorsa, anche se non il più adatto, la utilizzasse. La forma di organizzazione tipica delle comunità Open Peer-to-Peer è quindi adatta in quei contesti caratterizzati da un'alta incertezza e variabilità nel tempo: sono i partecipanti ad auto-organizzarsi nell'utilizzo delle risorse e nello svolgimento dei compiti, senza una direzione dall'alto (gerarchica) ma seguendo consigli basati sulla reputazione. Non è un caso che Eric Raymond descriva la organizzazione tipica dei progetti Open Source come un bazaar, se paragonata a quella delle tradizionali imprese, che vede come l'organizzazione tipica della progettazione e costruzione di una cattedrale. Nel suo saggio The Cathedral and the Bazaar61 ('La Cattedrale e il Bazaar') egli infatti descrive la nascita di Linux contrapponendo i due modelli organizzativi, in una metafora che, seppur criticata, ha avuto molto successo, divenendo una sorta di Manifesto per il movimento Open Source. Ad ogni modo, rappresenta l'inizio della comprensione dei meccanismi del software Open Source ed è molto importante perché, nonostante Raymond sia un hacker, egli si rende conto che Linux non rappresenta una innovazione tecnologica ma sociologica. Per Raymond la cattedrale viene costruita con un progetto a priori, monolitico, di tipo top-down, mente il bazaar è caratterizzato dalla mancanza di un progetto a priori, dal rumore causato dalla partecipazione di un numero elevato di persone, ognuna che segue un percorso differente. Mentre la cattedrale rappresenta un progetto chiuso, ossia non accessibile, il bazaar rappresenta la massima apertura, in cui gli utenti vengono trattati come coprogettisti da Linus Torvalds. Nel modello del bazaar, infatti, l'ideazione è aperta a tutti, e fin dall'inizio le idee sono messe a disposizione per essere testate dagli altri. La molteplicità dei punti di vista è importante: quando le idee vengono ampiamente diffuse in fase iniziale, possono sempre beneficiare di aggiunte esterne e di critiche da parte degli altri, mentre quando una cattedrale viene presentata nella sua forma definitiva le sue fondamenta non possono essere più cambiate. Nel modello a Cattedrale il programma viene realizzato da un numero limitato di "esperti" che provvedono a scrivere il codice in quasi totale isolamento. Il progetto ha una suddivisione gerarchica molto stretta e ogni sviluppatore si preoccupa della sua piccola parte di codice. 61 Raymond (1998)


Le revisioni si susseguono con relativa lentezza e gli sviluppatori cercano di rilasciare programma il più possibile completi e senza bug. Nel modello a Bazaar il codice sorgente della revisione in sviluppo è disponibile liberamente, sin dall'inizio (anzì, questa disponibilità è un prerequisito), gli utenti possono interagire con gli sviluppatori e se ne hanno le capacità possono modificare e integrare il codice. Lo sviluppo e decentralizzato e non esiste una rigida suddivisione dei compiti un programmatore di buona volontà può modificare e integrare qualsiasi parte del codice.

può essere di tre tipi63: Exploration-Oriented (orientata alla sperimentazione), Utility-Oriented (orientata alla produzione di software pronto da utilizzare), Service-Oriented (orientata ai servizi). •

In sostanza lo sviluppo è molto più anarchico e libero, da qui il nome di modello a Bazaar. La tesi centrale di Raymond è che "Dato un numero sufficiente di occhi, tutti i bug vengono a galla". Questa affermazione viene chiamata da Raymond la "Legge di Linus" e ritenuta il motivo centrale del successo del progetto del kernel Linux. Prima dell'avvento di Linux si riteneva che ogni progetto di una certa complessità avesse bisogno di essere adeguatamente gestito e coordinato altrimenti si riteneva che il progetto sarebbe collassato sotto il peso di moltissime revisioni e modifiche prodotte da più persone e tra di loro incompatibili. Il progetto Linux invece riuscì a dimostrare che questo non accedeva e che anzi col crescere del numero di sviluppatori anche la qualità e l'affidabilità del software migliorava. Il modello a Cattedrale è un modello tipico delle aziende commerciali. Queste normalmente non rilasciano il codice sorgente e una nuova revisione del programma può richiedere anni mentre il modello a Bazaar è un modello che si è molto diffuso nell'ambiente del software libero dato che consente a ogni utente di essere un beta tester62 dei programmi. Lo stesso utente può modificare e integre il programma se lo desidera. Questo consente un rapporto stretto tra utilizzati e programmatori, un rapporto paritario che ben si adatta alla filosofia del software libero. Consente inoltre un attento controllo del codice in modo da eliminare rapidamente la maggior parte dei bug, cosa impossibile per un software prodotto con la modalità a Cattedrale dove solo un numero limitato di persone lavora sul codice. La modalità a cattedrale è la stessa metodologia di sviluppo che viene utilizzata dagli sviluppatori delle enciclopedie commerciali dove un numero limitato di esperti si preoccupa di compilare tutte le voci. La modalità a bazaar invece è quella utilizzata dalla Wikipedia dove ogni lettore se lo desidera può integrare e migliorare i contenuti e dove la verifica delle modifiche apportate al testo è gestita dagli stessi utenti. Ad ogni modo, una comunità di software Open Source (e quindi potenzialmente anche le comunità Open Peer-to-Peer), possono assumere differenti forme di organizzazione. In relazione ai propri obiettivi, una comunità di software Open Source 62 Chi prova un software alla ricerca di errori, prima che questo venga immesso sul mercato

Exploration-Oriented (ad es. Software GNU): questo tipo di comunità si pone l'obiettivo di spostare in avanti lo stato dell'arte della programmazione software, sperimentando nuove applicazioni e metodologie attraverso la condivisione di conoscenze e la collaborazione tra partecipanti. È quindi molto simile alla cultura del mondo accademico e scientifico, e il codice rappresenta quindi il risultato delle ricerche. La qualità del codice sorgente è quindi molto elevata, e spesso si ha la presenza di Leader esperti che mantengono uno stretto controllo sul progetto affinché raggiunga gli obiettivi prestabiliti. I contributi dei partecipanti vengono inclusi solo se sono attinenti alle caratteristiche e regole del progetto. La organizzazione di questo tipo di comunità è quindi molto più simile a quella "a cattedrale", e il suo successo dipende fortemente dalla visione del leader. Ad ogni modo, se la comunità è convinta della necessità di un cambiamento di direzione que il leader non vuole intraprendere, si può avere una scissione e la creazione di un'altra comunità di progetto (forking); Utility-Oriented (ad es. Linux): questo tipo di comunità si pone l'obiettivo di colmare un a carenza di programmi che permettono una determinata funzionalità. La maggior parte di queste comunità sono nate per l'esigenza di creare un determinato programma non esistente. L'obiettivo è quindi non di utilizzare il codice sorgente come una ricerca scientifica, ma come uno strumento pratico, e questa scelta comporta una grande importanza della rapidità di sviluppo. Questo tipo di organizzazione è l'esempio migliore di "bazaar" e mancanza di centralizzazione del controllo. Anche per questo fatto si assiste ad un alto numero di scissioni e formazioni di nuove comunità, dato che le esigenze pratiche possono essere molto differenti fra i vari utenti e a volte anche in contrasto fra loro; Service-Oriented (ad es. Server Apache): l'obiettivo di queste comunità è quello di fornire servizi affidabili a tutte gli stakeholder del mondo del software Open Source, e cioè i membri delle comunità di software Open Source e gli utenti finali dei software sviluppati. Dato che il numero degli stakeholder è molto più ampio del numero dei membri delle comunità di software, qualsiasi cambiamento deve essere valutato attentamente in modo da non generare effetti indesiderati per alcuni stakeholder. Questo tipo di comunità è

63 Nakakoji, Yamamoto, Nishinaka, Kishida, Ye (2002) 175


quindi molto conservatore, ma con una organizzazione né "a cattedrale" né "a bazaar". Sebbene l'organizzazione "a cattedrale" permetta un forte controllo centrale sul progetto da parte del Leader, le sue visioni non rispecchiano necessariamente quelle di tutti gli stakeholder coinvolti; il tipo di organizzazione "a bazaar" incoraggia troppi cambiamenti rapidi, che potrebbero portare a effetti indesiderati per alcune categorie di stakeholder se non considerati attentamente. Per questo motivo le comunità service-oriented hanno una propria organizzazione tipica dove un nucleo centrale di membri controlla la direzione che prende lo sviluppo del progetto e non vi è un Leader. Qualsiasi cambiamento viene accettato dopo una votazione a maggioranza tra i membri del nucleo centrale: una organizzazione a Consiglio (Council). Sebbene questa forma di organizzazione porti a una centralizzazione del controllo, questo non è mai assunto da una sola persona e gli stessi membri del nucleo centrale non sono fissi ma cambiano secondo un criterio meritocratico. È importante considerare questi tipi di comunità perchè portano a forme di evoluzione e organizzazione differenti, e una comunità può, lungo la sua vita, evolvere e cambiare l'obiettivo. Ad esempio una comunità exploration-oriented puà divenire una comunità service-oriented semplicemente perchè il leader ha smarrito la capacità di elaborare una visione di successo o perchè il progetto è diventato troppo complesso per poter essere controllato da una sola persona. Comunità utility-oriented possono trasformarsi in comunità service-oriented quando i progettisti di funzioni in competizione formano un gruppo per lo sviluppo di un progetto che soddisfi tutte le necessità. Sebbene tutti i progetti di software Open Source non partano da zero ma da un programma esistente, questa necessità si fa sentire in modo maggiore in una comunità service-oriented, dove i partecipanti devono essere motivati maggiormente. Le comunità exploration-oriented e utility-oriented possono avere una rapida evoluzione, trasformandosi in una comunità service-oriented, arrivando a una fase di crescita lenta ma stabile. Una evoluzione rapida puè accadere con l'apparire di nuove esigenze che il progetto deve soddisfare, ridando luogo a comunità utility-oriented o exploration-oriented. Raggiunto un grado di soddisfazione delle esigenze, la trasformazione in comunità service-oriented può garantire una stabilità del programma, ma il percorso può essere ancora seguito in fasi cicliche.

176


Fig. 55: Evoluzione delle comunità Open Source (Fonte: Nakakoji, Yamamoto, Nishinaka, Kishida, Ye 2002)

tipo

obiettivo

organizzazi one

evoluzione del progetto

struttura della comunità

punti critici

esempi

exploratio nOriented

condvisione delle conoscenze delle innovazioni

controllo centrale "a cattedrale"

un progetto singolo con una consultazione della comunità

leader e molti lettori del codice

soggetta a scissioni

GNU , Jun Perl

controllo decentralizz ato "a bazaar"

versioni multiple dello stesso progetto coesistono e sono in concorrenza reciproca

molti partecipanti periferici e inattivi

difficoltà nella scelta della direzione del progetto

membri del nucleo centrale al posto di un Leader, molti partecipanti inattivi

minor grado di innovazio ne

utilityOriented

serviceOriented

soddisfare esigenze personali

fornire servizi affidabili

controllo centrale "a Consiglio"

un progetto singolo dove le modifiche vengono apportate dopo uno stretto controllo

Linux (escludend o il kernel, sviluppato in comunità exploration -oriented)

Apache server

Tabella 8: Tipi di comunità Open Source (Fonte: Nakakoji, Yamamoto, Nishinaka, Kishida, Ye 2002) 177


Solar Roof attività

BBC Action Network

progettare e produrre componenti architettonici fornire strumenti ed informazioni per affinché sostenibili, costruendo reti fra partecipanti, centri possano essere svolte campagne di pressione locali di promozione situati in università ed imprese pubblica da parte dei cittadini per migliorare le condizioni locali

soggetto designer, architetti, ingegneri ed imprese interessati alla sostenibilità

BBC, cittadini che desiderano risolvere alcuni problemi locali, istituzioni

oggetto

progetto di componenti architettonici sostenibili

informazioni necessarie per l'organizzazione di campagne di pressione

risultato

sviluppare e diffondere componenti architettonici permettere ai cittadini che lo desiderano la sostenibili in modo da migliorare le condizioni locali organizzazione di campagne di pressione pubblica e quindi diffondere pratiche sostenibili per sensibilizzare la società su problemi locali

artefatti

sito web (wiki, informazioni)

sito web (informazioni, spazio personale ad ogni utente, motore di ricerca di altri utenti)

condivisione delle informazioni, riconoscimento della paternità dei progetti, contribuire ad enti non profit

non svolgere campagne politiche o commerciali, non insultare

regole

comunità progettisti, imprese, cittadini, università, istituzioni

cittadini britannici, istituzioni

divisione progettisti, produttori, agenti locali (in centri locali), gestione del sito web, coordinatore di campagne, del gestione del sito web organizzatore di gruppo, responsabile delle lavoro pubbliche relazioni, coordinazione dei nuovi membri, tesoriere, mentore livelli di reputazio ne

leader: Richard Nelson

nucleo centrale: BBC

nucleo centrale: pioneers

membri attivi: progettisti ed imprese che partecipano attivamente

membri attivi: cittadini che cercano di organizzare campagne

membri periferici: cittadini che sono alla ricerca di campagne cui aderire

membri periferici: compratori e distributori dei componenti architettonici sviluppati

Tabella 9: Comunità Open Peer-to-Peer descritte con i Sistemi di Attività e i livelli di reputazione: Solar Roof e BBC Action Network

178


Neubauten.org attività

comporre, registrare, distribuire, eseguire esecuzioni musicali

Terra Madre costruire una rete fra tutti gli attori delle comunità del cibo

soggetto Einstürzende Neubauten, supporters, webmaster, tecnici

produttori, trasformatori, distributori, ristoratori, consumatori di alimenti (la comunità del cibo), università, agenti Slow Food

oggetto

composizioni, registrazioni audio-video

prodotti alimentari e informazioni correlate

risultato

gli Einstürzende Neubauten riescono a realizzare e distribuire registrazioni musicali a livello professionale senza la intermediazione di etichette discografiche, con un ritorno economico sufficiente

le comunità del cibo riescono a produrre e distribuire alimenti con qualità (del prodotto e del contesto locale) in maniera sostenibile (ambientale, economica, sociale)

artefatti

sito web (chat, webcast, forum), concerti

artefatti per la produzione, distribuzione e consumo dei beni alimentari, lingue differenti, mezzi di comunicazione, sito web, ecc.

pagamento di una quota per entrare nel ruolo di supporter, non distribuire gratuitamente le registrazioni ricevute

regole varie relative alla produzione (ad es. relative alla agricoltura biologica), alla trasformazione (ad es. divieto di utilizzo di additivi), alla distribuzione (ad es. gestire scambi equi), valorizzare la diversità (biologica e culturale), ecc.

regole

comunità ascoltatori di musica, mercato discografico

produttori e distributori di alimenti, consumatori

divisione gestione del sito web, gestione dei concerti, gruppo produttori, distributori, trasformatori, ristoratori, del musicale, sound engineer, tesoriere, ascoltatore venditori, consumatori, università, agenti Slow Food lavoro livelli di reputazio ne

leader: Einstürzende Neubauten

leader: Carlo Petrini

nucleo centrale: webmaster, tecnici

nucleo centrale: Slow Food

membri attivi: supporter attivi in discussioni collettive, organizzazioni di progetti collaterali,

membri attivi: membri attivi nella produzione e distribuzione di beni alimentari e informazioni correlate

membri inattivi: supporter periferici

membri inattivi: membri che si limitano ad acquistare i prodotti delle comunità del cibo

Tabella 10: Comunità Open Peer-to-Peer descritte con i Sistemi di Attività e i livelli di reputazione: Neubauten.org e Terra Madre

179


180


seconda parte: facilitazione dell'auto-organizzazione Open Peer-to-Peer

181


182


1. Il design per facilitare l'emergenza delle reti collaborative

1.1. Design e creatività distribuita Il concetto di creatività rimanda alla capacità di produrre idee o cose nuove, oppure, in un'ottica più limitata forse ma più corretta, alla capacità di trovare nuove relazioni tra le idee e le cose e di trovare nuovi modi per esprimerle. Il carattere di novità, di allontanamento da schemi e modi tradizionali, è in ogni caso il tratto distintivo del prodotto che consegue al processo creativo. In psicologia, il modo più corretto per affrontare il problema della creatività è quello di considerarla come una componente del pensiero: parlando quindi, più precisamente, di pensiero creativo, ed intendendo con questo termine una particolare modalità con cui il pensiero procede rispetto ad altre modalità nell'opera di risoluzione di problemi (problem solving)1. Che vi sia un legame tra creatività e design è un concetto estremamente diffuso e la cui trattazione richiede un differente contesto per l'ampiezza del tema. Si può considerare un esempio classico di come la creatività sia importante per il design. Per Bruno Munari2 la creatività è una caratteristica discriminante tra arte e design, tra artista e designer: il primo opera con la fantasia, il secondo con la creatività. Per Munari "la fantasia è una facoltà dello spirito capace di inventare immagini mentali diverse dalla realtà nei particolari o nell'insieme; immagini che possono anche essere irrealizzabili praticamente", mentre la creatività è "una capacità produttiva dove fantasia e ragione sono collegate per cui il risultato che si ottiene è sempre realizzabile praticamente"3. Per Munari "con la creatività il designer, dopo aver analizzato il problema da risolvere, cerca una sintesi tra i dati ricavati dalle varie componenti per trovare una soluzione ottimale inedita, dove ogni singola soluzione sia fusa con le altre secondo il modo che si ritiene migliore per giungere ad un equilibrio totale4. La creatività riveste quindi un ruolo importante nell'attività di design, e quindi non è conveniente disinteressarsi dei casi di creatività distribuita, di cui è stata riconosciuta la capacità di affrontare problemi complessi e di proporre approcci progettuali alternativi. Sebbene il design sia naturalmente portato ad interessarsi di creatività, il fenomeno dei casi di creatività distribuita lo portano a considerare un fatto nuovo: non è più la sola fonte di creatività. Riconoscere 1 2

capacità

creative

(e

progettuali)

Aa vv (1988), Grande dizionario enciclopedico, UTET, Torino Munari, (1971) p..87

all'esterno della propria disciplina porta il design ad una ridefinizione, che lo mette in grado di creare reti collaborative basate sulla creatività. Reti che, per avere successo, devono essere aperte alla partecipazione (Open) e considerare tutti gli attori ad un livello paritario (Peer-to-Peer), dove quindi le loro capacità e conoscenza sono legittimate nella collaborazione, a prescindere da riconoscimenti istituzionali (quali lauree, diplomi, ecc.). La costruzione di reti collaborative basate sulla creatività permette la generazione di processi progettuali dove conoscenze e capacità vengono condivise, con il risultato di ottenere una velocità maggiore. La condivisione di conoscenze e capacità permette infatti a tutti gli attori di non dover "reinventare la ruota" (reinventing the wheel)5, ossia di non dover sprecare tempo e risorse su progetti già risolti da altri. Un esempio dell'importanza di costruzione di reti collaborative basate sulla creatività è dato dal rapporto design-sostenibilità. Il design si sta confrontando con il tema della sostenibilità da tempo. Infatti, se si descrive la transizione verso la sostenibilità ambientale come un grande processo di de-materializzazione dei processi produttivi e di consumo, si comprende come il design possa avere un ruolo attivo in questo processo, di cui è uno dei protagonisti. Dato un risultato, quindi, occorre ridurre al massimo le quantità di materia ed energia necessarie per raggiungerlo. In questo ambito si parla dunque di ecodesign: dati i prodotti esistenti sul mercato, occorre organizzarne il processo produttivo nel modo più eco-efficiente, riducendo al massimo il consumo di risorse ambientali (materiali ed energetiche) legate alla sua produzione ed al suo impiego. Nel recente passato su questo terreno, il terreno dell’eco-efficienza di prodotto, è stato fatto molto ed i prodotti di oggi sono in generale assai più eco-efficienti di quelli di 20-30 anni fa. Considerando i singoli prodotti, dunque, si può dire che si sia effettivamente raggiunto il disaccoppiamento tra valore generato e risorse ambientali consumate. Questa strategia ha però mostrato rapidamente i suoi limiti. Infatti, se pure il peso ambientale dei singoli prodotti è diminuito, il consumo complessivo di risorse ambientali dei paesi industrializzati continua a salire. La crescita della quantità dei prodotti messi sul mercato è stata molto maggiore di quella della loro eco-efficienza individuale: si sono prodotti beni più eco-efficienti 3 4 5

Idem Ibidem p.97 http://en.wikipedia.org/wiki/Reinventing_the_wheel 183


ma se ne sono prodotti molti, molti di più di prima. L’eco-efficienza di prodotto è stata una condizione necessaria ma non sufficiente per fare dei passi concreti verso al sostenibilità. Si è pensato quindi di non considerare più solamente l’eco-efficienza dei singoli prodotti, ma di spostare l’attenzione su sistemi più ampi di prodotti e servizi. E questo nella convinzione che, ottimizzando in termini ambientali non solo i singoli prodotti, ma degli insiemi di prodotti, servizi e processi produttivi, fosse possibile ottenere gradi più elevati di ecoefficienza, a livello di sistema. Tuttavia, il procedere verso l’economia dell’informazione e dei servizi, così come oggi sta avvenendo, non sta affatto portando a ridurre i consumi totali di materiali, di energia e di risorse ambientali in generale. E’ vero infatti che informazione e servizi, in quanto tali, sono entità immateriali, ma ciò che serve per erogarli non lo sono affatto. Inoltre spesso l'accesso ai servizi non sostituisce il consumo dei prodotti. Si ha avuto anche qui un caso di rebound effect: l’effetto boomerang per cui il risultato effettivo di iniziative che apparivano virtuose per l’ambiente in realtà prova di essere nocivo. Come la de-materializzazione dei prodotti ha portato alla produzione di una maggiore quantità di prodotti, anche la fornitura di servizi al posto di prodotti ha portato ad un aumento spropositato della loro offerta. Il passaggio verso un’economa dell’informazione e dei servizi, effettuato con i modi di pensare correnti tende a rendere ancora più pesante l’impronta ecologica delle nostre attività. Per effettuare il passaggio verso un’economia dell’informazione e dei servizi riducendo il rischio dell’effetto boomerang, occorre prendere in considerazione non solo i singoli prodotti che si miniaturizzano e/o i singoli servizi che si virtualizzano, ma dei sistemi socio-tecnici più ampi in cui sia possibile provare a prevedere il gioco delle reciproche influenze tra innovazione tecnica e cambiamenti culturali e comportamentali. La questione della praticabilità dell’approccio sistemico rimanda, secondo Manzini6 a quella della costruzione di partnership orientate ad un risultato, e la generazione di nuove visioni sul benessere. Affinché le tematiche della sostenibilità non siano percepite come parte del problema, ma come parte della soluzione del problema occorre guardare in modo diverso la società, i temi che in essa emergono, i modi per affrontarli, tenendo conto delle motivazioni dei diversi attori sociali implicati. Tutto questo pone le imprese nella necessità di operare in forme nuove, costruendo dei sistemi di partnership confrontandosi non solo con le potenzialità dell’innovazione tecnica ma anche con quelle dell’innovazione sociale. È necessaria inoltre l'elaborazione di nuovi concetti di benessere, dato che quelli attuali basati sulla proprietà di prodotti o sull'accesso di servizi, così come formulati ora, sono insostenibili. Nuovi concetti di benessere possono modificare il comportamento delle persone, senza che queste percepiscano la tematica della sostenibilità come una privazione, ma anzi come un aumento di benessere. La sostenibilità quindi come un 6

Manzini (2006a)

184

obiettivo auspicabile e non solo necessario. Un nuovo concetto di benessere basato sulla qualità del contesto di vita e basato su soluzioni con un potenziale di de-materializzazione e di rigenerazione. In questo contesto, si comprende l'importanza per quei casi di creatività distribuita che Manzini chiama comunità creative, che rappresentano una discontinuità nei confronti del sistema attuale. Questi casi mostrano che, fin da ora, è possibile fare dei passi verso la sostenibilità. Inoltre, anticipando esempi concreti di quello che potrebbe essere “normale” in una società sostenibile, alimentano la conversazione sociale e la generazione di visoni condivise su questo tema. In questo modo esprimono, in modo esplicito o implicito, delle domande di prodotti e di servizi, inedite possibilità di mercato nello sviluppo di soluzioni sostenibili. Possono quindi essere lo stimolo per delle innovazioni sistemiche ed il banco di prova per lo sviluppo di una nuova generazione di prodotti e servizi. In questo modo, pongono anche un’altra domanda, più profonda e di lungo periodo, relativa ad un più generale riorientamento del sistema produttivo e di consumo. È quindi chiaro come il design si stia interessando alle comunità creative, in quanto possono rappresentare esperimenti per lo sviluppo e la diffusione di prodotti e servizi più sostenibili in un più ampio processo di apprendimento sociale. Il caso delle comunità creative e delle ricerche che il mondo del design sta svolgendo su di esse7 sono un esempio di come il design possa interessarsi a comunità che rappresentano un fenomeno di creatività distribuita. Rappresentando una richiesta di nuovi prodotti e servizi, chiedono interventi progettuali mirati. In questo modo il design passa dal considerare esclusivamente un attore (l'impresa o l'utente) a considerare anche un insieme di attori che costituiscono una comunità (quindi una rete orizzontale di attori). Inoltre, le forme di organizzazione sviluppate dalle comunità Open Peer-to-Peer vengono viste come un'opportunità di incontro con i comportamenti sostenibile sviluppati dalle comunità creative. Sono questi due mondi che si sono sviluppati senza molti contatti, ma la cui collaborazione Manzini vede come promettente per il futuro, in grado di rinforzasi a vicenda e porre le basi per una società multi-locale8. Se si prende come definizione di creatività quella data da Henri Poincaré nel 1929, "Creatività è unire elementi esistenti con connessioni nuove, che siano utili"9, un intervento di design in grado di unire, in reti collaborative, persone che condividono una stessa motivazione e desiderio di attivarsi per soddisfarla, è quindi un esempio di creatività.

7 8 9

EMUDE, si veda http://www.sustainable-everyday.net Manzini (2006b) cit. in http://it.wikipedia.org/wiki/Creativit%C3%A0


1.2. Open Peer-to-Peer come opportunità di incontro tra design e sviluppo locale Mentre la relazione tra design e creatività è ampiamente riconosciuta, la relazione del design con la dimensione territoriale è invece un punto controverso, sviluppato solo recentemente. Tradizionalmente, infatti, il design (soprattutto l'industrial design) si è occupato di artefatti slegati dalla dimensione locale: ne sono indirettamente una espressione, ma non se ne interessano direttamente. Certamente l'operato dei designer risulta influenzato dalla propria appartenenza ad una particolare cultura locale10, ma è sempre mancata una consapevolezza di un approccio progettuale direttamente rivolto alle condizioni locali. Un progetto, insomma, capace di influenzare la condizione locale, ad una dimensione più ampia del semplice contesto d'uso di un prodotto. Per il design di prodotti infatti l'interesse per una dimensione locale si limita al contesto d'uso da parte dell'utente, che si immagina come uguale per tutte le regioni del mercato in cui viene inserito. Eliminando le condizioni specifiche locali, un prodotto può essere distribuito (venduto) in un'area geografica più ampia. Questa tendenza del design alla riduzione della varianza della dimensione locale deriva da molti fattori. Innanzitutto, il focus centrato su un singolo prodotto influenza la prospettiva di visione, dato che l'attenzione riguarderà sempre una dimensione a livello micro. Inoltre, nascendo con la Rivoluzione Industriale, ne assume i caratteri di rottura con la tradizione e le comunità locali, che subiscono un cambiamento radicale a causa dell'inurbazione in massa. Non è un caso, quindi, che il movimento Arts and Crafts, critico rispetto alla Rivoluzione Industriale, riproponga un forte legame con la tradizione artigianale locale. Considerando poi come la modernità abbia attuato una sistematica riduzione della complessità per poter espandere e sviluppare mercati e produzioni, si comprende l'ulteriore astrazione che caratterizza il design nella prima parte del Novecento. La grande serie diventa la dimensione ideale del design, che realizza prodotti standard, progettati per un ipotetico uomo medio, esportabili in tutto il mondo. In questo periodo, quindi, l'interesse del design per la diversità sia locale che umana si trova al limite storico, e la rottura con elementi della tradizione sarà meno intensa in quei paesi in cui l'industrializzazione è avvenuta con ritardo e minore impatto, permettendo la sopravvivenza di competenze artigianali. Un esempio è dato dai paesi scandinavi, dove il legno ha continuato ad essere l'elemento tradizionale utilizzato nella produzione di oggetti e dove si ha assistito ad una maggiore collaborazione designer-artigiani11. 10 Come sostiene Vandana Shiva, tutte le culture sono locali in quanto generate in uno specifico contesto locale caratterizzato da specifici valori e tradizioni locali 11 De Fusco (1985)

Dalla nascita dell'industrial design fino alla fine del fordismo, dunque, il disegno industriale ha avuto poca considerazione per la dimensione locale, se non un debole legame con le tradizioni artigianali; resta tuttavia il fatto che un intervento progettuale di design che riguardi la dimensione locale non sia stato preso in considerazione. Ma con il postfordismo ritorna un interesse verso la dimensione locale, che si riflette anche nel design. Un primo riconoscimento che il design può avere una influenza sulla dimensione locale viene dal successo dei distretti industriali e dal loro legame con il design. Soprattutto in Italia, dove il fenomeno ha assunto la sua forma più completa, e dove il legame con il design italiano ha costituito forme di sinergia che hanno portato a successi commerciali in tutto il mondo. Ad un livello più profondo il design è infatti una espressione delle caratteristiche locali (conoscenze, abilità, risorse fisiche) ma di cui non si interessa e che influenza solo indirettamente. L'unica dimensione locale è sempre stata quella del mercato di distribuzione o produzione: il design è quindi un vantaggio competitivo da esportazione (ad esempio, si pensi alla fama del "design italiano", o del "Made in Italy"). Ma questa importanza come vantaggio competitivo ha portato al riconoscimento di carattere sistemico dell'azione del design all'interno del contesto sociale ed economico del paese. Il sistema nazionale del design si regge attorno al sistema di competenze storicamente sedimentate entro quelle forme di organizzazione produttiva territoriale che hanno caratterizzato lo sviluppo e il consolidamento del sistema economico. La pratica del design è diffusa all'interno del territorio italiano in giacimenti di competenze (competenze, conoscenze e capacità sedimentate nel tempo sul territorio). Sono queste quindi delle considerazioni recenti che riconoscono una importanza del disegno industriale come influenza dello sviluppo di determinate aree geografiche, in base alla sua capacità di fornire un vantaggio competitivo ad attività economiche. Ma il design comincia ad essere utilizzato per influenzare la dimensione locale nei decenni '80 e '90, attraverso programmi di marketing urbano e di city corporate identity. Qua, più che dal product design, il ruolo è assunto dal graphic design, che propone la comunicazione dell'identità urbana come veicolo per l'attrazione di capitali esterni. In questo caso l'identità diventa un bene da vendere: identity as a commodity. La dimensione locale viene quindi valorizzata attraverso la progettazione del suo brand, fino ad arrivare alla progettazione della dimensione locale come brand in sé12. Tuttavia questo approccio può essere altamente riduttivo o addirittura nocivo per la dimensione locale, che è molto più complessa e stratificata rispetto ad un normale prodotto da vendere, tradizionale tema progettuale del design (sia product che graphic). 12 Piccinno (2004) 185


Per assistere ad una riflessione ben articolata sul possibile ruolo del design per la dimensione locale bisogna attendere l'inizio del XXI secolo, con due programmi di ricerca, uno europeo (SPARK! DESIGN AND LOCALITY) e l'altro italiano (ME.Design), indirizzati a questo tema. Programmi di ricerca che non hanno esaurito l'interesse per la relazione design-dimensione locale, dato che un altro programma simile (DOTT) si trova in fase di preparazione. Esistono nuove e più proficue modalità di connessione tra design ed economie locali? Ci si trova di fronte alla necessità di rispondere a quesiti di grande attualità, in un momento in cui si assiste a rilevanti fenomeni di cambiamento delle forme di organizzazione sociale e territoriale della produzione (vedi ad esempio la profonda mutazione in atto nei distretti industriali); si apre dunque lo spazio, qualche anno fa totalmente insospettato, per un design generatore di competenze, strumenti, metodologie capaci di indicare nuove soluzioni possibili (e sostenibili) di sviluppo per le economie locali.

1.2.1. Spark!

difficoltà specifiche presenti oggi nelle comunità e municipalità locali. In collaborazione con le municipalità e con la partecipazione dei cittadini, il contenuto dei workshop ha enfatizzato il valore sociale, economico ed educativo della cultura, in particolare con l'arte e il design come nuove forme di espressione culturale per la new economy. Come risultati di queste sperimentazioni, emerge un cambiamento nelle caratteristiche del designer, che comincia a spostare la propria prospettiva da quella indirizzata solamente ad oggetti ed edifici, ad una più attenta verso flussi, ritmi, scambi, transazioni e connessioni. Più che progettare oggetti, comincia a progettare situazioni: attività, contesti, eventi ed incontri. Il tema di discussione non è più rivolto a prodotti, ma a come i concetti di ospitalità, convivialità e benessere possano declinarsi nelle differenti comunità locali. Un approccio progettuale aperto e collaborativo, che sperimenta con la storia, le conoscenze insite e situate in un certo contesto. Per John Thackara il servizio più importante che un designer o un artista possa fornire ad una comunità è lo stimolo necessario affinché questa cominci a sviluppare una visione condivisa del futuro13.

Il primo programma di ricerca, "SPARK! DESIGN AND LOCALITY", ideato nel settembre 2001 e terminato nel 2004 nel contesto dell'associazione Cumulus (European Associations of Universities and Colleges of Art, Design and Media), è un progetto basato sul principio di progettare per comunità (designing for communities). Invece di utilizzare l'approccio tradizionale di progettare prodotti per imprese, la progettazione per comunità (ossia insediamenti socio-economici di persone in una determinata area) riguarda la progettazione di servizi in situ. In questo progetto sono stati organizzati cinque workshop in cinque differenti località europee, al fine di promuovere un nuovo tipo di creatività nei designer enfatizzando il crescente ruolo della cultura nello sviluppo socioeconomico di comunità e municipalità locali. Questi cinque località (Forssa nel sud-ovest della Finlandia, Valdambra vicino ad Arezzo in Italia, Narva-Jõesuu nell'Estonia dell'est (sul confine russo), Cray Valley a sud-est di Londra nel Regno Unito e Nexø sull'isola di Bornholm in Danimarca) sono state proposte da altrettante cinque università di arte, architettura e design europee. Le università erano: • University of Art and Design, Helsinki; • Estonian Academy of Arts, Tallin; • Politecnico di Milano, Facoltà del Design; • Ravensbourne College of Design and Communication in Chislehurst, London; • Aarhus School of Architecture.

1.2.2. ME.Design

Nei cinque workshop, studenti provenienti da differenti università hanno esplorato e creato, assieme ai loro insegnanti, attraverso la combinazione delle loro esperienze professionali e della loro immaginazione, scenari che mostrano direzioni possibili che portino lontano dalle

Fino a quel momento ci si era posto il problema di analizzare il contributo che il design può dare al potenziamento della competitività delle imprese (valorizzando il prodotto, la comunicazione e il servizio); con ME.Design si è aperto un mondo

Più di 90 ricercatori della rete SDI | Sistema Design Italia, centinaia tra cittadini, amministrazioni locali, enti, associazioni ecc. e soprattutto un folto gruppo di giovani designer: questo è il bilancio di una ricerca, ME.Design, durata due anni, e che ha voluto, per la prima volta a livello nazionale, indagare il tema del design per lo sviluppo locale. La ricerca ha esplorato tale relazione a partire da contesti territoriali ben precisi, ovvero quelli che hanno una relazione sociale e culturale con il Mediterraneo; c'è stato poi un momento di sperimentazione concreta che ha riguardato, in particolare, territori individuati a livello nazionale. Il progetto di una ricerca sul design per l'area del Mediterraneo nasce dalla considerazione che i territori che si affacciano su questo mare sono stati a partire da epoche antichissime grandi serbatoi generatori di risorse progettuali di singolare qualità e unicità. In questo scenario il design rappresenta forse oggi una delle espressioni più aggiornate di questa particolare dimensione creativa, capace di rappresentare ed enfatizzare contenuti di qualità della vita, valori legati al patrimonio naturale, alle ricchezze artistiche, alla tradizione manifatturiera, al gusto. L'obiettivo principale della ricerca è stato quello di analizzare le potenzialità del design (sia in termini di capacità e strumenti, sia in termini di attività e specifiche) al servizio dello sviluppo locale.

13 Thackara (2004) p.19 186


quasi inesplorato che vede questa disciplina cimentarsi con il problema della valorizzazione delle risorse, materiali e immateriali, del territorio. La ricerca ME.Design ha messo a punto una action research specifica per il design, cioè un processo di azione-riflessione-verifica attraverso il quale premesse teoriche sono verificate e validate con una sperimentazione sul campo. A partire da una analisi della letteratura relativa alla ricerca-azione sviluppata in campi extra-disciplinari (quali la sociologia, la pedagogia, ecc.) sono stati realizzati approfondimenti mirati per capire ed individuare le specificità di un processo di ricerca-azione applicato al design. L'esito di queste azioni è stata la produzione di un "kit metodologico" proprietario della rete Sistema Design Italia che la comunità di ricercatori ha condiviso e utilizzato nella sperimentazione. In particolare ME.Design ha proposto di attivare la sperimentazione sul campo attraverso i workshop di progetto. Sono stati avviati sette workshop realizzati in altrettanti contesti territoriali a livello nazionale: Valdambra (AR), San Remo (IM), Mantova, Morcone (BN), Ustica (PA), Reggio Calabria, Napoli. I workshop sono stati svolti in contesti differenti tra loro per caratteristiche ambientali, per dimensione territoriale, per attori coinvolti, per la natura degli obiettivi da raggiungere. Le azioni legate al workshop hanno infatti obiettivi differenti in relazione alla natura del progetto: dalla creazione di reti di relazione, alla definizione di strategie di comunicazione, all'ideazione di prodotti e servizi per il territorio e alla loro definizione. Questi sette casi rappresentano un campione significativo di ambiti rispetto ai quali evidenziare un ruolo specifico del design come attivatore e potenziatore delle risorse disponibili a livello locale. In questi casi il design ha giocato un ruolo di attivatore e facilitatore per la creazione di servizi di ospitalità, la valorizzazione dell'identità urbana, la valorizzazione di beni culturali diffusi, il potenziamento di produzioni di artigianato artistico, la destagionalizzazione del turismo, la valorizzazione di produzioni tipiche, il rafforzamento di aree distrettuali. Se da un lato la ricerca ha portato a risultati di carattere teorico sul ruolo che il design ha o può avere nei progetti di valorizzazione dei contesti locali (il design mette in campo capabilities di natura strategica, organizzativa, comunicativa, ecc.) dall'altra sono stati raggiunti risultati concreti: la natura di questi risultati non è strettamente legata ai progetti realizzati nei workshop, ma alla crescita di consapevolezza, da parte degli attori del territorio, delle potenzialità di ognuno dei contesti locali e di come, attraverso un'azione di design, tali potenzialità possano essere espresse attraverso progetti concreti. Naturalmente la consapevolezza che il design, nelle sue molte espressioni contemporanee e nella sua grande estensione operativa, dal design del prodotto al design dei servizi, possa rappresentare un potente acceleratore per lo sviluppo dei contesti locali, deve ancora affermarsi in modo compiuto e raggiungere quegli enti e quelle istituzioni di

governo che localmente sono chiamati oggi a prendere determinate decisioni. Le esperienze che la ricerca "ME.Design" e la mostra succesiva "Medesign. Forme del mediterraneo" presentano, mostrano come sia possibile e sia proficuo che il design si occupi di sviluppo locale, configurandosi come disciplina attiva ed adeguata ad affrontare il compito dell'innovazione. È cresciuta quindi la consapevolezza dell'importanza dell'elemento territoriale, cruciale non solo quando si affronta il tema di un design al servizio di contesti produttivi maturi (singole imprese, distretti, sistemi di piccole e medie imprese) ma anche quando l'obiettivo è quello della valorizzazione di un sistema complesso di risorse umane, culturali, naturali, produttive, ecc., che di un territorio possono costituire i fattori prevalenti di sviluppo. Il valore dell'innovazione portata dal design può oggi, di fatto, essere un potente motore per rafforzare quei sistemi che fondano la loro crescita sulla disponibilità e la messa a sistema di risorse legate ai beni culturali, alle risorse agro-alimentari, al paesaggio, a forme di turismo sostenibile, all'artigianato, alla piccola impresa, ecc.

1.2.3. DOTT – Designs Of The Time L'interesse per una relazione più stretta tra design e dimensione locale non si è esaurita con i programmi di ricerca SPARK! e ME.Design. È ora in fase di preparazione DOTT (Designs Of The Time), un programma di 10 anni per la promozione del design a livello regionale nel Regno Unito, organizzato dal Design Council. Il punto centrale di questo programma è supportare ed incoraggiare il design come punto centrale del successo economico e sociale futuro del Regno Unito. Attraverso un approccio partecipatorio si promette di stimolare un cambiamento a lungo termine in ogni regione. Il programma non intende proporre soluzioni precostituite, ma di permettere alla popolazione di sviluppare le proprie visioni e i propri scenari che questa immagina per il proprio futuro. In questo modo i cittadini britannici avranno la possibilità di intervenire negli interventi progettuali riguardanti la propria dimensione locale. Ogni due anni il Design Council collaborerà con una regione o nazione differente all'interno del Regno Unito, con l'obiettivo di migliorare la vita della nazione attraverso il design. Il primo evento, nel 2007, riguarderà la regione dell'Inghilterra del nord-est, e sarà costituito da tre elementi: • Commissioni Pubbliche di Design, dove i cittadini potranno votare e selezionare i progetti che team di designer avranno sviluppato in collaborazione con le autorità locali, il governo nazionale, i fornitori di servizi pubblici ed enti privati. In questo senso verrà istituita, verso la fine del 2007, una premiazione denominata "Creative Community Awards"; • un programma educativo che coinvolge gruppi di tutte le età al fine di esplorare 187


come il design possa migliorare tutti gli aspetti della vita quotidiana. In questo modo un folto numero di giovani designer imparerà ad utilizzare il design in modo innovativo, per risolvere i problemi quotidiani che le persone sperimentano; un programma di eventi di promozione del design, come esposizioni e concorsi.

1.3. Design per comunità Open Peer-to-Peer e design per sviluppo locale Si è visto come le comunità Open Peer-to-Peer rappresentino una opportunità per dare luogo a processi di sviluppo locale, direttamente o indirettamente. Questa caratteristica le rende molto promettenti, perché non solo grazie a loro è possibile risolvere un problema specifico, ma dare luogo a processi rigenerativi e valorizzativi riguardanti la dimensione locale. È quindi utile capire come il design possa indirizzarsi verso di loro, alla luce delle recenti esperienze di studio del rapporto design-dimensione locale quali SPARK! e ME.Design. In queste ricerche sono stati elaborati i primi strumenti per svolgere interventi progettuali indirizzati verso la dimensione locale, in modo che si generino e si sviluppino processi di sviluppo locale: per fare ciò, gli interventi progettuali elaborati si rivolgono alle comunità locali e alle caratteristiche locali. Sono quindi strumenti per comprendere come un intervento progettuale di design possa rivolgersi a comunità e riconoscere ed utilizzare risorse locali.

grado di supportare i processi che la comunità gestisce. Parlare di sviluppo locale attraverso il progetto di design significa modificare il campo di riferimento dell'attività progettuale: passare da un singolo attore (l'utente, l'impresa) ad un contesto, il territorio, e rilevare le peculiarità che lo definiscono oggetto del progetto: esso può infatti essere considerato come un ambiente in cui le dimensioni materiali e immateriali, umane, fisiche, sociali ed economiche tendono a fondersi. Il design che agisce per lo sviluppo locale e nel territorio deve far riferimento a questo insieme di risorse (economiche, umane, sociali, fisiche, storicoculturali, ambientali), affrontandone la natura particolare e i limiti specifici: ciò può essere realizzato attraverso una prima definizione complessiva che può essere rintracciata nel concetto dinamico di capitale territoriale. L'azione del design a scala territoriale è quindi un'attività progettuale che ha come fine quello di promuovere "processi sistemici di innovazione (sociale, economica, tecnologica) attivati a partire dalla specificità delle risorse locali (il capitale territoriale e sociale che insiste su quell'area) attraverso l'uso di livelli disciplinari differenti (il riferimento è al design strategico, al design della comunicazione, al design di artefatti) e con diversi focus d'azione (sociale, economico, culturale, ecc.)"16.

Il design, in tutte le sue forme, è una attività intimamente legata al concetto di dar forma a qualcosa: interessandosi al livello locale, questo qualcosa non è unicamente riferito al progetto di artefatti materiali, ma comprende in senso più ampio il dar forma a intuizioni, pensieri, culture, saperi e conoscenze che stanno nel territorio e lo connotano14. Per Maffei e Villari "lo scopo della traduzione progettuale di risorse, valori e contenuti è quindi di rendere visibile la specificità territoriale attraverso un processo di materializzazione di prodotti, servizi, strategie. In questo caso il progetto può essere perciò considerato sia come un'attività che ha lo scopo di definire artefatti fisici, sia come azione finalizzata alla creazione di artefatti che hanno natura immateriale, di natura comunicativa o organizzativa come per esempio il progetto di servizi o come la definizione di strumenti operativi e concettuali utili a supportare i processi di natura progettuale, relazionale, negoziale"15. Un intervento progettuale indirizzato verso comunità Open Peer-to-Peer può quindi interessare artefatti fisici ma anche immateriali, riguardanti l'organizzazione delle comunità attraverso la fornitura di strumenti (prodotti, servizi, comunicazione). Un intervento progettuale in

Inoltre, sempre secondo Maffei e Villari, "riferendosi al tema dello sviluppo locale, il campo d'azione del designer si amplia: non solo il progettista è chiamato a dar forma agli artefatti, ma contribuisce inoltre a dar forma alla comunità di soggetti e alle modalità con cui essa sperimenta il progetto, attraverso strumenti, linguaggi, competenze, forme organizzative innovative. In questo senso il designer è in grado di abilitare i contesti e le comunità locali a comunicare, immaginare, progettare, sviluppare in maniera condivisa dei percorsi innovativi di sviluppo locale"17. Si vede allora come un approccio progettuale dedicato alle comunità Open Peer-toPeer debba ricollegarsi alle recenti ricerche sulla relazione design-sviluppo locale, condividendone lo stesso interesse verso le comunità. Per Maffei e Villari, la complessità della dimensione locale rende l'azione di design "caratterizzata da una condizione partecipativa a livello locale: ovvero dalla necessità dall'esistenza di una comunità correlata al progetto stesso (che potremmo definire una comunità di pratica designbased) che necessita di differenti livelli di abilitazione al progetto, a partire da quelli che riguardano competenze e linguaggi (quindi il comunicare e agire all'interno del processo progettuale) fino agli strumenti operativi più specifici. Le premesse perché si possa concretizzare un cambiamento sul territorio si basano quindi su situazioni che hanno una forte componente relazionale e sociale: il progetto nasce e si sviluppa in contesti in cui la dimensione di

14 Maffei, Villari (2004) p.89 15 Idem

16 Idem 17 Ibidem p.93

188


cooperazione e negoziazione è una parte fondamentale, proprio per il sistema complesso di interessi e di realtà che compongono e identificano il sistema18. Per un intervento progettuale rivolto a comunità Open Peer-to-Peer, quindi, un approccio partecipativo è quindi fondamentale, per poter soddisfare tutte le differenti motivazioni ed esigenze; inoltre, pare una conseguenza logica che sia aperto alla partecipazione, dato che si rapporta con comunità aperte alla partecipazione. In questo punto, si può dire che, negli interventi progettuali rivolti a comunità Open Peer-to-Peer, la comunità Open Peer-to-Peer e i progettisti vengono a far parte di una comunità progettuale più ampia. Secondo Maffei e Villari19, affinché il design si possa interessare al territorio deve seguire le seguenti condizioni: 1. la condizione di situatività (la dipendenza dal contesto dell'azione di design). L'azione di design parte dalle condizioni specifiche di un territorio; esso è un sistema vasto e articolato di risorse, spesso immateriali e non trasferibili, in quanto intimamente legate a tradizioni, valori e ad un ambiente socio-culturale particolare. La miscela di questi fattori cambia continuamente nel tempo e dunque l'azione progettuale è collegata fortemente alle caratteristiche situate del territorio, inteso come un mix dinamico specifico; 2. la condizione di path dependency (la dipendenza dall'azione di design dalla storia del progetto). L'incertezza dell'azione legata alle caratteristiche territoriali è vincolata alla sua natura processuale che si realizza attraverso differenti livelli e tempi decisionali ed operativi, che coinvolgono in maniera complessa l'insieme di attori che prendono parte al processo progettuale. L'azione di progetto è dunque influenzata da un grado di incertezza che dipende dalla stessa storia del progetto e che si riferisce sia agli obiettivi sia agli strumenti dell'azione di design; 3. la condizione di multi-attore (la dimensione collettiva dell'azione di design). L'azione progettuale a scala territoriale è attività plurale condotta da un insieme di soggetti di natura differente (istituzionale, culturale, economica, sociale, professionale), ognuno dei quali svolge un ruolo preciso. Essa è condotta dunque da una comunità (definita design community) all'interno della quale ognuno dei soggetti agisce con un bagaglio di competenze proprie e con un ruolo definito; allo stesso tempo, ognuno dei soggetti svolge anche un ruolo nel contesto territoriale rispetto ad una comunità più ampia (che potremmo definire comunità generale). L'azione di design sul territorio 18 Ibidem pp.89-90 19 Ibidem pp.90-91

4.

può dunque essere paragonata ad un processo di interazione e scambio tra design community e comunità generale su obiettivi e modalità/strumenti per raggiungerli. Le condizioni perché si svolga il processo progettuale nascono perciò da una condivisione di linguaggi, background e strumenti che si realizza attraverso il dialogo e il confronto tra le comunità in questione; la condizione di multi-livello (le differenti scale d'intervento dell'azione di design). L'azione progettuale a scala territoriale agisce contemporaneamente su dimensioni problematiche e su scale progettuali differenti, da quella planetaria sino a quelle regionali, d'area, urbane che interagiscono con diverse sfere legate alla vita quotidiana degli individui e all'organizzazione dei cicli di produzione e riproduzione delle risorse. È necessario dunque considerare il territorio attraverso una prospettiva progettuale multi-scala.

Un intervento progettuale rivolto alle comunità Open Peer-to-Peer deve portare estrema attenzione alle caratteristiche specifiche, la situazione da cui prende forma la comunità. In quest'ottica risulta promettente l'utilizzo della Teoria dell'Attività per l'analisi delle comunità Open Peer-to-Peer, dato che rappresenta uno strumento d'analisi sistemico e vicino all'analisi dell'azione situata. Un approccio che tiene conto della complessità della situazione e del suo percorso storico, della molteplicità degli attori coinvolti (non solo i membri della comunità ma anche il rapporto con la società esterna) e dei differenti livelli di intervento (individuale, locale, globale). Inoltre, dalla recente esperienza ME.Design Maffei e Villari20 delineano tre livelli principali che ricorrono nel processo di design a scala territoriale: 1.

il livello di costruzione del sistema (degli attori e delle competenze di progetto): in questo livello l'azione del design si focalizza sulle dimensioni strettamente legate agli obiettivi e alle modalità di organizzazione e di azione della design community. Essa riguarda quindi la messa a sistema della rete di soggetti coinvolti nel processo di design a livello locale, la costruzione dei loro sistemi di relazioni, l'individuazione delle competenze e dei ruoli, e dunque, l'organizzazione e la definizione del quadro di riferimento rispetto al quale poter realizzare il progetto sul territorio. Le attività del designer sono quindi correlate alla costruzione di un linguaggio comune, di un sistema comunicativo e organizzativo che possa essere di supporto alla costruzione del consenso e della fiducia tra i soggetti coinvolti. È necessario in questa fase, infatti, costruire e identificare gli obiettivi e gli strumenti specifici di supporto al loro

20 Ibidem pp.91-93 189


2.

3.

ragionamento; il livello di definizione della strategia di progetto: in questo livello l'azione del design contribuisce a definire le linee guida relative ai campi di azione in ci è possibile identificare soluzioni progettuali concrete. Il designer può in questo caso proporre scenari di progetto per la valorizzazione dei contesti locali, individuare e visualizzare nuove aree di opportunità, proporre strumenti per facilitare la costruzione di visioni di progetto comuni e condivise sia dai soggetti della design community, sia dai soggetti esterni (la comunità generale). Il design in questo caso partecipa alle costruzioni delle linee guida rispetto alle quali orientare le soluzioni progettuali e comprende inoltre la definizione dell'insieme di strumenti e artefatti che fungono da supporto al processo stesso; il livello di definizione del sistema-prodotto territoriale: questo è il livello che può essere considerato più vicino alle attività usuali che l'azione di design propone. Il designer svolge la propria attività quando i ruoli dei soggetti coinvolti nel processo progettuale e la rete di relazioni è stabile e strutturata, e le linee guida di riferimento del progetto sono sviluppate e visualizzate. L'azione del progettista riguarda quindi la definizione e la concretizzazione di artefatti, servizi e sistemi di comunicazione che aggiungano valore al sistema territoriale in un'ottica di sviluppo locale. Il designer in questo caso agisce come risorsa specifica all'interno della design community insieme alle altre competenze coinvolte di natura economica, sociale, amministrativa, legislativa, manageriale, ecc. Proponendo soluzioni che supportino iniziative concrete a livello territoriale [...].

Nel nostro caso i tre livelli possono rappresentare una fase di analisi dei partecipanti, delle loro competenze e di come tendono a formarsi naturalmente le relazioni fra loro. E questa analisi può avvenire solo stringendo rapporti e individuando linguaggi e strumenti comuni al fine di sviluppare un discorso collettivo. Vi è poi una fase di definizione delle direzioni in cui si può intervenire, ossia di formulazione di un concept iniziale del progetto, da cui poi si svilupperà interattivamente il progetto finale. Infine, vi è una fase di vera e propria progettazione di artefatti, servizi e sistemi di comunicazione. Un ruolo importante ha il design anche nel valorizzare l'identità della comunità. L'identità non è un oggetto che si possiede, per chi vive in un certo contesto l'identità è un connotato trasparente. L'identità (culturale, in particolare) è definita da un osservatore, in genere esterno, attraverso distinzioni linguistiche. Non si può parlare di individuazione o espressione dell'identità ma di costruzione dell'identità: l'identità culturale è 190

categoria di giudizio e attribuzione. Da questo punto di vista il design può svolgere un ruolo importante perché, osservando con distacco e talvolta dall'esterno i contesti, è in grado di operare delle distinzioni, di proporle e aiutare le istituzioni e la comunità locale a co-produrre la propria identità21. Per Zurlo l'identità fornisce un senso alla comunità, una cornice in cui questa può agire di conseguenza.

1.3.1. Il capitale territoriale come oggetto della progettazione In conclusione, il design che agisce a livello locale può essere considerato come attività disciplinare che ha come oggetto del progetto il complesso sistema di risorse che costituiscono il complesso patrimonio territoriale. L'attività progettuale riferita ai contesti locali presenta alcune specificità rispetto alla "disciplina classica". Per il design, l'azione a questa scala è dunque22: • rivolto ad un specifico territorio, contestualizzata dunque rispetto ad un sistema di risorse specifico, alle condizioni (umane, sociali, economiche, culturali, politiche, ecc.) che contraddistinguono un'area; • è un'attività che si confronta con una del progetto, dimensione complessa rispetto al processo, ai tempi e ai risultati, proprio per la molteplicità di variabili che entrano in gioco in un'attività a scala territoriale; • è attività che agisce ed ha valore se messa in relazione e collaborazione con altri saperi e competenze; • l'azione progettuale agisce su scale differenti contemporaneamente e livelli di progetto, su quella umana del singolo individuo, sulla società, sino al rapporto con il "globale". Il fenomeno con il quale si confronta la disciplina del design quando amplia e modifica l'orizzonte delle sue attività, agendo sulla scala locale, non può che essere trattato in termini di complessità e in maniera sistemica. Lo stesso tipo di approccio servirà anche per affrontare le comunità Open Peer-to-Peer, alla luce della loro complessità intrinseca. Il design per comunità Open Peer-toPeer avrà le seguenti caratteristiche: • le comunità Open Peer-to-Peer, quando fortemente legate alla dimensione locale, devono essere contestualizzate in un determinato territorio, caratterizzato da specifiche caratteristiche; • è un'attività che si confronta con la complessità della società attuale e con la complessità delle comunità Open Peer-toPeer; • deve essere affiancata da altri saperi e competenze, proprio per poter affrontare la complessità. In particolare, saperi e 21 Zurlo (2004) 22 Villari (2003)


competenze in grado di analizzare l'aspetto sociologico delle comunità Open Peer-to-Peer; l'azione progettuale avverrà su più scale, dalle interazioni fra partecipanti all'interno della comunità, alle interazioni fra comunità in reti globali.

Come elaborato quindi nella ricerca ME.Design, l’oggetto del progetto del design a scala locale è il capitale territoriale, il "complesso degli elementi (materiali e immateriali) a disposizione del territorio, che possono costituire punti di forza o veri e propri vincoli a seconda degli aspetti presi in considerazione"23. Il capitale territoriale è un’entità dinamica che trae la propria crescita e sviluppo dalla capacità di integrare in modo armonico e coerente i diversi componenti del capitale. Esso corrisponde alla descrizione analitica dell'idea che si fanno del territorio coloro che sono alla ricerca di un margine di manovra per agire. Tale concetto è pertanto legato alla nozione di progetto e territorio, nonché alla ricerca di competitività territoriale. La crescita e lo sviluppo del capitale nella sua totalità si definisce nel complesso sistema di connessioni e interazioni che quel capitale è in grado di attivare, perseguire e sostenere con altri capitali territoriali, nodi di una rete articolata che mette in relazione il territorio che essi rappresentano con altri territori. In ME.Design si è scelto di visualizzare il capitale territoriale attraverso la metafora di un insieme di layer sovrapposti. Questa metafora ha consentito di porre le basi per l'avvio di una sperimentazione sul campo: il punto di partenza per tale attività è stato l'affermare che non può esserci sviluppo locale se non vi è una integrazione tra le risorse, una sorta di avvicinamento progressivo tra i piani. A partire da una risorsa chiave per il territorio, identificata come porta di accesso, attraverso un progetto strategico è possibile avviare un processo di integrazione progressiva di tutte le risorse disponibili. Tanto più i piani si avvicinano l'un l'altro tanto più c'è integrazione e sviluppo; al contrario, iniziative che aumentano questa distanza, producono una perdita di capacità di valorizzazione e quindi di innovazione24. In ME.Design il capitale territoriale è stato descritto come l'insieme integrato di 5 risorse chiave, rappresentate dai cinque layer: • il know-how e le competenze, cioè la padronanza delle tecnologie e le capacità di ricerca e sviluppo, la cultura e l'identità, i valori condivisi, gli interessi comuni ecc.; • le risorse umane, gli uomini e le donne che risiedono nel territorio, gli emigrati e coloro che lo abbandonano, le caratteristiche demografiche della popolazione, le attività e le imprese (dimensione delle imprese, filiere, ecc.); • le risorse fisiche e la loro gestione, in particolare le risorse naturali (rilievi, sottosuolo, suolo, flora e fauna, costa, 23 Castelli, Villari (2003) 24 Simonelli, Vignati (2004)

• •

entroterra, fiumi, laghi, ecc.), gli impianti e le infrastrutture, il patrimonio storico e architettonico; forme di governance, le politiche, gli operatori collettivi e la gestione degli affari pubblici del territorio; i mercati e le relazioni con l'esterno, in particolare la presenza di prodotti locali sui diversi mercati, la partecipazione delle imprese a reti promozionali o di scambio, la creazione di network in grado di amplificare le potenzialità locali ecc.

Fig. 56: Capitale territoriale (Fonte: Simonelli, Vignati 2004)

È possibile vedere come le comunità Open Peer-toPeer si rivolgano, direttamente o indirettamente, al capitale territoriale insito nella dimensione locale in cui agiscono: • know-how e identità: le comunità Open Peer-to-Peer rappresentano un giacimento di conoscenze specifiche (know-how) che danno loro luogo e che vengono da esse ulteriormente sviluppate attraverso la condivisione. Vi sono anche altri elementi condivisi che definiscono l'identità di una comunità Open Peer-to-Peer (ad esempio le motivazioni, gli artefatti, i linguaggi utilizzati, ecc.), ma la condivisione di un determinato set di conoscenze la definisce fortemente (ad esempio, sono le conoscenze relative al funzionamento di un sistema operativo e alla programmazione che danno luogo all'identità della comunità di sviluppo di Linux, e non altre). Ed è proprio la struttura di comunità che dà loro una forte identità, condivisa fra i partecipanti; risorse umane e attività: le comunità Open • Peer-to-Peer si formano per svolgere attività che coinvolgano il più alto numero possibile di partecipanti, valorizzando la loro diversità come fonte di successo per l'attività comune. Le comunità Open Peerto-Peer rappresentano quindi un ottimo esempio di attività in grado di ricercare e valorizzare risorse umane; • risorse fisiche: benché abbiano una forte attenzione alle informazioni, le comunità Open Peer-to-Peer sono attente anche verso risorse fisiche. Innanzitutto per gli artefatti con cui organizzano e svolgono le proprie attività, risorse fisiche la cui 191


mancanza non avrebbe permesso la nascita della comunità (ad esempio, il contenitore per alimenti con il suo specifico codice nel caso dei dabbawalla, computer e connessioni ad Internet nel caso di Linux); forme di governance: le comunità Open Peer-to-Peer propongono esse stesse nuove forme di governance (a bazaar), e ne richiedono anche da parte delle istituzioni politiche. Le comunità Open Peer-to-Peer rappresentano forme di organizzazione orizzontali, decentralizzate e basate sulla condivisione e reciprocità, che richiedono forme di governance orizzontali e decentralizzate (per permettere loro una auto-organizzazione effettiva) e basate sulla condivisione (leggi troppo restrittive sul diritto d'autore non permetterebbero loro di svolgere una attività); relazioni con l'esterno: le comunità Open Peer-to-Peer, costruendo legami fra loro a lunga distanza, sono in grado di dare vita a reti collaborative orizzontali che si ampliano a partire dalla dimensione locale. Sono infatti un modo per gestire legami a corto raggio con legami a lungo raggio, collegando la dimensione locale con la dimensione globale, per una più efficace condivisione delle informazioni e quindi dei problemi da risolvere. La loro presenza in un determinato contesto locale dà luogo a comunità multilocali, che possono dare luogo a processi di sviluppo locale "liberando" il locale dal suo isolamento.

Un progetto indirizzato verso comunità Open Peerto-Peer riguarderò anche il loro capitale territoriale, che comprende anche il loro capitale sociale (suddiviso fra i vari layer). Affinché quindi un intervento progettuale rivolto verso comunità Open Peer-to-Peer porti a processi di sviluppo locale, bisogni accertarsi che questi layer vengano tutti presi in considerazione e legati fra loro strettamente. Affinché, poi, lo sviluppo sia veramente duraturo, questo deve essere autosostenibile25 ossia deve ricercare "regole insediative (ambientali, urbanistiche, produttive, economiche, ecc.) che risultino di per sé produttive di omeostasi locali e di equilbri di lungo periodo fra insediamento umano e sistemi ambientali"26. Per Magnaghi27 la ricostruzione della comunità è l'elemento essenziale dello sviluppo autosostenibile: la comunità che "sostiene se stessa" fa sì che l'ambiente naturale possa sostenerla nella sua azione; l'azione conservativa (anche di valori ambientali) che non promani dalla fiducia interna e dalla self-reliance è destinata a creare resistenze e fallimenti".

a disposizione. Egli utilizza un concetto differente da quello di capitale territoriale, il patrimonio territoriale. Ogni territorio ha un suo patrimonio di valori territoriali, eredità della sua storia sociale e naturale. Sono questi valori associati con le caratteristiche dell'ambiente fisico (ecosistemi modificati nel tempo dall'intervento umano), l'ambiente costruito (eredità storica, infrastruttura, sistemi produttivi e loro prodotti e reti di servizi) a l'ambiente antropico (ad esempio il tessuto sociale e le sue forme organizzative, visione condivise e know-how produttivi). Ad ogni modo, questi valori territoriali non sono ancora risorse, nel senso che non sono ancora in grado di dare luogo a strategie di sviluppo. Affinché ciò accada questi beni devono essere riconosciuti come risorse. La consapevolezza di un determinato bene territoriale come una risorsa potenzialmente utilizzabile deve crescere all'interno della comunità locale. Questa prospettiva mette in primo piano un concetto fondamentale: il capitale territoriale di un determinato territorio deriva dalla consapevolezza della comunità locale delle risorse potenziali presenti nella propria dimensione locale. Ogni risorsa territoriale è quindi una entità complessa basata su due componenti fondamentali: un patrimonio (costituito da uno o più beni territoriali) e la capability delle comunità locali, ossia il riconoscimento delle risorse potenziali e l'abilità di renderle tali, utilizzandole e coltivandole affinché il loro uso sia sostenibile28. Per poter esistere nel tempo, una risorsa deve essere scoperta, valorizzata e appropriatamente coltivata. Un bene territoriale preesistente deve essere portato all'attenzione attraverso il riconoscimento della sua potenzialità come risorsa in un dato contesto sociale, tecnologico ed economico. Modi e strumenti devono essere trovati per trasformare un bene da risorsa potenziale in risorsa effettiva. Infine, affinché questa risorsa non si deteriori, deve essere utilizzata in modo sostenibile. Deve essere coltivata in modo di produrre nuovi beni senza consumare il capitale iniziale e senza causare la deteriorazione del bene territoriale su cui si basa. La valorizzazione di una risorsa locale è un processo di apprendimento collettivo (social learning process) attraverso cui una comunità può divenire consapevole delle proprie possibilità ed imparare a riconoscere ed utilizzare le sue risorse in modo sostenibile. Per Ezio Manzini questo processo di apprendimento è un'ampia attività di design i cui protagonisti sono gli attori sociali che operano nel territorio. Il suo obiettivo è quello di costruire una strategia per la valorizzazione e la rigenerazione delle risorse locali.

L'analisi di Magnaghi è importante perché mette in relazione diretta la comunità con le risorse che ha

La scoperta, la valorizzazione e la coltivazione delle risorse rappresentano la fase fondamentale di un processo più ampio che può essere definito come costruzione sociale di un progetto di sviluppo locale. Ne consegue che il primo passo che una

25 Magnaghi (2000) 26 Ibidem pp.76-77 27 Ibidem p.91

28 La capability può essere definita come l'attitudine a trasformare i vincoli in opportunità di sviluppo e risorse disponibili. Fonte: Castelli, Villari (2003)

192


comunità deve effettuare per poter dare luogo ad un processo di sviluppo locale è quello di riconoscersi come una risorsa, come un potenziale agente di cambiamento. La comunità e il progetto co-evolvono condizionandosi a vicenda nel bene e nel male. Da queste considerazioni si evince ulteriormente come la nascita di comunità Open Peer-to-Peer sia importante, dato che possono permettere la scoperta, valorizzazione e la coltivazione delle risorse territoriali, riconoscendole come tali.

1.4. Designer: da fornitore a facilitatore Un intervento progettuale rivolto verso comunità Open Peer-to-Peer deve quindi tenere in conto le caratteristiche del contesto in cui questa si trova, tra cui anche le caratteristiche territoriali. Benché molte comunità Open Peer-to-Peer non si rivolgano direttamente alla propria dimensione locale, questa finirà sempre con l'influenzarne l'operato, fornendo le risorse da cui gli attori possono attingere. Anche in una comunità totalmente basata su uno spazio virtuale (ad esempio, come nel caso del software Open Source), gli attori agiscono per la propria condizione locale (la mancanza di un particolare programma nel proprio computer), attraverso le risorse a cui hanno accesso (oltre alle risorse online, anche le risorse locali come università, biblioteche, ecc.; non a caso molti esempi di comunità Open Peer-to-Peer sono nati in un contesto universitario, caratterizzato dall'abbondanza e dalla facile accessibilità di molte risorse). E le risorse sono tali perché riconosciute dai membri della comunità; questa è una ulteriore ragione per dare loro una maggiore opportunità di partecipazione diretta al processo progettuale, in quanto sono in grado, meglio di altri, di riconoscere le risorse utilizzabili. È quindi intervento progettuale che si avvale della partecipazione di un numero potenzialmente elevato di partecipanti, attraverso un processo complesso caratterizzato dal suo specifico percorso (path dependency), orientato ai vari livelli di interazione: tra partecipanti, tra partecipanti e comunità, tra comunità e comunità, tra comunità ed enti esterni, tra comunità e società. Bisogna quindi adottare un approccio progettuale basato sulla partecipazione, in grado quindi di basarsi sulle conoscenze che gli attori hanno del contesto di intervento progettuale al fine di rendere il progetto finale più aderente alla realtà. D'altronde, un progetto per una comunità caratterizzata dalla massima apertura alla partecipazione, non può che essere partecipativo. Se ci si occupa di casi di creatività distribuita, questa va riconosciuta prima di poterla "utilizzare", condividendo con essa il ruolo di "autore" del progetto. Si può quindi affermare che un intervento progettuale rivolto a comunità Open Peer-to-Peer deve essere esso stesso Open Peer-to-Peer, basato

sulla partecipazione della comunità al progetto (open: aperto alla partecipazione), ai cui membri viene riconosciuto un ruolo paritario (peer-to-peer: riconoscimento delle competenze e conoscenze altrui) e attivo. Ogni progettazione sarà quindi una co-progettazione29; in questo modo, si riesce a far leva sulla "intelligenza collettiva" non solo per risolvere un problema, ma anche per l'intervento progettuale stesso. Il designer viene così ad assumere un ruolo specifico negli interventi progettuali rivolti a comunità Open Peer-to-Peer. Grazie alle sue competenze, può fornire le condizioni ottimali affinché prenda forma un'attività, e fornire gli strumenti di autoorganizzazione a queste comunità, ricoprendo più un ruolo di enabler che di provider. Non più la semplice progettazione di prodotti o soluzioni finite, ma il supporto a comunità in grado di sviluppare soluzioni adatte alle proprie caratteristiche. In questo caso, enabler può essere visto come provider di soluzioni abilitanti per le comunità30. Una soluzione abilitante è un processo che permette ad un attore (una persona o una comunità) di ottenere un risultato adottando una specifica strategia; è quindi un processo che, grazie all'utilizzo di appropriati prodotti, servizi e conoscenze, permette agli attori una certa autonomia nella realizzazione delle soluzioni finali31. La fornitura di soluzioni abilitanti rientra nella filosofia delle comunità Open Peer-to-Peer: vengono fornite loro le condizioni minime affinché la comunità si formi, si organizzi e sviluppi una sua attività, grazie alla quale troverà autonomamente soluzioni per specifici problemi. Il designer occupa quindi un ruolo di enabler dell'attività della comunità, di facilitatore della sua emergenza e del suo sviluppo. È questo un concetto antichissimo, espresso nel detto cinese "dai un pesce ad un uomo e lo sfamerai per un giorno. Insegnagli a pescare e lo sfamerai per la vita intera"32, ma che nella modernità è stato spesso accantonato in favore della fornitura di soluzioni finite. Ovviamente, per far sì che la comunità non esaurisca le risorse che utilizza, la soluzione deve essere sostenibile, ossia deve permetter il raggiungimento di un risultato sostenibile attraverso una strategia sostenibile, attenta alla qualità del contesto e potenzialmente rigenerante33. In questo modo è possibile che le comunità Open Peer-to-Peer diano luogo a processi di sviluppo locale autosostenibili, in grado di valorizzare, conservare e coltivare le risorse locali senza diminuire la loro qualità e quantità. Un designer si trova naturalmente in grado di agire da facilitatore, dato che le sue competenze lo hanno portato ad essere in grado di stabilire 29 Leadbeater e Cottam parlano di co-creazione dei servizi 30 Manzini (2006c) 31 Manzini (2006a) p.5 32 Attribuito a Laozi (IV sec. a.C.) Fonte: http://en.wikiquote.org/wiki/Laozi 33 Manzini (2006a) p.6 193


connessioni tra utenti ed imprese, mediando quindi tra differenti interessi. Grazie alle sue capacità di visualizzazione e di anticipazione, può gestire la compresenza di interessi multipli e discordanti, ricordando allo stesso tempo i vantaggi che derivano dalla collaborazione collettiva. Nella complessità della società attuale, l'importanza delle comunità Open Peer-to-Peer risiede nella loro capacità di risolvere autonomamente problemi complessi. È chiaro che, con comunità che rivestono un ruolo attivo, un designer deve riconoscere loro questo ruolo, fornire le proprie competenze e conoscenze, per permettere loro di trovare il modo migliore di risolvere problemi complessi. Una organizzazione gerarchica, lineare, riduttiva, non riesce ad affrontare la complessità della società, mentre una comunità che si autoorganizza, influenzata dal contesto ma non controllata, attraverso le interazioni dei propri membri, è più flessibile nello svolgimento delle proprie attività. Un designer deve quindi fornire una struttura di supporto minima affinché siano i partecipanti a organizzarsi autonomamente. Il senso di autenticità della partecipazione, cioè della vera influenza delle proprie azioni e decisioni, rappresenta il migliore incentivo alla partecipazione stessa. Il punto fondamentale del ruolo di facilitatore è quello di aiutare i partecipanti a breve termine evitando di renderli dipendenti nel lungo termine. Le caratteristiche del ruolo di facilitatore sono le seguenti: 1. il facilitatore è uno dei partecipanti e questo già vale a modificare l'ubicazione e l'identificazione del problema. In questo modo porta anche lui una prospettiva diversa; 2. il facilitatore non sa con precisione che cosa sta cercando (“qual è il problema?”), non ha ipotesi prestabilite da dimostrare perché auspica che un soluzione originale emerga dall'analisi collettiva del problema. Il suo progetto è un esperimento aperto. 3. il facilitatore sente la necessità morale di arrivare ad una soluzione, anche modificando le proprie concezioni ed opinioni; 4. non conoscendo il risultato, il facilitatore rischia di incorrere nella confusione e nel conflitto. La garanzia sta nel rimanere in stretto contatto con la situazione concreta (cioè il contesto), nell'essere obiettivo e preciso nell'osservazione e nell'ascolto nonché rigoroso nell'analisi; 5. un facilitatore non è un allenatore (trainer) in quanto non guida la comunità verso uno specifico obiettivo o direzione;

2.

3. 4.

soggetti coinvolti; l'adattabilità di tempi, modi e strumenti alle caratteristiche personali e professionali dei soggetti coinvolti e del contesto in cui si svolge il processo; per cui, anche se guidato da una metodologia precisa, ogni progetto possiede un proprio profilo e produce risultati distinti; la valorizzazione delle capacità e delle risorse disponibili localmente; il sistematico coinvolgimento di tutti gli attori attivati nell'analisi e nella valutazione del processo e dei risultati raggiunti.

Ne consegue che il designer, come facilitatore di un processo di progettazione partecipata dovrebbe: 1. prestare attenzione non solamente a che cosa fa, ma soprattutto a come e quando lo fa; 2. essere trasparente, chiaro e realistico durante il processo; 3. servirsi di una gamma di azioni e strumenti diversificati e mantenuti nel tempo; 4. privilegiare la comunicazione interpersonale e faccia a faccia; 5. utilizzare approcci che toccano il cuore (con i sentimenti, l'estetica, ecc.), la testa (con il rigore scientifico e la professionalità) e le mani (con interventi concreti grazie ai quali è possibile intravedere cambiamenti rapidi, anche se piccoli); 6. fornire costantemente una anticipazione dei vantaggi finali, in modo da mantenere costante l'interesse per la collaborazione; 7. aiutare i partecipanti a decidere le regole fondamentali e a seguirle; 8. favorire una partecipazione attiva anche da parte di quei membri che sono meno portati ad esporsi pubblicamente. In pratica, deve "costruire" uno spazio dove tutti i partecipanti si sentano a proprio agio; 9. non deve favorire un partecipante o una idea; 10. non deve permettere che i partecipanti trascurino un tema complesso solo per la difficoltà incontrata; 11. non deve cercare di indirizzare la comunità verso una direzione che solo lui ritiene auspicabile.

Un approccio progettuale dove il designer è un facilitatore si basa sulle seguenti caratteristiche34: 1. la condivisione, fin dall'inizio, della natura e dello scopo del processo da parte di tutti i

L'applicazione di una tale strategia, come è stato verificato in moltissimi casi, permette di raggiungere obiettivi generali35: 1. il rafforzamento del senso di appartenenza della comunità al luogo in cui vive; 2. il consolidamento dei principi della democrazia diretta (incoraggiando il senso di responsabilità dei cittadini verso le cose e gli spazi pubblici); 3. un incremento della motivazione, della comprensione e del divertimento; 4. una diminuzione dei conflitti tra le parti a fronte di progetti più condivisi;

34 Lorenzo (1998)

35 Idem

194


5.

6.

7.

8.

9.

il conseguimento di una maggiore efficienza (contenimento dei costi) e di una maggiore efficacia (più consonanza tra prodotti e bisogni della comunità); uno scambio proficuo tra chi abita la città (e ne conosce esigenze e dinamiche) e chi la progetta e la gestisce (ne conosce processi e regole); l'acquisizione di una più alta consapevolezza circa i reali bisogni della città, sia da parte degli amministratori e dei tecnici, sia da parte degli abitanti; una qualità di progettazione più sofisticata (cioè più ecologica,flessibile e incrementale); un effetto moltiplicatore che propaga l'applicazione di questa strategia anche in altri contesti, a volte non previsti.

195


196


2.

Progetto e comunità: la piattaforma

2.1. Architettura, urbanistica e comunità locali Per capire come possa essere sviluppato un approccio progettuale rivolto a comunità Open Peer-to-Peer, conviene analizzare quali altre discipline progettuali abbiano affrontato il tema della comunità e come abbiano risolto un approccio progettuale a lei indirizzato. Ci si trova infatti in una situazione in cui il tema della "progettazione di comunità" non sia stato affrontato dal design, se non recentemente nei programmi di ricerca sul rapporto design-sviluppo locale oppure nella progettazione di comunità online. Tradizionalmente, infatti, le discipline progettuali che si sono interessate ad una progettazione rivolta verso comunità sono state architettura e urbanistica. Certamente il tema della partecipazione nelle discipline dell'architettura e dell'urbanistica è sconfinato, ciò che qui interessa è capire in che modo abbiano risolto il tema del "progetto della comunità" e come abbiano sviluppato un approccio progettuale basato sulla partecipazione della comunità. Bisogna infatti capire come sia possibile "progettare una comunità", cioè in che modo si possa indirizzare un intervento progettuale, su quale oggetto "progettabile". Ovviamente, le riflessioni teoriche sul ruolo dell'architettura e dell'urbanistica nel miglioramento delle condizioni locali sono numerose, ciò che è importante sottolineare è che ciò che progettano è lo spazio di insediamento della comunità. Per l'architettura e l'urbanistica, anche se lavorano a scale differenti, quando intervengono su una comunità questa è sempre una comunità locale, cioè una comunità insediata in una specifica area geografica. Un intervento progettuale architettonico o urbanistico riguarda la organizzazione spaziale delle attività e delle relazioni, sia sociali che economiche, nel senso che lo spazio viene predisposto in modo da facilitare la loro formazione e svolgimento. L'oggetto della progettazione non è quindi l'attività o le relazioni sociali in sé, ma il substrato fisico in cui poi queste si sviluppano. Architettura ed urbanistica non intervengono direttamente su attività e relazioni, ma indirettamente, e quando lasciano loro un campo di autonomia ridotto, i progetti si rivelano un completo o quasi fallimento. Il Corviale, progettato da Mario Fiorentino nel 1973 e ultimato nel 1982, è un perfetto esempio di un progetto sviluppato a tavolino secondo un'idea architettonica affascinante senza però tenere in conto delle esigenze ed aspirazioni degli abitanti, delle loro radici culturali e dei loro modi di vivere,

dei probabili effetti sulla comunità (violenza, estraniamento), tanto meno del clima locale. Sulla collina raggiungibile dalla via Portuense, priva di collegamenti razionali da Roma, fu costruito un edificio in linea lungo un chilomentro, alto undici piani, accoppiato ad un altro edificio minore. All'interno alloggi per cinquemila persone, distribuiti in un nastro colossale di cemento, scandito da cinque torri. Ad ogni piano una rete di scale buie e di camminamenti deserti. Una galleria centrale, dritta e lunga quanto il colosso, progettata per accogliere studi professionali, agenzie, negozi1. Un naufragio noto anche attraverso le cronache televisive è anche quello del quartiere ZEN (Zona Esterna Nord) di Palermo, progettato da Vittorio Gregotti nel 1969, iniziato nel 1976, realizzato lentamente senza i servizi previsti, senza scuole, asili, campi sportivi, centro di quartiere2. Certo, questi insuccessi sono dovuti in gran parte al fatto che la costruzione degli edifici è avvenuta con gravi ritardi e e la erogazione dei servizi previsti è avvenuta solo in parte. Ma sono un esempio di come, quando la progettazione limita l'autonomia di relazioni ed attività, queste riescono comunque ad auto-organizzarsi modificando il progetto stesso3. Sono un esempio di come una progettazione di tipo top-down e centralizzata non sia in grado di affrontare la complessità di una comunità e di come questa risponda modificando il progetto in modo bottom-up e decentralizzato. Architettura e urbanistica danno forma agli spazi che verranno utilizzati da relazioni ed attività, ma questi, senza una partecipazione attiva, non possono essere dei luoghi. Secondo Giancarlo de Carlo4 un luogo è "uno spazio abitato. Senza lo spazio non può esserci luogo, ma lo spazio in sé non basta a fare luogo, perché uno spazio diventa luogo se e quando è esperito, usato, consumato e perennemente trasformato dalla presenza umana. Un luogo è tanto più luogo quanto è più plurale, e cioè quanto meno è specializzato perché la specializzazione asciuga la capacità di cambiare, di adattarsi, di bilanciare il proprio consumo, di acquisire ulteriore significato oltre quello attribuito. Il suo intervento si ricollega all'opera di Marc Augé5, il quale si chiede se la nostra società non stia distruggendo il concetto di luogo, così come si è configurato nelle società precedenti. Il luogo infatti ha tre caratteristiche: è identitario e cioè tale da contrassegnare l’ identità di chi ci abita; 1 2 3 4 5

Fazio (2000) Idem Duzzi (2005) De Carlo (2004) Augé M. (1993), Nonluoghi. Introduzione ad una antropologia della surmodernità, Eleuthera, Milano 197


è relazionale nel senso che individua i rapporti reciproci tra i soggetti in funzione di una loro comune appartenenza; è storico perché rammenta all’ individuo le proprie radici. Si assiste, secondo Augé, alla massiccia proliferazione di non-luoghi (caratterizzati dal fatto di non fornire identità, di non essere storici, di non essere relazionali) frutto di tre eccessi tipici dell'età contemporanea (eccesso di informazione, di immagini, di individualizzazione). I non luoghi, individuati con acutezza da Marc Augé, sono i nodi e le reti di un mondo senza confini. Per De Carlo è forse possibile ridare un senso di luogo ai non luoghi, ma solo grazie alla introduzione di nuove attività e relazioni da parte delle persone, in modo da "modificare" il progetto esistente, utilizzandolo per un altro scopo. È fenomeno questo osservato in tutta Europa, Corviale compreso6. Melissa Mean e Charlie Tims7 sviluppano una considerazione simile nel loro libro People Make Places. In seguito ad una ricerca di un anno sugli spazi pubblici di tre città inglesi, Cardiff, Preston e Swindon, Mean e Tims giungono alla conclusione che sia più opportuno considerare lo spazio pubblico non come uno spazio fisico predeterminato, ma come una esperienza creata dalle interazioni che avvengono tra le persone e il luogo. In altre parole, per Mea e Tims lo spazio pubblico non è dato in maniera predefinita e predeterminata dai progettisti, ma viene coprodotto attraverso il coinvolgimento attivo dei cittadini. Ciò che rende lo spazio uno spazio pubblico è la sua condivisione da parte di differenti gruppi di persone. Il grado di condivisione e di carattere pubblico di uno spazio può essere misurato in termini di "abilità a fornire una piattaforma per la creazione di differenti tipi di esperienze da parte di differenti cittadini"8Uno spazio pubblico co-creato è caratterizzato da una fiducia reciproca dei cittadini e dall'apertura alla diversità di persone e attività. La co-produzione impedisce inoltre la frammentazione dello spazio pubblico fra differenti attori isolati fra loro: data la capacità di autoorganizzazione che la co-produzione permette, gli spazi diventano flessibili e adattabili a differenti esigenze. Attraverso la co-produzione uno spazio pubblico fornisce una piattaforma per processi di scambio, di interazioni e di flusso di informazioni, vitali per il funzionamento di una città. Per Mean e Tims9 gli spazi pubblici possono quindi essere visti come "servizi pubblici auto-organizzanti", che forniscono uno spazio condiviso in cui si possano creare beni e valori non producibili singolarmente. Per Mean e Tims la co-produzione è l'unico modo in cui è possibile permettere una fruizione dello spazio pubblico a tutti i cittadini che, avendo motivazioni, necessità e capacità differenti, 6 7 8 9

Abramovic et al. (2003), Duzzi (2005) Mean, Tims (2005) Ibidem p.52 Ibidem p.9

198

reagiscono in maniera differente. Così come Mean e Tims parlano di co-produzione dello spazio pubblico come un servizio pubblico condiviso, Hilary Cottam e Charles Leadbeater parlano di servizi pubblici co-creati10, in modo da valorizzare ed utilizzare le risorse distribuite geograficamente e fra i cittadini in maniera flessibile. In architettura ed urbanistica, quindi, una progettazione rivolta verso una comunità non progetta le sue relazioni, ma il suo substrato fisico, l'infrastruttura o la piattaforma (come la chiamano Melissa Mean e Charlie Tims) per l'emergenza delle interazioni e delle relazioni reciproche tra le persone. La comunità stessa ha un ruolo attivo nella co-progettazione (o co-produzione o cocreazione), e la sua partecipazione rappresenta una maggiore probabilità che il progetto elaborato sia più adatto alle sue esigenze. Nell’ambito delle politiche urbane e i processi di trasformazione il concetto di partecipazione fa riferimento alle possibilità concesse al cittadino, alla comunità locale di influire sui processi stessi e sulla loro gestione. L’assunzione di un approccio partecipativo rappresenta un vantaggio in termini d’efficacia, efficienza e sostenibilità degli interventi. “La scala della partecipazione” di Arnstein del 1969 classifica gli approcci possibili alla partecipazione partendo dalla totale esclusione del cittadino dal processo per arrivare alla situazione in cui la progettazione e la gestione di una trasformazione è totalmente in mano ai cittadini11. Risalendo la scala i cittadini acquistano potere reale d’influire sulle decisioni e i cambiamenti che li riguardano. La scala mette in luce anche che “poca partecipazione” (gli ultimi due gradini) può significare “falsa partecipazione”: soltanto i primi tre scalini rappresentano un vero potere dei cittadini. Questa scala ha quindi il pregio di mostrare chiaramente l'importanza e l'efficacia delle varie forme di partecipazione. Per classificare la partecipazione, è possibile utilizzare una scala simile proposta da Nabeel Hamdi e Reinhard Goethert all'interno dell'approccio progettuale Action Planning12 dove viene classificata in base al grado di coinvolgimento della comunità nel processo progettuale (fig.57). In base a questa scala Nabeel Hamdi e Reinhard Goethert propongono uno strumento per classificare e scegliere strumenti e strategie in base alla fase progettuale e al tipo di partecipazione desiderato. È questo strumento una semplice matrice, dove sull'asse verticale vengono posti i gradi di partecipazione e su quello orizzontale le fasi progettuali. In questo modo il progettista può analizzare, per ogni fase progettuale, quale livello di partecipazione è auspicabile e quale siano gli strumenti più adatti. Questa matrice si basa su un concetto fondamentale: la partecipazione della comunità non è un obiettivo in sé, ma uno strumento 10 Cottam, Leadbeater (2004) 11 Arnstein (1969) 12 Hamdi, Goethert (1997)


orientato ai migliori risultati per la comunità stessa. Non è detto, infatti, che la partecipazione porti necessariamente a buoni risultati, anche se può dare maggiori probabilità. Grazie a questa matrice è possibile comprendere quando la partecipazione è auspicabile o necessaria. In questo modo la matrice è uno strumento di gestione del processo progettuale (a process design tool). All'interno di questi differenti livelli possono essere utilizzate differenti strategie di comunicazione con la comunità13, anche in base al tipo di progetto da sviluppare14, attraverso dei principi fondamentali15. Sono questi strumenti e principi che sono stati elaborati nel corso di decenni e possono anche essere consultati in casi pratici di intervento progettuale di design rivolto a comunità Open Peer-to-Peer. Per descrivere i differenti gradi della scala della partecipazione, Nabeel Hamdi e Reinhard Goethert utilizzano la metafora dell'agente esterno (outsider), il cui grado di coinvolgimento varia in relazione al grado di coinvolgimento della comunità.

13 Http://www.communityplanning.net/methods/methods .htm 14 http://www.communityplanning.net/scenarios/scenario s.htm 15 Http://www.communityplanning.net/principles.htm 199


potere ai cittadini

controllo ai cittadini potere delegato partnership

partecipazione irrisoria

consultazione informazione assecondamento

non partecipazione

trattamento terapeutico manipolazione

Tabella 11: Scala della partecipazione (Fonte: Arrnstein 1969)

Fig. 57: Matrice dei livelli di partecipazione in un intervento progettuale (Fonte: Hamdi, Goethert 1997)

200


È un agente esterno in quanto non riuscirà mai a comprendere pienamente la comunità e le sue esigenze, ma può aiutarla come facilitatore concordando la relazione fra i loro ruoli. I cinque gradi possono quindi essere descritti attraverso la relazione agente esterno – comunità (fig.58): 1. nessun coinvolgimento: l'agente esterno è l'unico responsabile di tutti gli aspetti della progettazione, con nessun coinvolgimento da parte della comunità. Solitamente ciò accade quando le circostanze richiedono conoscenze sofisticate. È un approccio molto rischioso, in quanto il progetto potrebbe non corrispondere alle caratteristiche della comunità, ma permette una notevole rapidità di sviluppo; 2. coinvolgimento indiretto: è questo un livello simile al precedente, ma in questo caso l'agente esterno raccoglie informazioni sulla comunità da fonti indirette (cioè, non direttamente dalla comunità). La scelta di questo livello di partecipazione necessita di due condizioni: la disponibilità di sufficienti informazioni affidabili sulla comunità e il possesso di capacità di analisi delle informazioni da parte dell'agente esterno. In questo livello il rischio di un progetto non corrispondente alla comunità è inferiore rispetto al livello precedente, ma non è conveniente in situazioni in rapido cambiamento; consultativo: l'agente 3. coinvolgimento esterno elabora il progetto sulla base di informazioni ricevute direttamente dalla comunità; effettua poi proposte e sollecita commenti e reazioni da parte della comunità. È questo un livello poco adatto alla ricerca di suggerimenti da parte della comunità, ma appropriato se si ricerca l'approvazione di una idea o proposta; 4. coinvolgimento con controllo condiviso: a questo livello la comunità e l'agente esterno interagiscono ad un livello paritario, dove entrambi sono in possesso di risorse e capacità che possono essere utili all'altro. In questo caso sono entrambi sta