Page 1

Axel Vogelsang

Web 2.0: Schwarmintelligenz oder Diktatur der Massen?


Axel Vogelsang

212

Web 2.0: Schwarmintelligenz oder Diktatur der Massen?

Emergenz: Das Ganze ist mehr als die Summe seiner Teile

Computernetzwerke waren bis Mitte der neunziger Jahre des 20. Jahrhunderts zumeist Spezialisten vorbehalten. Seit der Nutzbarmachung des Internet für die Allgemeinheit, insbesondere durch die Einführung des World Wide Web, ist die Teilnahme an digitalen Netzwerken in der entwickelten Welt zur Normalität geworden. Insofern stellt das Web eine Organisationsform dar, in der in nie zuvor gekannter Art und Weise Hunderte von Millionen von Menschen organisiert sind und in der theoretisch alle Mitglieder direkten Kontakt miteinander aufnehmen können. Somit wurde gerade in den letzten Jahren der Vergleich zwischen einem Insektenvolk und solchen digitalen Informationsstrukturen bemüht. In diesem Zusammenhang machte vor allem das Wort von der Schwarmintelligenz die Runde. Im Englischen wird dieser Begriff mit „hive mind” übersetzt, wobei „hive” nicht nur für den Schwarm steht, sondern auch für den Bienenstock. Die Verfechter einer Schwarmintelligenz sind der Meinung, dass soziale Strukturen so etwas wie eine gemeinsame Intelligenz entwickeln, die höher entwickelt ist als die des Individuums. Im Folgenden soll dieser Anspruch dem Hintergrund des Webs als eines sprachlichen und textlichen Mediums untersucht werden.

„Wahnsinn bei Individuen ist selten, aber in Gruppen, Nationen und Epochen die Regel.“ An dieses Zitat von Nietzsche erinnert Surowiecki [1] zu Beginn seines eigenen Buches. Er selbst nämlich hat sich des umgekehrten Phänomens, „der Weisheit der Massen“ angenommen. Surowiecki argumentiert, dass Gruppen und sogar grosse Menschenmassen sehr gut in der Lage sind, gemeinsam Lösungen zu finden, welche den Horizont des Einzelnen überschreiten. Eine seiner Thesen ist gar, dass unsere Gesellschaft sich zu sehr auf Experten verlässt. Das heisst aber nicht, dass Surowiecki gegen Expertentum oder Individualismus argumentiert. Er kommt vielmehr zum Schluss, dass eine funktionierende Gesellschaft auf zwei Faktoren basiert: zum einen auf möglichst unabhängigen Individuen, die möglichst unterschiedliche Lösungsansätze erzeugen, zum anderen auf sozialen Mechanismen, die es erlauben, aus diesen Ansätzen die für die Gemeinschaft beste Lösung herauszufiltern. Surowiecki verweist in diesem Zusammenhang auf Bienenvölker. Individuen schwärmen auf der Suche nach Nahrung im Umkreis des Stocks aus und informieren ihre Artgenossen nach der Rückkehr über ihren Fund in der Form eines ritualisierten Tanzes. Je intensiver dieser Tanz, desto besser die Nahrungsquelle, und desto mehr Artgenossen werde vom Tänzer angezogen. Wie an diesem Beispiel zu sehen, geht es Surowiecki vor allem um Aspekte der Effizienz. Er argumentiert, dass Lösungen zu „Kooperationsund Koordinationsproblemen“ in Gesellschaften und Märkten in der Regel nicht von oben nach unten installiert werden, sondern aus der Masse erwachsen. Im Folgenden soll es gar nicht so sehr darum gehen, inwieweit diese Argumentation greift, sondern eher um die metaphysischen Vorstellungen, die sich im weiteren Umfeld von Surowiecki tummeln. Er selbst vermeidet in diesem Zusammenhang bezeichnenderweise zwei Begriffe, nämlich Schwarmintelligenz und Emergenz.

Ganz im Gegensatz dazu Kelly [2]: Dieser bezeugt eine sehr eindrückliche Vorführung durch den Künstler Loren Carpenter. Im Jahr 1991 lud dieser ein 5000 Personen starkes Auditorium einer Computergrafik-Konferenz zu einer Partie des legendären Computer-Pingpong – genannt Pong – ein. Das Spiel wurde anhand eines grossen Monitors in die Halle projiziert. Das zweigeteilte Publikum konnte den Schläger auf der jeweils eigenen Seite des Spielfeldes gemeinsam nach oben und unten bewegen. Hierzu hatte jede Person ein Stück Karton in der Hand, grün auf der einen Seite, rot auf der anderen. Ein ausgeklügeltes System von Kameras beobachtete die Farbverteilung im Raum. Dominierte Grün auf einer Seite des Raums, ging der entsprechende Schläger nach unten, bei Rot ging er nach oben. Kelly beschreibt, wie das Publikum durch Drehen der persönlichen Farbkartons und ohne vorherige Absprache sehr schnell eine passable Partie Pong zustande brachte und sogar in der Lage war, auf eine Beschleunigung des Spiels zu reagieren. 5000 Individuen verschmolzen somit spontan zu zwei Schwärmen, die eine erstaunliche spontane Koordination aufwiesen. Für Kelly ist dieses Beispiel ein Beleg für sogenannte Schwarmintelligenz unter Menschen.

213

Der Grundgedanke der Schwarmintelligenz basiert auf der Vorstellung, dass der Schwarm durch Kooperation seiner Individuen eine Gesamtintelligenz entwickelt, welche die Summe seiner Teile übersteigt. Der Entomologe Wheeler [3] kam aufgrund seiner Forschungen mit verschiedenen Insektenarten schon zu Beginn des 20. Jahrhunderts zu dem Schluss, dass aus einzelnen Insektenvölkern als Folge der sozialen Interaktion ein Superorganismus emergiert. Jedes einzelne Nest, so Wheeler, entwickelt seine eigene Gestalt in der Form von sozialen und architektonischen Eigenheiten. Die Idee, dass das Zusammenspiel von untergeordneten Strukturen neue übergeordnete komplexere Strukturen kreiert, ist auch der Philosophie nicht unbekannt. Vernadsky [4], ein Zeitgenosse Wheelers, prägte den Begriff der Noosphäre, der die Sphäre der menschlichen Gedankenwelt beschreibt. Diese sei aus der Biosphäre emergiert, mit der gleichen Konsequenz wie schon zuvor die Biosphäre ein kreatives Produkt der Geosphäre gewesen sei. Der Theologe Teilhard de Chardin [5] bezeichnet die Noosphäre als transhumanes Bewusstsein, eine Emergenz als Folge zwischenmenschlicher Interaktionen. Ein wichtiger Aspekt dieses Konzepts ist, dass Emergenz ein kreativer Vorgang ist. Das Ergebnis des Prozesses ist weder aus dem Verhalten und der Funktion der Einzelteile bzw. Individuen abzuleiten, noch ist es vorhersehbar.


Axel Vogelsang

Der Gedanke der Emergenz hat seit geraumer Zeit auch seinen Widerhall in der Computertechnologie gefunden. Die verschiedensten Versuche, künstliche Intelligenz konkret zu modellieren, brachten bisher nicht die erwünschten Ergebnisse. Seit einigen Jahren schon experimentiert man deswegen mit sogenannten weichen, indirekten Methoden – soft computing – in der Hoffnung, dass Künstliche Intelligenz irgendwann aus der Komplexität der zugrunde liegenden Struktur emergiert. Für Bolz [7] ist diese Vorstellung bereits Wirklichkeit geworden. Auch wenn sich darüber streiten lässt, soll es hier nicht so sehr um die Emergenz maschineller künstlicher Intelligenz gehen, sondern um einen anderen Aspekt der Emergenz im Bereich digitaler Netzwerke: nämlich um die Vorstellung, dass aus der Kombination von textlicher Kommunikation und digitalen Netzwerken neue Qualitäten entstehen.

214

Web 2.0: Schwarmintelligenz oder Diktatur der Massen?

Das globale Gehirn Als das World Wide Web Anfang der neunziger Jahre das Internet einer breiten Öffentlichkeit zugänglich machte, waren es sehr bald kommerzielle Unternehmen und Nachrichtenplattformen, welche das neue Medium dominierten. Auch wenn der Informationsfluss im Web theoretisch von Vielen zu Vielen verlaufen kann, so folgte er im Beginn doch oftmals eher der traditionellen Laufrichtung klassischer Massenmedien, bei der einige Wenige Informationen an Viele verteilen. O’Reilly nennt das Web 1.0 in diesem Zusammenhang schlicht einen „zusätzlichen Vertriebskanal“ [8] für die Industrie. Die Technologien, um eigene Webinhalte zu erstellen, waren für viele Nutzer zu diesem Zeitpunkt einfach noch zu kompliziert und unzugänglich. Seit dem Platzen der dot.com Blase im Jahr 2001 jedoch hat ein neues Phänomen Einzug gehalten, das sogenannte Web 2.0. Dieser Begriff ist nicht unumstritten, und auch einer der Hauptverfechter, Tim O’Reilly [9] spricht davon, dass die Bedeutung des Web 2.0 nicht klar definiert werden kann, sondern eher um gewisse Kernwerte gravitiert: Es geht dabei hauptsächlich um die Ermächtigung des einzelnen Anwenders. Die Erstellung, der Austausch und sogar der Remix von Daten werden zum Kinderspiel. Die Grenzen einzelner Webplattformen zerfliessen im Austausch verschiedener Datenströme, und eine Webseite ist oftmals nur noch eine Momentaufnahme eines bestimmten Zustandes dieser Bewegungen von Informationen. Nicht nur Texte, sondern auch Bilder und Filme können heutzutage auf einfachste Art und Weise erstellt und auf dem Web zugänglich gemacht werden.

Eines der vielen Phänomene in diesem Zusammenhang ist die sogenannte Blogosphäre. Blogging, das Führen eines digitalen Tagebuches, hat sich in den letzten Jahren zu einem Massenphänomen entwickelt, und nicht wenige Blogger haben es sogar geschafft, die Vorherrschaft traditioneller Medien zu brechen. Unter den hundert meistgelesenen Nachrichtenplattformen des Web sind nach Angaben von Technorati [10] 23 Blogs zu finden. Was in diesem Zusammenhang jedoch viel interessanter ist, ist der Begriff der Blogosphäre an sich. Auf der Technorati-Seite – so etwas wie das Google der Blogosphäre – fliessen die Informationen von circa 75 Millionen Blogs zusammen. Diese Blogs wiederum werden ständig neu kombiniert durch Hyperlinks, sogenannte RSS-Feeds oder auch durch Plattformen wie Technorati oder Digg. O’Reilly sieht darin eine Form der Emergenz. Er spricht von der „Nutzbarmachung kollektiver Intelligenz“ und davon, dass das Web sich in eine Art „globales Gehirn“ verwandelt habe [9].

215

Um diesen Vorgang etwas verständlicher zu machen, bedarf es eines kleinen Exkurses in die Grundstruktur des Web. Das Web ist bekanntermassen ein sogenanntes Hypertextnetzwerk. Hypertext basiert auf der Idee, dass Texte nicht einfach isoliert existieren, sondern in ihrer digitalen Form durch Hyperlinks direkt miteinander verbunden werden können. So kann sich der Leser endlos von Text zu Text hangeln. In den letzten Jahren hat die Suchmaschine Google eine Art Metastruktur über diese Grundstruktur gelegt. Der PageRank-Suchalgorithmus, welcher der Idee von Google zugrunde liegt, funktioniert nämlich so, dass eine Webseite in dem Masse an Bedeutung gewinnt wie sie mit anderen Webseiten über Hyperlinks verbunden ist. Das heisst, je mehr Hyperlinks auf eine bestimmte Seite zeigen und je höher deren Qualität, desto mehr Bedeutung kommt ihr zu. Dies ist ein interessanter Paradigmenwechsel im Vergleich zu früheren Suchmaschinen und Verzeichnissen. Yahoo zum Beispiel basierte in den neunziger Jahren des 20. Jahrhunderts noch auf der Idee der redaktionellen Bewertung. Seit Google entscheidet die Stärke der Vernetzung über die Bedeutung einer Seite. Dies ist insofern von Bedeutung für die Blogosphäre, als sie von einer sehr stark selbstreferenziellen Szene getragen wird. Blogger zitieren, verweisen auf und kritisieren andere Blogger, und dabei entsteht ein sehr dichtes Netzwerk gegenseitiger Links, welches die Blogosphäre als solches, in der Aufmerksamkeit des PageRank-Algorithmus nach oben trägt. Damit, so O’Reilly, bestimmt plötzlich das Publikum – der Schwarm – die Agenda anstatt „einiger Einzelpersonen in einem Hinterzimmer“. Wenn man so will, ist die Dichte der Verlinkung vergleichbar mit der Intensität des Bienentanzes.


Axel Vogelsang

Intertextualität, Metaphysik und das Heer der blauen Ameisen Auch diese Vorgänge finden wiederum ihren Widerhall in der Philosophie. Doch zuvor ein Wort zu Vannevar Bush [11], der oft als der Urvater des Hypertextnetzwerks zitiert wird. Er war im zweiten Weltkrieg für die Koordination der Kriegsbemühungen der Amerikaner zuständig und erkannte, dass die potenziale Zunahme wissenschaftlicher Veröffentlichungen zunehmend zum Problem wurde. Bush suchte nach neuen Methoden, wissenschaftliche Arbeiten zu sichten und zu ordnen. Seine Überlegungen mündeten in einen praktischen – wenn auch nicht computergestützen – Vorschlag, der sogenannten Memex. Die Memex basiert auf der grundlegenden Erkenntnis, dass kein Text, auch nicht ein wissenschaftlicher, in Isolation existiert, sondern vielmehr auf anderen Texten aufbaut. Die Memex sollte dieser Tatsache mit Hilfe eines ausgeklügelten Systems von Mikrofiches gerecht werden, in dem der Wissenschaftler seinen Pfad durch verschiedene Texte festhalten und an Kollegen weiterreichen konnte. Somit sollte nicht nur der finale Text weitergegeben werden können, sondern auch die Texte, welche als Grundlage der schriftlichen Arbeit dienten. Die detaillierte technische Umsetzung ist in diesem Zusammenhang von untergeordneter Bedeutung. Viel interessanter ist es, dass die Philosophen des Strukturalismus und des Poststrukturalismus mit ähnlichen Gedanken spielten und als Folge das Ende der klassischen Form des abendländischen Textes, nämlich des Buches, prophezeiten. Das Grundargument lautete, dass das Buch sich durch die lineare Ausrichtung seines Textverlaufes sowie durch die Abgeschlossenheit seiner physikalischen Form zunehmend isoliere.

216

Dabei gehe es doch heutzutage gar nicht mehr um die Formulierung absoluter Wahrheiten, sondern um die Erklärung von Zusammenhängen und Beziehungen. Einzelne Denker wie Deleuze und Guattari [12] in „1000 Plateaus” unternahmen folgerichtig den Versuch, aus der Konvention des Buches auszubrechen, wenn auch mit Hilfe des Buches. Die Idee, dass Texte nicht als abgeschlossene Einheiten existieren, sondern aufeinander aufbauen und ineinander verwoben sind, bezeichnet man als Intertextualität. Als nun Anfang der neunziger Jahre des 20. Jahrhunderts Hypertextmedien langsam Realität wurden, sahen einige Literaturwissenschaftler darin eine faszinierende Möglichkeit, den gedruckten Text aus seiner vermeintlichen Isolation zu befreien. Vor allem Landow [13] und Bolter [14] äusserten sich dahingehend, dass diese Form des Schreibens nun endlich in der Lage sei, den Text als das darzustellen was er eigentlich sei, nämlich ein Netzwerk . Es passt dazu, dass Ted Nelson [15], einer der Pioniere digitaler Hypernetzwerktechnologie, seine Vision des Hypertexts als „literarische Maschine“ bezeichnet.

Web 2.0: Schwarmintelligenz oder Diktatur der Massen?

Das vorherige Beispiel der Blogosphäre, in der in einer Wechselbeziehung zwischen Schwarm, Text und Netzwerktechnologie eine Art kollektives Unterbewusstsein erzeugt wird, scheint den Intertextualisten unter den Hypertexttheoretikern Recht zu geben. Ist solch ein Phänomen nicht Ausdruck einer Emergenz, in der das Netzwerk den einzelnen Text transzendiert? Zuerst einmal muss man feststellen, dass Massenmedien über die konkrete Botschaft hinaus schon immer Kristallisationspunkte für Geisteshaltungen, Meinungen und Ängste waren. Als illustratives Beispiel seien hier die amerikanischen Superhelden-Comics angeführt, allen voran die des Marvel Verlags, deren verschiedenste Titel sich seit dem Zweiten Weltkrieg mit immer dem gleichen Thema beschäftigen: Das kleinbürgerliche Amerika wird bedroht durch das Böse und schliesslich gerettet durch den archetypischen Helden aus den eigenen Reihen. Parallelen zu historischen Konstellationen sind da naheliegend und nicht zufällig. Das Spiegeln solcher bewussten und unterbewussten kollektiven Tendenzen reicht also nicht aus, um dem Medium Hypertext eine neue Qualität zuzuschreiben.

217

Und die Hypertexttheoretiker und ihr Umfeld zielen ja auch viel höher. Es geht ihnen nicht um die Sichtbarmachung eines kollektiven Unterbewusstseins oder um die technische Darstellung der Intertextualität an sich. Winkler [16] hat beschrieben, dass es letztendlich um den Traum geht, die Distanz zwischen gedachter und ausgedrückter oder „externalisierter“ Sprache zu überwinden. Das heisst, Sprache als symbolisches System wird immer nur unzureichend in der Lage sein, Gedanken zu beschreiben. Sie ist eine Form der Komprimierung. Der Lesende und/oder Hörende muss das Wahrgenommene dekomprimieren, indem er ihm einen Sinn gibt. Und natürlich verzerrt dieser Vorgang das ursprünglich Gedachte. Der utopische Traum der Hypertexttheorie, so Winkler, mündet darin, dass aus der Sichtbarmachung der Intertextualität eine Intelligenz emergiert, welche diesen Mangel der Sprache aufhebt. Winkler führt dabei Bolz als Zeugen an, welcher diese Utopie am eindeutigsten zum Ausdruck bringt, wenn er davon spricht, dass „der gesamte hermeneutische Gehalt eines Texts […] in der Verzweigungsstruktur seiner elektronischen Darstellung manifest“ sei. Das soll heissen, dass Hypertext in sich das metaphysische Versprechen trägt, den Leser von der Aufgabe der Interpretation zu befreien. Das ist im Übrigen nichts Neues. Schon McLuhan [17] verwies darauf, dass der Computer einen geradezu „spirituellen Zustand des universalen Verstehens“ jenseits der Sprache verheisst.


Axel Vogelsang

Natürlich ist solch ein Unterfangen zum Scheitern verurteilt. Ein symbolisches System, welches keiner Interpretation mehr bedarf, schafft sich selbst ab – oder den Menschen, je nach Bedarf. Sicherlich mag manch einer verzweifeln angesichts der Menge an Interpretationsmöglichkeiten, die die Sprache bietet. Doch Interpretation impliziert immer auch eine Wahl. Das Formulieren von Sprache wie auch das Deuten ist ein ständiger Vorgang der Entscheidungsfindung. Ein Zustand, in dem keine Entscheidungen mehr gefällt werden müssen, ist ein Zustand der Unmündigkeit. Folglich könnte sich der Traum der Hypertexttheoretiker auf ganz andere Art und Weise erfüllen, als sie sich eigentlich erträumt haben. Heim [18] prophezeite noch vor dem Siegeszug des Web, dass unsere Netzwerke mit immer mehr und immer bedeutungsloseren Texten zugemüllt würden. Somit gebe es dann letztendlich nichts mehr zu verstehen, und die Mühe der Interpretation erübrige sich.

218

Quantität muss nicht notgedrungen in eine neue Qualität umspringen, wie auch Jaron Lanier [19] feststellen musste. Der Amerikaner war in den 1980ern einer der Pioniere virtueller Realität und damit nur sehr schwer als geborener Maschinenstürmer zu diffamieren. Und doch sorgte er im Mai 2006 für einiges Aufsehen mit einem Artikel namens „Digitaler Maoismus“. Der Artikel wurde ausgelöst durch eine Eintragung auf Wikipedia. Wikipedia war lange Zeit eines der Vorzeigeprojekte des Web 2.0. Ist sie doch eine freie Enzyklopädie, ein grosses Gemeinschaftswerk der Webgemeinde, welches mittlerweile ein Zigfaches an Besuchen verzeichnet im Vergleich zur Webseite der wesentlich geschichtsträchtigeren Encyclopedia Britannica. Lanier war auf Wikipedia noch im Jahre 2006 als Filmregisseur aufgeführt. Er hatte auch tatsächlich in jungen Jahren einen Film gedreht, den er aber lieber unerwähnt lassen möchte; Lanier geniesst mittlerweile internationales Renommee durch seine Arbeit als Medienkünstler, -entwickler und -kritiker. Mehrfach versuchte er, seinen persönlichen Eintrag auf Wikipedia zu ändern, mit der Folge, dass einen Tag später irgendjemand die ursprüngliche, zumindest ungenaue Eintragung wiederhergestellt hatte. Statt einem Zusammenklang der Individuen, welcher in eine Schwarmintelligenz, eine höhere Form der Intelligenz umschlägt, sieht Lanier eine Diktatur der Massen heraufziehen und stellt die ketzerische Frage, ob die Massen denn irgendetwas Nennenswertes zu sagen hätten. Dies wird spätestens dann zur rhetorischen Frage, wenn Lanier darauf hinweisst, dass die etablierten Medien für den 27.03.06 mit einem Erdbeben auf Java titelten, wohingegen Popurls – eine Plattform, welche sich den populärsten Weblinks verschrieben hat – den Weltrekord im Eiskremeessen als das Tagesereignis hervorhebt. Wikipedia wird im Übrigen aufgrund der genannten Probleme in vielen akademischen Institutionen nicht als legitime Quelle akzeptiert.

Web 2.0: Schwarmintelligenz oder Diktatur der Massen?

Rhizomatische Strukturen und Googlebomben Es darf somit durchaus daran gezweifelt werden, dass der grosse Schwarm der Webgemeinde gleichsam automatisch in eine hyperintelligente Superstruktur emergiert. Das soziale Zusammenspiel zwischen menschlichen Individuen ist eben doch etwas komplexer als das eines Ameisenvolkes. Die Anhänger einer Schwarmintelligenz machen es sich recht einfach, wenn sie sich auf den Aspekt der Emergenz konzentrieren und dabei ausklammern, dass es im Web wie bei vielen sozialen Strukturen nicht zuletzt um persönliche Interessen, Politik und Macht geht. Die Politik des 20. Jahrhunderts war geprägt von dem Kampf zwischen autoritären, zentralen Regimes auf der einen Seite und dezentralen, demokratischen Strukturen auf der anderen Seite. Gleichzeitig hinterfragte die Philosophie hierarchische Denkmodelle und Sprachstrukturen. Deleuze und Guattari [12] redeten dem Rhizom das Wort, einer netzartigen Struktur, in der ein Element mit dem anderen verbunden ist. Auch hier fällt wieder die Ameisenmetapher. Die Autoren vergleichen das Rhizom mit einem Ameisenstaat, in dem zwar Individuen vernichtet und einzelne Verbindungen unterbrochen werden können, die vernetze Grundstruktur jedoch für das Überleben des Gesamtorganismus sorgt. Es ist eine erstaunliche Ironie, dass es gerade der militärstrategische Aspekt dieser Metapher war, der zur Erfindung des Internet führte. Eine autokratische Struktur, das amerikanische Militär, gab in den sechziger Jahren des 20. Jahrhunderts den Auftrag zur Entwicklung einer Informationsinfrastruktur, welche durch einen vernetzten und dezentralen Aufbau einen Atomschlag überleben könnte.

219

Wenn man nun aber glaubt, dass solche Strukturen notwendigerweise für mehr Transparenz sorgen, dass sich sozusagen die rhizomatische Struktur gegen ihre autokratischen Ursprünge wendet, so ergibt sich bei genauerem Hinsehen ein etwas anderes Bild. Viele der Web 2.0-Plattformen, welche in der Anfangszeit durch gegenseitiges Vertrauen und Idealismus getragen wurden, werden mittlerweile unterlaufen: Vermeintlich genuine youTube-Persönlichkeiten erweisen sich als Spielzeuge ausgeklügelter viraler Marketingkampagnen, Parlamentsabgeordnete beschönigen ihre persönlichen Wikipediaeinträge und auch Lieblingskinder des Web 2.0 wie z. B. Flickr oder auch Digg standen in letzter Zeit im Brennpunkt heftiger Zensurdiskussionen. Es ist mittlerweile auch bekannt, dass viele der Leserrezensionen, welche lange Zeit eine der Stärken von Amazon.com waren, vermehrt von Verlagen oder Autoren bezahlte Auftragsarbeiten sind. Auch die Blogosphäre bleibt von solchen Phänomenen nicht verschont. So werden dort immer wieder sogenannte Googlebomben als politische Waffe eingesetzt: Durch das konzentrierte Verlinken auf bestimmte Artikel und gegenseitiges Querreferenzieren können Blogger gemeinsam dafür sorgen, dass bestimmte Texte im Zusammenhang mit bestimmten Suchbegriffen in der Google-PageRank-Wertung ganz nach oben geraten. So kann man zum Beispiel dafür sorgen, dass die Websuche nach dem Namen eines Politikers einen kompromittierenden Artikel auf Platz 1 aufführt. Somit sind auch die neuen Medien zum Schlachtfeld ideologischer Kämpfe und gezielter Manipulation geworden.


Axel Vogelsang

220

Web 2.0: Schwarmintelligenz oder Diktatur der Massen?

221

Schlussfolgerung

Die Auflösung hierarchischer Verlagsstrukturen, wie sie in den klassischen Printmedien herrschten, geht mit einem Verlust der Autorität oder, wie Flusser sagt, der „sprachbetreuenden Elite“ [20] einher. Lanier bezeichnet Wikipedia als ein „anonymes, quasi-autoritatives, anti-kontextuelles Gebräu“, in dem es keine einheitliche Stimme gibt. Er vermisst die Stimme des Autors beziehungsweise des Editors, die in klassischen Enzyklopädien durchaus erkennbar ist. So verweisst Lanier auf die Enzyclopedia Britannica, der vorgeworfen wird, sie sei die Stimme „toter weisser Männer“. Dies ist eine interessante Wendung, wenn man auf den Anspruch der Hypertexttheorie und die Idee einer Sichtbarmachung der Intertextualität zurückblickt. Anstatt Kontexte zu erhellen, ist das Web dabei, die Grenzen zwischen den einzelnen Texten sowie zwischen den Autoren zu verwischen. Schliesslich sind im Web die Ansprüche an Verifizierung und Referenzierung, wie sie von der hierarchischen Struktur eines Verlagshauses eingefordert werden können, viel schwieriger – wenn überhaupt – durchzusetzen. Hierzu passt auch, dass man mit der Hilfe von Feeds im Handumdrehen Webseiten mit hochdynamischen Inhalten zusammenbauen kann, ohne selber ein einziges Wort zu verfassen. Der Inhalt nährt sich einzig und allein aus den Datenströmen anderer Webseiten. Die Zerstörung von Autorität fordert somit ihren Preis. Mit der Auflösung der Grundbedingungen für textliche Autorität schwindet zwangsläufig auch der Glaube an die Identität der Autoren und die Authentizität des Geschriebenen.

Aber nicht nur inhaltlich findet ein Umbruch statt. Natürlich waren es auch die klassischen autoritären Strukturen des Verlagswesens, welche für eine erstaunliche Stabilität der Rechtschreibung und der Sprache an sich sorgten. Eine Schriftsprache, in der diese Autorität wegfällt, unterliegt einer ganz anderen Dynamik. Einige Autoren wie Bolter [14], Landow [13] und Glazier [21] glauben deswegen auch, dass das digitale Zeitalter eine radikale Änderung des Schreibens mit sich ziehen wird. Sie sind der Überzeugung, dass die Schrift ihre lineare Ausrichtung verlassen wird und vermehrt von Bildelementen durchsetzt oder gar abgelöst werden wird, und der Philosoph Flusser [20] sieht langfristig gar das Ende des Schreibens und Lesens gekommen.

Dass Kommunikation und mit ihr Sprache und Schrift momentan eine grosse Umwälzung durchlaufen, ist unumstritten, und dass mit zunehmender Durchdringung digitaler Technologien noch grössere Umwälzungen bevorstehen, ist wahrscheinlich. Die Theorie, dass das Web in einem Anflug von Schwarmintelligenz in einen hochintelligenten Superorganismus umschlägt, folgt jedoch einem sehr naiven technischen Determinismus à la McLuhan. Darüber hinaus impliziert dieser Gedanke die gefährliche Vorstellung, dass Verständnis eine Frage messbarer Intelligenz sei; so als gäbe es zu allen Fragen eine richtige Antwort, und nur die Beschränktheit des Individuums verhindere diese zu finden. Wenn man jedoch viele Millionen Menschen zu einem Superorganismus zusammenschliesst, so die Weiterführung dieser Logik, fänden sich diese richtigen Antworten schon von selbst. Ein solches Weltbild ist in Wirklichkeit wohl am ehesten von Computermetaphern geprägt. Und tatsächlich: Komplexe mathematische Probleme, die vor Jahrzehnten noch unlösbar schienen, können nun dank massiver Zunahme an Rechnerkapazität sehr wohl gelöst werden, vorausgesetzt das Problem, um das es geht, ist berechenbar. In der sprachlichen Auseinandersetzung zwischen Menschen, ob schriftlich oder mündlich, geht es aber nicht immer um Effizienz und darum, das richtige Ergebnis zu finden. Es geht nicht um den Austausch diskreter Informationseinheiten, die nach Empfang berechnet werden. Sprache ist eine soziale Funktion. Sie basiert auf Entscheidungen und Vereinbarungen, welche die Kommunizierenden treffen [22]. Dabei geht es auch um individuelle und kollektive Interessen, die sich oftmals diametral gegenüberstehen. Da muss diskutiert und nach Konsens gesucht werden, Kompromisse müssen geschlossen werden.

Die Hoffnung, dass das Web in einen Superorganismus emergiert, kann letztlich nur in einem Vorgang technologischer Gleichschaltung realisiert werden, in dem Sprache zu einer berechenbaren Masse wird, die zwischen verschiedenen Datenbanken hin- und hergeschoben wird. Und nicht von ungefähr erinnert Kellys Beispiel der Karten schwenkenden und Pong spielenden Massen eher an eine kommunistische Grossveranstaltung als an einen Ausdruck übergeordneter Weisheit. Das Wehklagen über neue Technologien macht sich natürlich immer verdächtig, eine verkappte Sehnsucht nach der guten alten Zeit zu sein. Schliesslich hat sich schon Platon [23] mächtig über die Unsitte des Schreibens aufgeregt. Aber vielleicht liegt Keen [24] – seines Zeichens selbst Blogger und Ex-Internetentrepeneur – doch gar nicht so falsch mit seiner provokanten Behauptung, dass das Internet und vor allem die Blogosphäre den Anfang des Untergangs abendländischer Kultur darstelle. Im Gegensatz zu Keen sei dies hier jedoch völlig emotionslos und wertfrei dahingestellt. Denn wenn die abendländische Kultur auf der geschriebenen Autorität einzelner Autoren beruht, dann muss eine Kultur, in der Texte keinerlei Autorität mehr geniessen und nur noch Hintergrundgeräusch sind, andere Formen der Identitätsstiftung finden.


Axel Vogelsang

222

Literaturverzeichnis Anmerkung: Die allermeisten Zitate stammen aus englischen Quellen und wurden vom Autor selbst übersetzt. [1] Surowiecki, J. The wisdom of crowds. London 2004 [2] Kelly, K. Out of control: the rise of neobiological civili zation. Boston 1994 [3] Wheeler, W.M. Emergent evolution and the social. London 1927 [4] Samson, P.R. & Pitt, D. (Hrsg.) The biosphere and noosphere reader. London1990 [5] Teilhard de Chardin, P. The phenomenon of man. London 1959 [6] Minsky, M. Why A.I. is braindead. Internet 2003, http://www.wired.com/wired/ archive/11.08/view.html?pg=3 (accessed: 20 May 2007) [7] Bolz, N. Bang Design. Hamburg 2006 [8] Hornig, F. Das Mitmachnetz: Der Spiegel Special. Leben 2.0 – Wir sind das Netz, 2007 [9] O‘Reilly, T. What is Web 2.0: design patterns and business models for the next generation of software Internet 2005, http://www.oreillynet.com/ pub/a/oreilly/tim/news/2005/09/30/what-is web-20.html (accessed: 18 May 2007) [10] Sifry, D. The state of the live web. Internet 2007, http://www.sifry.com/alerts/ar chives/000493.html (accessed: 20 May 2007) [11] Bush, V. As we may think. The Atlantic Monthly, 1945 [12] Deleuze, G. & Guattari, F. A thousand plateaus. Minneapolis 1987 [13] Landow, G.P. Hypertext, 3rd ed., The John Hopkins Univer sity Press, London 2006

[14] Bolter, J.D. Writing space, 2nd ed., Lawrence Erlbaum Associates, London 2001 [15] Nelson, T.H. Literary machines. Mindful Press, Sausalito CA 1992 [16] Winkler, H. Docuverse. Boer 1997 [17] McLuhan, M. Understanding Media. Abacus 1973 [18] Heim, M. Electric language: a philosophical study of word processing. New Haven & London 1999 [19] Lanier, J. Digital Maoism: the hazards of the new on line collectivism. Internet 2006, http://www. edge.org/3rd_culture/lanier06/lanier06_in dex.html (accessed: 18 May 2007) [20] Flusser, V. Die Schrift: hat Schreiben Zukunft? Göttingen 1987 [21] Glazier, L.P. Digital poetics: the making of e-poetries. The University of Alabama Press, Tuscaloosa and London 2002 [22] Winograd, T. & Flores, F. Understanding computers and cognition. Ad dison-Wesley, England 1986 [23] Platon The dialogues of Platon: translated by Ben jamin Jowett. Hare, R.M. & Russell, D.A. (Hrsg.), London 1970 [24] Keen, A. The cult of the amateur: how today‘s internet is killing our culture. London 2007

Web 2.0: Schwarmintelligenz oder Diktatur der Massen?  

Die Verfechter einer Schwarmintelligenz sind der Meinung, dass soziale Strukturen so etwas wie eine gemeinsame Intelligenz entwickeln, die h...

Read more
Read more
Similar to
Popular now
Just for you