Issuu on Google+


Manifest [Work in Progress] f端r E-Books, Wissensgesellschaft und Umwelt Herausgeber: MedienFabrik Konzept: Werner Boehm Beitragende: Badger West Produktion: MedienFabrik Gesellschaft f端r Medienund Verlagsservices mbH Premium Kindle Edition Published by MedienFabrik at Kindle Digital Publishing Copyright 2010 MedienFabrik nicht-kommerzielle Creative Commons 3.0


Inhaltsverzeichnis 1.

Vorbemerkungen zu den Versionen ............................................................................................. 5 Version 0.1........................................................................................................................................ 5 Vorbemerkung zu Version 0.2 .......................................................................................................... 5 Vorbemerkung zu Version 0.3 .......................................................................................................... 5

2.

Eine kleine Mediengenealogie ...................................................................................................... 6 Der Weg in die Digitalität ................................................................................................................. 6 Kontext: Die Befreiung des Wissens ................................................................................................ 7 XML – die neue Sprache ............................................................................................................. 8 ePaper: das Medium der neuen Galaxis .......................................................................................... 9

3.

Kleine Geschichte des Wissens ................................................................................................... 11 Wissen als Kultur ............................................................................................................................ 11 Wissen als Machtfunktion .............................................................................................................. 11 Kulturphilosophische Beschreibungen........................................................................................... 11 Explizites und implizites Wissen..................................................................................................... 12 Die Arten des Wissens.................................................................................................................... 13 Herkunft des Wissens..................................................................................................................... 13 Was ist Wissen? ........................................................................................................................ 13 Systematisch-zusammenfassender Ansatz zur Definition .................................................... 15 Grenzen der Definierbarkeit........................................................................................................... 15 Wissensrepräsentation .................................................................................................................. 16 Semantische Netze .................................................................................................................... 17 Der soziale Charakter des Wissens ................................................................................................ 18 Soziale Erkenntnistheorie ........................................................................................................... 18 Wissenschaftssoziologie und Wissenschaftsgeschichte ............................................................ 18 Konstruktivismus und Relativismus ...................................................................................... 19

4.

Wissen und Gesellschaft ............................................................................................................ 20 Wissensgesellschaft ....................................................................................................................... 20 Wissensverteilung und Wissensfreiheit ......................................................................................... 20 Wissenserwerb und -vermittlung .................................................................................................. 21 Wissensökonomie .......................................................................................................................... 23 Charakteristika der Wissensgesellschaft ........................................................................................ 24

5.

Die Wissensgesellschaft lässt auf sich warten ........................................................................... 25


6.

Klimawandel und Ressourcenbelastung (Stern-Report) ............................................................ 26 Allgemein ....................................................................................................................................... 26 Holz, Papier und Umwelt ............................................................................................................... 27 Rebooting The Planet ..................................................................................................................... 27

7.

Die Gutenberg Galaxis ist Vergangenheit................................................................................... 29

8.

Holz, Papier und die Umwelt ..................................................................................................... 32 Die Vereinten Nationen schützen die Wälder ................................................................................ 32 Wälder – eine Lebensgrundlage unseres Planeten ........................................................................ 32 Wald und Wirtschaft ...................................................................................................................... 32 Wald, Holz und Papierproduktion .................................................................................................. 32

9.

Kohlendioxid, Treibhausgase und Buchproduktion ................................................................... 35 Situation und Daten der USA ......................................................................................................... 35 Situation und Daten in Deutschland .............................................................................................. 35

10.

E-Books, E-Book Reader und Umweltbelastung ..................................................................... 37

Kleine Geschichte der E-Book und E-Book Reader ........................................................................ 37 E-Book Situation in Deutschland .................................................................................................... 37 11.

Umweltvergleichsrechnung P-Books und E-Books ................................................................. 39

Kurzfristig sind E-Books eine zusätzliche Umweltbelastung ............................................ 40 Zusammenfassung: .................................................................................................................... 40 Exkurs: Leseland ist abgebrannt: Über Kindle-Effekte & Peak Print .............................................. 40 Product-Awareness im Test ............................................................................................................ 40 Nach Peak Oil droht nun Peak Print ............................................................................................... 41 Kindle-Effekt als kulturelle Revolution ........................................................................................... 41 12.

Wissensgesellschaft 2.0 .......................................................................................................... 42


1.

Vorbemerkungen zu den Versionen

Version 0.1 Mit diesem Manifest wollen wir die bis dato eindeutig vernachlässigten Umwelt- und Wissensvermittlungsaspekte der Entwicklung weg vom gedruckten und hin zum elektronischen Papier näher beleuchten: Wir stellen dabei die provokative Hypothese auf, dass unser Planet aus Umweltgründen keine gedruckten Bücher (P-Books) mehr verträgt und aus Sicht der effizienten Wissensvermittlung auch nicht mehr brauchen kann. Wir sind weiters unbedingt davon überzeugt, dass eine global funktionierende Wissensgesellschaft eine conditio sine qua non für die Gesellschaft von morgen ist. Ohne das kollektiv zu erarbeitende Wissen werden wir wohl die aktuellen Probleme unseres Planeten und noch weniger die zukünftigen adressieren können. Mit diesem Manifest laden wir alle ein unsere Fakten, Daten und unsere Hypothese zu diesem Thema hinterfragen. Vielen Dank schon jetzt für den konstruktiven Input. Euer Team MedienFabrik.

Vorbemerkung zu Version 0.2 In der vorliegenden Version 0.2 haben wir im Bemühen um wissenschaftliche Exaktheit der vorgebrachten Argumente hinsichtlich der Umwelt- und Klimabelastung der P-Books den SternReport sowie das Werk MacroWikinomics: Rebooting Business and the World von Don Tapscott eingebaut. Damit ist unser Manifest natürlich noch lange nicht abgeschlossen. Wir suchen nach weiteren Argumenten oder Gegenargumenten für E-Books und warum die Welt nicht ohne diese auskommen wird. Vielen Dank schon jetzt für den konstruktiven Input. Euer Team MedienFabrik.

Vorbemerkung zu Version 0.3 In der vorliegenden Version haben wir die bisher fehlende Beschreibung einer möglichen Umsetzung der neuen Wissensvermittlung mit E-Book Technologien eingearbeitet. Konkret haben wir dabei die Aktivitäten der Not-For-Profit Organisation Worldreader.org in Ghana beschrieben. Die Worldreader.org ist erst 2009 gegründet worden und damit noch eine junge Organisation, die Zeit und finanzielle Mittel benötigt, um ihre Aktivitäten auf breiterer Basis umzusetzen. Wie immer würden wir uns über Feedback, kritische Würdigung und Ideen freuen. Euer Team MedienFabrik


2.

Eine kleine Mediengenealogie

Der Weg in die Digitalität Der Aufbruch zur modernen Gesellschaft wird im Allgemeinen mit der Erfindung des Buchdrucks von Johannes Gutenberg im 15. Jahrhundert angesetzt. Mit der Druckerpresse ließ sich das Wissen der westlichen Welt aus dem Monopol der Kirche und Klöster befreien und demokratisieren. Jede große Idee – von Galileo Galilei über Adam Smith und Karl Marx bis zu Tim Berners-Lee (Erfinder des WorldWideWeb)– und jede Form der Dichtung von Dante Alighieri über Johann Wolfgang von Goethe bis Umberto Eco fand seine Manifestation zunächst im gedruckten Wort bevor es Verbreitung fand und unser Weltbild prägte. Damit scheint das gedruckte Wort ein uneingeschränkt positives Phänomen zu sein und stellvertretend für die kulturelle Evolution der Menschheit zu stehen. Der Medientheoretiker Marshall McLuhan sieht das etwas differenzierter und spricht in diesem Zusammenhang von der typografischen Gutenberg Galaxis (Buchtipp: Die Gutenberg-Galaxis, das Ende des Buchzeitalters), die über die letzten 500 Jahre entstand. Im Mittelpunkt dieser Gutenberg Galaxie steht die Druckerpresse. Nach McLuhan können wir die menschliche Geschichte mediengenealogisch in vier Epochen einteilen:    

Oralität: die Epoche der mündlichen, vorschriftlichen Kommunikation Literalität: die Epoche der (handschriftlichen) Aufzeichnungen mit ihren klösterlichen Skriptorien und kirchlichen Wissensprimat Gutenberg Galaxis: die Epoche der typografischen Kommuninikation mit ihren Druckmaschinen und letztlich die jetzt herrschende Digitalität: das elektronische Zeitalter mit ihren in Bits & Bytes aufgelösten Buchstaben Wörtern oder eben die Gutenberg Galaxis 2.0

McLuhan untersuchte die Auswirkungen verschiedener Kommunikationsmedien und -technologien auf die europäische Kultur und das menschliche Bewusstsein. Der typografischen Gutenberg Galaxis haben wir nach McLuhan nicht nur Positives zu verdanken, sondern auch die Schattenseiten der kulturell-gesellschaftlichen Entwicklung. Das gedruckte Wort hat die Vielfalt der Sinnesempfindungen der Menschen in den Hintergrund gedrängt, indem sie die Wahrnehmung im visuell „homogenisierte“. Nach McLuhan ermöglichte der Buchdruck z.B. die Entstehung des Nationalismus sowie die Vereinheitlichung und Standardisierung der Kulturen und die Entfremdung der Individuen. Es gibt in der Tat leicht nachvollziehbare Hinweise, dass McLuhan mit seiner Betrachtung nicht ganz so falsch lag. Aber letztlich scheint diese Phase mit aufbrechenden Digitalität überwunden. Mit der Loslösung der Buchstaben vom realen Papier hin zu virtuellen Medien könnte das kommende elektronische Zeitalter der globalen Vernetzung und der Social Media wohl eine "bessere" Epoche werden. Vielleicht wird durch die Vernetzung der Menschen und der dadurch verursachten räumlichen Distanz bei gleichzeitig virtueller Nähe der Freunde und Kommunikationspartner (Virtualisierung der Beziehungen) tatsächlich eine neue, friedlichere Welt geschaffen. Jedenfalls aber hat die vernetzte Digitalisierung in den letzten fünfzig Jahren einen Veränderungsprozess initiiert, der das Monopol des gedruckten Wortes zersetzt und die Wissensvermittlung und –aufnahme nachhaltig verändert hat. Buchstaben und Worte lassen sich digital produzieren und darstellen und damit beinahe kostenfrei über elektronischen Weg verteilen.


Das Papier wird zunehmend abgelöst von elektronischen Online-Medien. Aus dem Papier wird das ePapier oder ePaper, aus dem Buch das E-Book. Aus der gedruckt-linearen (seitenweisen) Informations- und Wissensvermittlung entwickelt sich eine kontextuell-digitale. Die haptische, erfühlbare Welt löst sich zunehmend in der digitalen Virtualität auf. Derzeit treten die neuen digital-elektronischen Medien neben das Papier und die darauf basierenden Informationsprodukte und verändern damit deren Bedeutung. Abhängig von Neigungen, Themen und Kampagnen werden haptische wie virtuelle Kommunikation eingesetzt und verwachsen zu einem crossmedialen Gesamten.

Kontext: Die Befreiung des Wissens Wenn wir in der Mediengenealogie von McLuhan verbleiben, dann können wir festhalten, dass mit der Druckerpresse und dem damit verbundenen Übergang von der Phase der Literalität in die Phase der typografischen Gutenberg Galaxis die Produktion und Verteilung des Wissens aus dem Monopol der katholischen Kirche bzw. aus den mönchischen Skriptorien befreit wurde. McLuhan kritisiert aber gerade die mit dieser Befreiung verbundene Homogenisierung der kulturellen Vielfalt. Tatsächlich ist das auf Papier festgehaltene Wissen noch immer gefangen und in eine Linearität gepresst, die jegliche Dynamik dramatisch reduziert. Kollektive, gesellschaftliche Wissensbildung über das Medium Papier ist teuer und langsam. In vielen Entwicklungsländern ist der Zugang zu bedruckten Papier und dem darin enthaltenen Wissen noch immer ein Luxus. Die Wissensbasis einer auf Papier basierenden Gesellschaft vermehrt sich also linear. Wissen in digitalisierter Form hingegen ist dynamisch und (fast) kostenlos. Wo Buchstaben und Worte als Bits und Bytes elektronisch produziert und verteilt werden lässt sich kollektives Wissen mit unglaublicher Geschwindigkeit aufbauen. Mittels Hyperlinks und Hypertext lassen sich Wissenselemente in einfacher Form verknüpfen und damit die Wissensbasis exponentiell wachsen. Das beste Beispiel dafür ist wohl die freie Enzyklopädie Wikipedia. Sie wurde 2001 gegründet und hat mit hunderttausenden unentgeltlich beitragenden Menschen binnen eines Jahrzehnts die größte jemals aufgebaute Wissensbasis geschaffen. Ende 2010 verfügte Wikipedia über mehr als 15 Millionen Artikel. Dabei sind über die Jahre Methoden entwickelt worden, die verhindern sollen, dass falsches Wissen über Wikipedia verteilt wird. Die Fehlerhaftigkeit von Wikipedia ist ein häufig von den Papier-Puristen geäußerter Vorwurf, der allerdings schon durch aussagekräftige Tests widerlegt wurde. Wikipedia ist nicht fehlerhafter als es eine Encyclopaedia Britannica ist – allerdings mit einer deutlich kürzeren Fehlerbehebungszeit. Bedenkt man darüber hinaus noch, wie viele Unwahrheiten als wissenschaftliche Wahrheiten über die Jahrhunderte über Papier verbreitet wurden, dann relativiert sich dieser Vorwurf. Man denke hier nur an jene auf den Index der katholischen Kirche verbannten Bücher, in denen über die offensichtliche Tatsache, dass wir in einem heliozentrischen System leben, geschrieben wurde. Jahrhundertelang wurde hier eine längst als falsch enttarnte Information über Lehrbücher kommuniziert. Die Fehlerkorrektur dauerte letztlich Jahrhunderte wohingegen Fehler in Wikipedia meist in Minuten behoben sind. Der Zugang zu digitalem Wissen ist meist wesentlich günstiger als zu gedrucktem. Das gilt auch für Entwicklungsländer, die trotz allem infrastrukturellen und technologischen Rückstand durch die Digitalisierung die Chance bekommen, ihre Wissensbasis aufzubauen, damit ihre Entwicklung zu beschleunigen und Wohlstand aufzubauen. Der Übergang von der typografischen in die elektronische Epoche befreit nun das Wissen aus der Papiergefangenschaft. In der Folge werden wir auch neue Produkte sehen. Das Format eines


Buches wurde durch die Gegebenheiten des Papiers bestimmt und wird sich daher durch die Digitalisierung allmählich verändern. Kontextuelles Wissen erfordert keine dicken Bücher mehr, in denen zu 90% bestehendes Wissen wiederholt und dann in den restlichen 10% des Umfangs das neue Wissen dargebracht wird. Die neuen Bücher (E-Books) können sich auf die 10% des neuen Wissens fokussieren und mittels Hyperlinks mit der bestehenden Wissensbasis verlinkt und in Kontext gesetzt werden. An dieser Stelle wird auch verständlich, warum der iPad so messianisch empfangen wird. Es ist ein günstiger, leichter und kleiner Computer in A4-Heftform (tatsächlich etwas kleiner), der als vernetztes Wissens- und Informationszugangsgerät neue Dimensionen öffnet und damit dem ePapier zum Durchbruch verhelfen könnte. Apple hat von seiner ersten Generation von iPads innerhalb eines Jahres mehr als 15 Millionen Stück verkauft. Für den im März 2011 vorgestellte iPad 2 gehen die Experten von Verkaufszahlen jenseits der 40 Millionen Stück aus. Amazon soll von seinem Kindle E-Book Reader auch schon mehr als 20 Millionen Stück verkauft haben. Es ist daher wohl keine Übertreibung, wenn wir feststellen, dass E-Book Reader und Tablet PCs die Welt des Lesens und Lernens disruptiv verändern werden.

XML – die neue Sprache Die neue Sprache des Publizierens ist XML - Extensible Markup Language. XML ist eine Auszeichnungssprache zur Darstellung hierarchisch strukturierter Daten in Form von Textdaten und ermöglicht u.a. den Austausch von Daten zwischen Anwendungs- und Computersystemen eingesetzt. Die vom World Wide Web Consortium (W3C) herausgegebene XML-Spezifikation definiert eine Metasprache, auf deren Basis wiederum anwendungsspezifische Sprachen entwickelt und definiert werden können. Beispiele für XML-Sprachen sind: RSS, MathML, GraphML, oder XHTML. XML wird sich zum Heiligen Gral der Medien- und Verlagsindustrie entwickeln und die Basis für neue Geschäftsmodelle darstellen. XML-strukturierter Content eröffnet für Autoren und Verlage eine Reihe von neuen Umsatz- und Verwertungsmöglichkeiten. Die „neuen“ Umsatz- und Einnahmenströme, die sich durch die Einführung von XML in den Produktionsprozess für Verlage und Medienhäuser ergeben können:    

Neue Formate: Einnahmen durch neue Print-Formate und den Einsatz von Print-onDemand-Technologien und damit zusammenhängender Konzepte wie Personalisierung, Individualisierung und Mehrfachverwertung des Contents Mehrfachverwertung: Einnahmen aus dem Verkauf von mehr Print-Titeln durch die Mehrfachverwertung von einzelnen Kapiteln und Abschnitten E-Books: Einnahmen durch den Verkauf von E-Books in allen gängigen Formaten über die verschiedenen digitalen Publikations- und Distributionsplattformen Digitales Marketing: Einnahmen durch die verbesserten Möglichkeiten des digitalen Marketings über Suchmaschinenmarketing mittels „Content Tagging“ in den XML-MetaDaten.

Der singulär größte Treiber einer XML-basierten Strategie ist die dadurch ermöglichte Agilität des Contents. Darunter verstehen wir die Möglichkeit, einzelne Teile eines Buches selbständig zu verwerten. Dies ist durch wohlgeformten XML-basierten Content sehr einfach möglich. Eine Idee, wie einzelne Kapital verkaufbar bzw. auch in anderen Büchern (Nachschlagewerke, Sachbücher etc) verwendbar sind gibt uns diesbezüglich die deutsche E-Book-Plattform Ciando. Dort werden bei manchen Buchtiteln auch einzelne Kapital zum Kauf angeboten.


XML-strukturierte Inhalte haben zwei wesentliche Vorzüge gegenüber herkömmlichen Inhalten: 

Intelligenz und Selbstbeschreibung: über XML-Strukturierung und die dadurch mögliche Integration von Meta-Daten verfügt XML-strukturierter Content über die Möglichkeit der Selbstbeschreibung und kann damit über softwarebasierte Automatismen sehr einfach und ohne manuelle Interaktion mit anderen XML-strukturiertem Content verknüpft bzw. verbunden werden (Mashup) Tagging: mittels Meta-Daten kann XML-Content dieser ausgezeichnet, markiert bzw. beschlagwortet (tagging) werden womit sich der Content auch über Suchmaschinen einfach finden und bewerten lässt. Die Auffindbarkeit von Content im schier unendlichen WebUniversum ist eine der wesentlichen Voraussetzungen für den Erfolg.

Mit Techniken wie XML lassen sich kontextuelle Werke erstellen, die entweder vom Benutzer oder von Software themenspezifisch und dynamisch zusammengestellt werden können. Eine kleine Ahnung über die Möglichkeiten gut strukturierter und vernetzter Texte gibt uns die Bucherstellungsfunktion auf Wikipedia.

ePaper: das Medium der neuen Galaxis Das elektronische Papier ist das Medium der neuen Galaxis. Das digital über E-Books oder Apps abgebildete Wissen wird in Zukunft über E-Book Reader und TabletPCs konsumiert werden. Dabei stehen wir bei diesen Technologien erst am Beginn einer Reise. Mit Amazon an der Spitze entwickelte sich der Markt für E-Book-Reader in den letzten Jahren zum Milliardenmarkt, dem auch in den nächsten Jahren hohe Wachstumsraten vorausgesagt werden. Forrester Research rechnet für 2010 mit einer Absatzverdoppelung von 3 Millionen auf 6 Millionen verkaufte E-Book-Reader. Bei einem Preis von durchschnittlich 200 US Dollar je Gerät würde das Marktvolumen auf 1,2 Milliarden Dollar anschwellen. Andere Marktbeobachter gehen von einem jährlichen Absatzzuwachs von 386% aus und prognostizieren 28 Millionen verkaufte E-BookReader bis 2013. Viele Experten meinen, dass der weltweite Markt für E-Book-Reader die 10 Millionen Marke noch in 2010 passieren soll. Das US-amerikanische Marktforschungsunternehmen mediaIDEAS schätzt, dass der Umsatz mit ePaper-Produkten 2010 in den USA rund US-$ 460 Millionen betragen wird, der mit rund 8 Millionen Kunden oder Benutzern erzielt wird. Bis 2014 soll der Anteil an Lesern von ePaperProdukten auf 45 Millionen Menschen in den USA anwachsen und damit ein Umsatz von US-$ 11 Milliarden erzielt werden. Wie die meisten technologie-getriebenen Trends geht auch das ePaper von den USA aus. Dort startete der weltweit größte Online-Buchhändler Amazon mit dem E-Book Reader Kindle bereits 2007 auch die ersten größeren Feldversuche. Der E-Book-Reader war bei Amazon auch das meistverkaufte Produkte im Weihnachtsgeschäft 2009 und konnte rückte damit ins Zentrum der Branchenaufmerksamkeit. Der Erfolg des E-Book Reader Kindle von Amazon und nicht zuletzt der iPad von Apple haben die Diskussion um elektronische Buch-Lesegeräte auch in Europa wieder angeheizt. Random House, die größte englischsprachige Verlagsgruppe und zweitgrößte im deutschsprachigen Raum, hat kürzlich erklärt, am deutschsprachigen Markt 2009 rund 100.000 E-Books verkauft zu haben. Das sei zwar nur etwa ein Prozent vom Umsatz, aber immerhin eine Verzwanzigfachung des Umsatzes in diesem Bereich. In den kommenden Jahren sollte der Umsatzanteil von den elektronischen Büchern am gesamten Verlagsgeschäft auf fünf Prozent ansteigen. Das deutsche Portal Libreka, ein Projekt des deutschen Buchhandels, stellt derzeit die größte Volltextdatenbank für lieferbare deutschsprachige Titel zusammen und bietet diese zum digitalen Lesen im Internet und auch auf E-Books an. Libreka


haben sich bereits mehr als 1200 Verlage und 600 Buchhandlungen angeschlossen, 120.000 Titel sind bereits eingestellt. Davon können über 15.000 als E-Book gekauft werden. Das Marktvolumen der E-Books für den deutschsprachigen Raum soll von den geschätzten EUR 140 Millionen für 2010 auf bis zu 402 Millionen im Jahr 2012 steigen. Auf einer angenommenen Kalkulationsbasis von 40% ergeben sich daraus für den deutschsprachigen Raum kumulierte Verlagsprovisionen in Höhe von EUR 56,28 Millionen in 2010 und EUR 160,8 Millionen in 2012. Während der Buchmarkt in den nächsten Jahren im Schnitt um etwa 1% p. a. wachsen, liegt das durchschnittliche jährliche Wachstum bei E-Books zwischen 2010 bis 2012 bei rund 69%. 2010 und 2011 wird der absolute Marktzuwachs bei E-Books fast genauso hoch sein wie der Zuwachs im Gesamtbuchmarkt. Mit einem Unterschied: Es gibt mehr zu verteilen und zu gewinnen. Denn der Markt ist in seinem frühen Wachstumsstadium und daher noch nicht verteilt. Standards sind noch nicht gesetzt. Gute Chancen bieten sich also, für neue Marktteilnehmer wie Google und Apple ebenso wie für Verlage und Anbieter, die im klassischen Handel vielleicht nicht in erster Reihe stehen.


3.

Kleine Geschichte des Wissens

Ausformungen von Wissen und die Definitionen von Wissen sind jeweils nur zeitlich gültig und beschreibbar und erforschbar. Wissensgeschichtlich gibt es kein Wissen an und für sich, „sondern wird von Gesellschaften immer nur zur Bewältigung ihrer jeweiligen Realitäten hergestellt und angewandt.“ Die Gültigkeit von Wissen ist begrenzt durch den gesellschaftlichen Rahmen und einen „bestimmten historischen Zeitraum“, in dem Wissen einen „Wissenstatus reklamieren kann“.]Danach ist Wissen ein gesellschaftliches Phänomen und wird in seinem gesellschaftlichen und historischen Zusammenhang (Kontextualisierung) betrachtet: „Durch die Hervorhebung der Kontexte jeglicher Wissensproduktion lässt sich nicht mehr zwischen wahrem Wissen und falscher Meinung unterscheiden, da Überzeugungen, die in einem Kontext als Wissen gelten, in einem anderen als Unfug abgetan werden können, ohne dass sich letztgültig entscheiden ließe, welcher Kontext den ‚richtigen’ Standpunkt begründet.“

Wissen als Kultur Wissen bezieht sich auf soziokulturelle Wirklichkeiten. Wissen wird hier als menschliches Produkt verstanden und bildet eine Grundlage für soziales Handeln. Soziale Handlungen sind nicht möglich, „wenn ihnen nicht unterschiedliche Formen des Wissens unterliegen würden.“ In zweifacher Hinsicht werden Wissensformen daher als Kultur begriffen, „insofern sie einerseits innerhalb bestimmter kultureller Kontexte operieren und Normen, Werte und Kategorien transportieren, andererseits aber auch solche Formen der Bedeutung hervorbringen.

Wissen als Machtfunktion Sofern Wissen nicht metaphysisch erklärt wird, sondern als Produkt im Diesseits und gebunden an gesellschaftliches Handeln „ergibt sich nahezu zwangsläufig die Frage, wer für die Produktion bestimmter Wissensformen verantwortlich zeichnet.“ Dabei zeigt sich, dass sich die Macht des Wissens nicht trennen lässt vom Wissen der Macht. Wissensgeschichtliche und wissenssoziologische Betrachtung gelten dabei der „Macht als Wissen“ und dem „Wissen der Macht“. Dabei lässt sich die „Macht des Wissens“ nicht „vom Wissen der Macht trennen. Wissen und Wissenschaft können daher auch nicht mehr in einem aufklärerischen Sinn als Freiheitsgarantien verstanden werden, da die Etablierung von Wissenssystemen immer mit Funktionen der Herrschaft und Effekten der Unterwerfung verbunden ist“. Wissensgeschichtlich und wissenssoziologisch wird dies verdeutlicht „an der Durchsetzung von Formen der Kategorisierung und Klassifizierung, mit denen nicht nur die Macht über die Wahrnehmung und legitime Definition der Wirklichkeit einhergeht, sondern ebenso das Vermögen, Elemente der Wirklichkeit zu erzeugen, zum Beispiel indem bestimmte ‚Probleme’ als solche identifiziert oder soziale Gruppen durch Benennung zum Erscheinen gebracht werden.“

Kulturphilosophische Beschreibungen Eine derartige Definition ermöglicht die Unterscheidung zwischen dem Begriff des Wissens und verwandten Begriffen wie „Überzeugung“, „Glauben“ und allgemeiner „Meinung“. Sie entspricht zudem weitgehend dem alltäglichen Verständnis von Wissen als „Kenntnis von etwas haben“. Dennoch besteht in der Philosophie keine Einigkeit über die korrekte Bestimmung des Wissensbegriffs. Zumeist wird davon ausgegangen, dass wahre, gerechtfertigte Meinung nicht ausreichend für Wissen ist. Zudem hat sich ein alternativer Sprachgebrauch etabliert, in dem „Wissen“ als vernetzte Information verstanden wird. Entsprechend dieser Definition werden aus Informationen Wissensinhalte, wenn sie in einem Kontext stehen, der eine angemessene Informationsnutzung möglich macht (siehe dazu auch weiter unten). Eine entsprechende


Begriffsverwendung hat sich nicht nur in der Informatik, sondern auch in der Psychologie, der Pädagogik und den Sozialwissenschaften durchgesetzt. „Wissen“ steht als grundlegender erkenntnistheoretischer Begriff im Zentrum zahlreicher philosophischer Debatten. Im Rahmen der philosophischen Begriffsanalyse wird die Frage nach der genauen Definition des Wissensbegriffs gestellt. Zudem thematisiert die Philosophie die Frage, auf welche Weise und in welchem Maße Menschen zu Wissen gelangen können. Diskutiert wird außerdem, inwieweit die Erkenntnismöglichkeiten in einzelnen Themenbereichen begrenzt sind. Der Skeptizismus bezweifelt die menschliche Erkenntnisfähigkeit absolut oder partiell. Ein wichtiges Thema der Philosophie des 20. Jahrhunderts ist schließlich der soziale Charakter des Wissens. Es wird darauf hingewiesen, dass Menschen Wissen nur in gesellschaftlichen und historischen Zusammenhängen erwerben. Dies wirft unter anderem die Frage auf, ob ein gegebener Wissensinhalt immer als Ausdruck eines bestimmten kulturellen Kontexts zu verstehen ist, oder ob Wissen grundsätzlich mit einem kulturübergreifenden Gültigkeitsanspruch verknüpft ist. In der empirischen Forschung ist Wissen gleichermaßen ein Thema der Natur- und Sozialwissenschaften. Die Psychologie untersucht, auf welche Weise Wissen bei Menschen gespeichert und vernetzt ist. In den letzten Jahrzehnten wurde diese Forschung durch Ansätze der kognitiven Neurowissenschaft ergänzt, die die Informationsverarbeitung auf der Ebene des Gehirns beschreiben. Auch in der künstlichen Intelligenz spielt das Thema der Wissensrepräsentation eine zentrale Rolle, wobei das Ziel verfolgt wird, verschiedene Formen des Wissens auf effektive Weise in künstlichen Systemen verfügbar zu machen. In der Pädagogik und den Gesellschaftswissenschaften wird erforscht, wie Wissen vermittelt, erworben und verfügbar gemacht wird. Dabei wird auf lernpsychologischer Ebene diskutiert, wie Individuen zu neuem Wissen gelangen und auf welche Weise Wissen sinnvoll vermittelt werden kann. In einem breiteren Kontext werden die Fragen erörtert, welche Bedeutungen verschiedene Formen des Wissens in einer Gesellschaft haben und wie der Zugang zu Wissen sozial, kulturell und ökonomisch geregelt ist.

Explizites und implizites Wissen Bedeutend für viele Disziplinen ist die Unterscheidung zwischen explizitem Wissen und implizitem Wissen, die von Michael Polanyi 1966 eingeführt wurde. Als explizit gelten Wissensinhalte, wenn ein Subjekt bewusst über sie verfügt und sie gegebenenfalls auch sprachlich ausdrücken kann. Demgegenüber zeichnen sich implizite Inhalte dadurch aus, dass sie nicht auf eine solche Weise verfügbar sind. Die implizite Dimension des Wissens spielt in der Forschung eine zunehmende Rolle, da sich zeigt, dass viele zentrale Wissensinhalte nicht explizit vorhanden sind. So können etwa Ärzte häufig mit großer Zuverlässigkeit Diagnosen stellen oder Wissenschaftler Experimente analysieren, ohne explizit alle Regeln angeben zu können, nach denen sie bei Diagnose oder Analyse vorgehen. Auch das sprachliche Wissen ist zu weiten Teilen nur implizit verfügbar (vgl. Sprachgefühl), da selbst kompetente Sprecher nur einen Bruchteil der semantischen, syntaktischen und pragmatischen Regeln einer Sprache angeben können. In der künstlichen Intelligenz ist das implizite Wissen eine bedeutende Herausforderung, da sich gezeigt hat, dass komplexes explizites Wissen häufig weitaus leichter zu realisieren ist, als scheinbar unkompliziertes implizites Wissen. So ist es einfacher ein künstliches System zu schaffen, das Theoreme beweist, als einem System beizubringen, sich unfallfrei durch eine Alltagsumwelt zu bewegen.


Die Arten des Wissens In der Psychologie kann unter Bezug auf gängige Klassifikationen der Gedächtnisforschung ebenfalls zwischen verschiedenen Typen des Wissens unterschieden werden: Viele Wissensinhalte sind nur kurzfristig vorhanden und werden nicht im Langzeitgedächtnis gespeichert. Beispiele hierfür sind etwa das Wissen um eine Telefonnummer und die exakte Formulierung eines Satzes. Demgegenüber können andere Inhalte als Langzeitwissen über Jahrzehnte oder bis ans Lebensende verfügbar sein. Innerhalb des Langzeitwissens wird wiederum zwischen deklarativem und prozeduralem Wissen unterschieden. Als deklarativ gelten Inhalte genau dann, wenn sie sich auf Fakten beziehen und sprachlich in Form von Aussagesätzen beschrieben werden können. Davon zu unterscheiden ist prozedurales Wissen, das auf Handlungsabläufe bezogen ist und sich häufig einer sprachlichen Formulierung widersetzt. Typische Beispiele für prozedurales Wissen sind Fahrrad fahren, Tanzen oder Schwimmen. So können etwa viele Menschen Fahrrad fahren, ohne sich der einzelnen motorischen Aktionen bewusst zu sein, die für diese Tätigkeit notwendig sind. Schließlich wird beim deklarativen Wissen zwischen semantischem und episodischem Wissen differenziert. Semantisches Wissen ist abstraktes Weltwissen. Demgegenüber ist episodisches Wissen an die Erinnerung an eine bestimmte Situation gebunden. Ein Beispiel für semantisches Wissen wäre: „Paris ist die Hauptstadt von Frankreich.“ Andererseits wäre „Letzten Sommer war ich in Paris im Urlaub.“ ein Beispiel für episodisches Wissen.

Herkunft des Wissens Andere Klassifikationssysteme unterteilen Wissen nicht nach der Form der Verfügbarkeit, sondern nach der Herkunft des Wissens. Die Unterscheidung zwischen angeborenem und erworbenem Wissen ist durch Noam Chomskys Theorie des angeborenen sprachlichen Wissens zu einem zentralen Thema der kognitionswissenschaftlichen Forschung geworden.[9] Chomsky argumentiert, dass sich der Spracherwerb von Kindern nur erklären lasse, wenn man davon ausgehe, dass Menschen bereits ein angeborenes grammatisches Wissen haben. Von manchen Kognitionswissenschaftlern wird die These des angeborenen Wissens auf andere Bereiche übertragen. Die weitestgehende These vertreten Evolutionspsychologen, die davon ausgehen, dass sich viele Formen des Wissens bereits in der Steinzeit evolutionär durchgesetzt hätten und daher universelle, angeborene Merkmale der menschlichen Psyche seien. Nicht nur der Umfang eines solchen angeborenen Wissens ist umstritten, es ist zudem nicht klar, ob angeborene kognitive Mechanismen angemessen als „Wissen“ bezeichnet werden können. Die auf Immanuel Kant zurückgehende, philosophische Unterscheidung zwischen apriorischem und Wissen a posteriori ist von der Frage nach angeborenem Wissen zu unterscheiden.[10] Als empirisch gilt Wissen genau dann, wenn es der Erfahrung entspringt, also etwa auf alltäglichen Beobachtungen oder auf wissenschaftlichen Experimenten beruht. Demgegenüber gilt Wissen als apriorisch, wenn sich seine Gültigkeit unabhängig von der Erfahrung überprüfen lässt. Ein klassischer Kandidat für Wissen a priori ist analytisches Bedeutungswissen. So ergibt sich die Wahrheit des Satzes Alle Junggesellen sind unverheiratet alleine aus der Bedeutung der Wörter, man muss nicht empirisch überprüfen, ob tatsächlich alle Junggesellen unverheiratet sind. Auch mathematisches Wissen wird häufig als apriorisch betrachtet. Über den Umfang von apriorischem Wissen besteht in der Philosophie keine Einigkeit, zum Teil wird auch die Existenz von Wissen a priori generell bestritten.

Was ist Wissen? Die traditionelle Definition von „Wissen“ wird bereits in Platons Theätet diskutiert: Wissen ist


wahre, gerechtfertigte Meinung. Zunächst kann man nur dann etwas wissen, wenn man auch eine entsprechende Meinung hat: Der Satz „Ich weiß, dass es regnet, aber ich bin nicht der Meinung, dass es regnet.“ wäre ein Selbstwiderspruch. Eine Meinung ist jedoch nicht hinreichend für Wissen. So kann man etwa falsche Meinungen haben, jedoch kein falsches Wissen. Wissen kann also nur dann vorliegen, wenn man eine wahre Meinung hat. Doch nicht jede wahre Meinung stellt Wissen dar. So kann eine Person eine wahre Meinung über die nächsten Lottozahlen haben, sie kann jedoch kaum wissen, was die nächsten Lottozahlen sein werden. Von vielen Philosophen wird nun argumentiert, dass eine wahre Meinung gerechtfertigt sein muss, wenn sie Wissen darstellen soll. So kann man etwa Wissen über bereits gezogene Lottozahlen haben, hier sind jedoch auch Rechtfertigungen möglich. So könnte man etwa in einer Zeitung oder im Fernsehen von den Lottozahlen erfahren haben und auf diese Quellen als Rechtfertigung verweisen. Im Falle zukünftiger Lottozahlen ist dies nicht möglich, weswegen selbst eine wahre Meinung hier kein Wissen darstellen kann. Eine solche Definition des Wissens scheint in vielen philosophischen Kontexten ausreichend und erlaubt auch eine Unterscheidung zwischen „Wissen“ und „bloßem Meinen“ oder „Glauben“. Auch Glauben kann eine wahre Meinung darstellen, solange der Glaubensinhalt jedoch kein Wissen ist, fehlt ihm das Merkmal einer hinreichenden Rechtfertigung. Bertrand Russell formulierte bereits 1912 eine Definition von Wissen, die Gettiers Probleme umgeht. Er erkennt, dass es sich nicht um eine Form von Wissen handelt, wenn wahre Schlussfolgerungen aus Prämissen gezogen werden, die zwar wahr sein können, aber selbst nicht gewusst werden. Wenn jedoch von Wissen nur gesprochen werden kann, wenn die Prämissen einer Schlussfolgerung ihrerseits gewusst werden müssen, so wäre diese Definition des Wissens zirkulär. Russell schränkt diese Definition daher auf abgeleitetes Wissen ein und unterscheidet von diesem das intuitive Wissen. Zu dieser Art von Wissen zählt Russell zum einen „Tatsachen des Bewusstseins (...) und auch alle Tatsachen über Sinnesdaten“. Hinzu kommt eine Form der Evidenz von Tatsachen, die „ein absoluter Garant der Wahrheit“ ist. Russell führt als Beispiel die Wahrnehmung an, dass die Sonne scheint. Er unterscheidet davon das Urteil „Die Sonne scheint.“, das auf Grund seiner Bestandteile nicht mehr dieselbe Evidenz aufweist wie die eigentliche Wahrnehmung der scheinenden Sonne. Die Wahrnehmung der scheinenden Sonne ist jedoch evident und kann daher als eine gewusste Prämisse in die Schlussfolgerung weiteren Wissens einfließen. Während diese Argumentation zunächst auf die Ableitung von Wissen mittels logischer Schlüsse beschränkt ist, erläutert Russell zudem, dass das Erlangen von abgeleitetem Wissen oftmals auch durch andere Mittel als logische Schlüsse erfolgt. Als Beispiel führt er das Lesen eines Satzes an: Das in dem gedruckten Satz – möglicherweise – enthaltene Wissen wird vom Leser zunächst in Form von Sinnesdaten aufgenommen. Der Leser gelangt nun aber nicht durch logischen Schluss zur Bedeutung des Satzes und damit zu dem Wissen, das in dieser Bedeutung liegt. Er geht vielmehr direkt zur Bedeutung der Zeichen über und „bemerkt gar nicht, dass sein Wissen von den Sinnesdaten abstammt“. Es müssen also viele weitere Ableitungsarten von neuem Wissen aus intuitivem Wissen zugelassen werden, die allerdings alle gemeinsam haben, „dass eine logische Verknüpfung besteht und die fragliche Person sie durch Reflexion herausfinden könnte“. Russell spricht in diesem Zusammenhang auch neben den „logischen Schlüssen“ von „psychologischen Schlüssen“ als Mittel zur Erlangung abgeleiteten Wissens und sagt, dass zu jedem psychologischen Schluss, wenn er Wissen hervorbringen soll, ein entdeckbarer logischer Schluss verlaufen muss. Durch dieses Argument nimmt Russel bereits die Suche nach einer „vierten Bedingung“ voraus, und auch Goldmans kausale Verlässlichkeitsbedingung kommt der gut 50 Jahre zuvor von Russell postulierten Parallelität von logischen und psychologischen Schlüssen recht nahe.


Systematisch-zusammenfassender Ansatz zur Definition

Wissen ist im Wissensmanagement und der Wissenslogistik eine vorläufig wahre Zustandsgröße und ein selbstbezüglicher Prozess. Seine Definition verändert es bereits, da diese selbst zum Bestandteil des Wissens wird. Voraussetzung für Wissen ist ein wacher und selbstreflektierender Bewusstseinszustand, der dualistisch angelegt ist. Wissen ist mit Erfahrungskontext getränkte Information. Information ist ein Datenbestandteil, welcher beim Beobachter durch die beobachterabhängige Relevanz einen Unterschied hervorrief. Daten sind etwas, was wahrgenommen werden kann, aber nicht muss. Diese Definition ist im Einklang mit dem en:DIKW-Modell. Letzteres stellt Daten, Informationen, Wissen in einer aufsteigenden Pyramide dar und führt zu Organisational Memory Systemen, deren Hauptziel es ist, die richtige Information zur richtigen Zeit an die richtige Person zu liefern, damit diese die am besten geeignete Lösung wählen kann.

Damit wird Wissen mit seiner Nutzung verknüpft, was eine wesentliche Handlungsgrundlage von Informationssystemen darstellt. Wissen bezeichnet deshalb im größeren Rahmen die Gesamtheit aller organisierten Informationen und ihrer wechselseitigen Zusammenhänge, auf deren Grundlage ein vernunftbegabtes System handeln kann. Wissen erlaubt es einem solchen System – vor seinem Wissenshorizont und mit der Zielstellung der Selbsterhaltung – sinnvoll und bewusst auf Reize zu reagieren.

Grenzen der Definierbarkeit Es bleibt allerdings umstritten, ob tatsächlich eine Definition von „Wissen“ verfügbar ist, die sich nicht durch Gegenbeispiele widerlegen lässt. Ein besonders bekanntes Gedankenexperiment stammt von Alvin Goldman: Man stelle sich eine Region vor, in der die Bewohner täuschend echte Scheunenattrappen am Straßenrand aufstellen, so dass hindurch fahrende Besucher ähnlich potemkinschen Dörfern den Eindruck haben, echte Scheunentore zu sehen. Man nehme nun an, dass ein Besucher durch Zufall vor der einzigen echten Scheune der Region halte. Dieser Besucher hat die Meinung, dass er sich vor einer Scheune befindet. Diese Meinung ist zudem wahr und durch den visuellen Eindruck gerechtfertigt. Dennoch würde man nicht sagen wollen, dass er weiß, dass er sich vor einer echten Scheune befindet. Er ist ja nur durch einen Zufall nicht vor einer der


zahllosen Attrappen gelandet. Selbst die verbesserten Definitionsvorschläge scheinen mit diesem Beispiel nicht adäquat umgehen zu können. Auch nach Armstrongs Definition müsste man in diesem Fall von „Wissen“ reden, schließlich ist die Meinung des Besuchers nicht von falschen Annahmen abgeleitet. Auch scheint die Meinung des Besuchers auf eine verlässliche Weise verursacht zu sein. Russells Definition hält dem Beispiel jedoch Stand: Nach Russell kann nur dann von Wissen gesprochen werden, wenn es aus gewussten Prämissen abgeleitet wird. Zu den Prämissen der Meinung, dass sich der Besucher vor einer echten Scheune befindet, gehört jedoch auch die Meinung, dass es sich auch bei allen anderen Scheunen um echte Scheunen handelt. Dies ist jedoch keine gewusste Prämisse, da diese Meinung falsch ist. Somit handelt es sich auch nicht um Wissen in Russells definiertem Sinn, wenn der Besucher meint, vor einer echten Scheune zu stehen. Die dargestellten Probleme ergeben sich aus dem Anspruch, eine exakte Definition anzugeben, folglich reicht schon ein einziges, konstruiertes Gegenbeispiel, um eine Begriffsbestimmung zu widerlegen. Angesichts dieser Situation kann man sich die Frage stellen, ob eine Definition von „Wissen“ überhaupt nötig oder auch möglich ist. Im Sinne Ludwig Wittgensteins Spätphilosophie kann man etwa argumentieren, dass „Wissen“ ein alltagssprachlicher Begriff ohne scharfe Grenzen ist und die verschiedenen Verwendungen von „Wissen“ nur durch Familienähnlichkeiten zusammengehalten werden. Eine solche Analyse würde eine allgemeine Definition von „Wissen“ ausschließen, müsste jedoch nicht zu einer Problematisierung des Wissensbegriffs führen. Man müsste lediglich die Vorstellung aufgeben, „Wissen“ exakt definieren zu können. Eine Alternative zu einer solchen Definition wäre es, „Wissen“ als Komplexbegriff zu fassen und typische Merkmale dessen anzugeben, was in bestimmten Kontexten wie demjenigen der Diskussion um die Wissensgesellschaft als Wissen gilt: Wissen hat demnach einen praktischen Bezug, tritt personalisiert oder nicht personalisiert („repräsentiert“) auf, hat eine normative Struktur, ist vielfältig vernetzt, voraussetzungsvoll, dynamisch und in Institutionen verkörpert und durch diese formiert. Einen radikalen Vorschlag macht Ansgar Beckermann: „Meiner Meinung nach liegt die Antwort auf der Hand. Wir sollten etwas mutiger *…+ sein und auf den Wissensbegriff ganz verzichten. Es gibt in der Erkenntnistheorie keine interessante Frage und keine interessante These, die wir nicht auch ohne diesen Begriff formulieren könnten. Was ist das Ziel unserer Erkenntnisbemühungen? Wahrheit.“

Wissensrepräsentation „Wissensrepräsentation“ ist ein zentraler Begriff vieler kognitionswissenschaftlicher Disziplinen wie der Psychologie, der künstlichen Intelligenz, der Linguistik und der kognitiven Neurowissenschaft. Dabei unterscheidet sich die Verwendung des Wissensbegriffs vom philosophischen und alltäglichen Gebrauch. So definiert etwa Robert Solso Wissen als „Speicherung, Integration und Organisation von Information im Gedächtnis. *…+ Wissen ist organisierte Information, es ist Teil eines Systems oder Netzes aus strukturierten Informationen.“ Auf ähnliche Weise wird im Lexikon der Neurowissenschaft definiert: „Information ist der Rohstoff für Wissen. *…+ Damit aus Information Wissen wird, muss der Mensch auswählen, vergleichen, bewerten, Konsequenzen ziehen, verknüpfen, aushandeln und sich mit anderen austauschen.“ Ein so verstandener Wissensbegriff ist unabhängig von der Wahrheit der gespeicherten Informationen und auch vom Bewusstsein des wissenden Systems. Ein Computer kann genauso über Wissen im Sinne dieser Definition verfügen, wie ein Mensch oder ein beliebiges Tier. Von


einfacher Information hebt sich Wissen durch seine Vernetzung mit weiterem Wissen ab. So drückt der Satz Mäuse sind Säugetiere zunächst nur eine Information aus. Zu Wissen wird die Information durch die Verknüpfung mit weiteren Informationen über „Maus“ oder „Säugetier“. Mit einem so verstandenen Wissensbegriff werden in den empirischen Wissenschaften unterschiedliche Forschungsprojekte durchgeführt. Die Kognitionspsychologie entwickelt Modelle zur Wissensorganisation bei Menschen, die kognitive Neurowissenschaft beschreibt die Informationsverarbeitung im Gehirn und die künstliche Intelligenz entwickelt wissensbasierte Systeme, die Informationen organisieren und vernetzen.

Semantische Netze Die Organisation von Informationen zu Wissen wird in der Psychologie häufig mit Hilfe von semantischen Netzen erklärt. Es wird angenommen, dass Menschen über einfache Informationen der Art Kanarienvögel sind Vögel oder Vögel haben Federn verfügen. Werden derartige Information miteinander verknüpft, so ergeben sie ein semantisches Netz und erlauben das Schließen auf weitere Fakten wie Kanarienvögel haben Federn. Ein komplexes semantisches Netz ist eine ökonomische Form der Wissensspeicherung: Merkmale, die allgemein auf Vögel zutreffen, müssen nicht für jede Vogelart neu gespeichert werden, das Gleiche gilt für Merkmale, die allgemein auf Tiere zutreffen.

Collins und Quillian entwickelten ein Modell (siehe Abbildung) semantischer Netze, das sie zudem einer experimentellen Überprüfung unterzogen. Sie gingen davon aus, dass die Reise zwischen den Knoten des semantischen Netzes Zeit beanspruche. Die Beurteilung von Sätzen der Art Vögel haben Federn müsste also messbar schneller sein als die Beurteilung von Sätzen der Art Vögel atmen. Tatsächlich benötigten Probanden durchschnittlich 1310 Millisekunden, um Sätze der ersten Art zu beurteilen, während Sätze der zweiten Art 1380 Millisekunden in Anspruch nahmen. Lagen die Informationen zwei Knoten im semantischen Netz entfernt, so wurden 1470 Millisekunden benötigt. Allerdings gibt es Unregelmäßigkeiten: Häufig verwendete Informationen wie etwa Äpfel sind essbar wurden sehr schnell abgerufen, auch wenn die Information „essbar“ einem allgemeineren Knoten wie „Lebensmittel“ zugeordnet werden kann. Collins und Quillian bauten diese Erkenntnis in ihr Modell ein, indem sie annahmen, dass häufig verwendete Informationen direkt an einem entsprechenden Knoten gespeichert werden, so dass keine zeitintensive Reise im semantischen Netzwerk notwendig ist. Das Modell hat zudem den Vorteil,


dass es mit Ausnahmen arbeiten kann. So kann ein typisches Merkmal von Vögeln wie „kann fliegen“ beim entsprechenden Knoten gespeichert werden, auch wenn nicht alle Vögel fliegen können. Die Ausnahmen werden bei Knoten wie „Strauß“ gespeichert.

Der soziale Charakter des Wissens Soziale Erkenntnistheorie Die philosophische Debatte um den Wissensbegriff und die kognitionswissenschaftliche Forschung zur Wissensrepräsentation sind überwiegend individualistisch, da sie sich mit dem Wissen eines einzelnen Agenten auseinandersetzen. Demgegenüber ist es unbestritten, dass Wissen in sozialen Kontexten erschaffen, vermittelt und überprüft wird. Diese Tatsache hat zur Entwicklung einer sozialen Erkenntnistheorie geführt, die man wiederum in klassische und nicht-klassische Ansätze unterteilen kann. Klassische Ansätze orientierten sich an der Bestimmung von „Wissen“ als gerechtfertigte oder verlässliche, wahre Meinung, betonen jedoch den intersubjektiven Kontext, in dem Wissen erworben wird. So untersucht etwa Alvin Goldman alltägliche und wissenschaftliche Praktiken unter Bezug auf die Frage, ob sie der Generierung von wahren Meinungen nützen. Zu den von Goldman untersuchten Praktiken gehören etwa die Forschungsorganisation, die Anerkennung wissenschaftlicher Autoritäten, juristische Verfahrensweisen und die Meinungsbildung in der Presse. Ein anderer Ansatz stammt von Philip Kitcher, der sich mit den Auswirkungen der kognitiven Arbeitsteilung auf die Wahrheitsfindung beschäftigt. Der Fortschritt der Wissenschaft beruht nach Kitcher auf einer heterogenen wissenschaftlichen Gemeinschaft, in der mit verschiedenen Interessen und methodologischen Überzeugungen gearbeitet wird. In nicht-klassischen Ansätzen der sozialen Erkenntnistheorie wird hingegen nicht der Einfluss von sozialen Praktiken auf Wahrheit, Rechtfertigung oder Verlässlichkeit untersucht. Vielmehr wird soziologisch, historisch oder ethnologisch beschrieben, wie meinungsbildende Praktiken de facto organisiert sind. Wissenschaftssoziologie und Wissenschaftsgeschichte Nicht-klassische Ansätze der sozialen Erkenntnistheorie sind häufig eng mit der wissenschaftssoziologischen und –historischen Forschung verknüpft. In diesen Disziplinen liegt der Schwerpunkt auf der empirischen Beschreibung von meinungsbildenden Praktiken und nicht auf ihrer Bewertung nach erkenntnistheoretischen Kriterien. Entsprechend dieses Ziels werden Faktoren untersucht, die zur Akzeptanz von Meinungen als „Wissen“ führen. Diese Faktoren können weit von den in der klassischen Wissenschaftstheorie vorgeschlagenen Kriterien wie Verifikation, Überprüfung durch Falsifikationsversuche und Widerspruchsfreiheit abweichen. Es liegen zahlreiche soziologische und historische Fallstudien vor, die beschreiben, wie Meinungen in Gesellschaften als „Wissen“ etabliert werden. So erklärt etwa Paul Feyerabend, dass die Durchsetzung des heliozentrischen Weltbildes nicht auf neuen Entdeckungen, sondern einer geschickten Propagandastrategie Galileo Galileis beruhe. Die Vertreter des geozentrischen Weltbildes erkannten nach Feyerabend „nicht den Propagandawert von Voraussagen und dramatischen Shows und bedienten sich auch nicht der geistigen und gesellschaftlichen Macht der neu entstandenen Klassen. Sie verloren, weil sie bestehende Möglichkeiten nicht ausnutzten.“ Michel Foucault erklärt in Der Wille zum Wissen, dass das zunehmende Wissen um die menschliche Sexualität an politische Machtmechanismen gebunden sei: „Um das 18. Jahrhundert herum entsteht ein politischer, ökonomischer und technischer Anreiz, vom Sex zu sprechen. Und das nicht so sehr in Form einer allgemeinen Theorie der Sexualität, sondern in Form von Analyse, Buchführung, Klassifizierung und Spezifizierung, in Form quantitativer und kausaler Untersuchungen.“ Soziologische Studien zu gegenwärtigen Forschungsprozessen finden sich bei


Bruno Latour. Nach Latour hängt die Akzeptanz einer wissenschaftlichen Meinung als Wissen wesentlich von Allianzbildungen in der zuständigen wissenschaftlichen Community ab.

Konstruktivismus und Relativismus Auch wenn viele wissenschaftssoziologische und -historische Fallstudien umstritten sind, ist doch allgemein anerkannt, dass die Akzeptanz von wissenschaftlichen Meinungen häufig von Faktoren wie politischen und rhetorischen Konstellationen, Allianzbildungen und den Interessen des Forschungsbetriebs abhängig ist. Diese wissenschaftssoziologischen und -historischen Ergebnisse lassen wiederum verschiedene Interpretationen zu. Vertreter einer klassisch orientierten Erkenntnistheorie können darauf hinweisen, dass einige der genannten Faktoren geeignet sein können, um wahre Meinungen im Wissenschaftsbetrieb zu erzeugen. So führe etwa die von Latour beschriebene Allianzbildung dazu, dass Forscher sich auf das Urteilvermögen und die Kompetenz anderer Wissenschaftler beziehen müssen. Zudem zeigten derartige Fallstudien, dass der Wissenschaftsbetrieb gelegentlich durch politische und rhetorische Einflussnahmen fehlgeleitet werde. Eine solche Interpretation basiert auf der Überzeugung, dass scharf zwischen „Wissen“ und „in einem Kontext als Wissen akzeptiert“ unterschieden werden müsse. Eine solche Unterscheidung zwischen „Wissen“ und „in einem Kontext als Wissen akzeptiert“ wird im relativistischen Konstruktivismus abgelehnt. Derartige Positionen erklären, dass „es keine kontextfreien oder kulturübergreifenden Standards für Rationalität gibt.“ Ohne diese Standards kann man allerdings „Wissen“ auch nur noch relativ zu kulturellen Überzeugungen definieren, die Unterscheidung zwischen „Wissen“ und „in einem Kontext als Wissen akzeptiert“ bricht folglich zusammen. Eine derartige Ablehnung des traditionellen Wissensbegriffs setzt die Zurückweisung der Idee einer theorie- und interessenunabhängigen Realität voraus: Solange man Fakten als unabhängig von Theorien und Interessen begreift, kann man Meinungen kontextunabhängig zurückweisen, indem man erklärt, dass sie nicht den Fakten entsprechen. Der relativistische Konstruktivist Nelson Goodman erklärt daher: „Der Physiker hält seine Welt für die reale, indem er die Tilgungen, Ergänzungen, Unregelmäßigkeiten und Betonungen anderer [Welt-] Versionen der Unvollkommenheit der Wahrnehmung, der Dringlichkeiten der Praxis oder der dichterischen Freiheit zuschreibt. Der Phänomenalist betrachtet die Wahrnehmungswelt als fundamental, die Beschneidungen, Abstraktionen, Vereinfachungen und Verzerrungen anderer Versionen hingegen als Ergebnis von wissenschaftlichen, praktischen oder künstlerischen Interessen. Für den Mann auf der Straße weichen die meisten Versionen der Wissenschaft, der Kunst und der Wahrnehmung auf mancherlei Weise von der vertrauten und dienstbaren Welt ab. *…+ Nicht nur Bewegung, Ableitung, Gewichtung und Ordnung sind relativ, sondern auch Realität“ – NELSON GOODMAN Nicht alle konstruktivistischen Positionen laufen jedoch auf einen relativistischen Konstruktivismus im Sinne Goodmans hinaus. Nichtrelativistische Konstruktivismen erklären mit Goodman, dass Beschreibungen, Gewichtungen und Ordnungen tatsächlich relativ zu Kontexten seien. In diesem Sinne seien etwa viele zentrale wissenschaftliche Begriffe wie „Art“, „Geschlecht“, „Krankheit“ oder „Quark“ vom kulturellen Kontext und von Interessen geformt. Dennoch bezöge man sich mit derartigen kontextabhängigen Begriffen auf kontextunabhängige Fakten in der Realität.


4.

Wissen und Gesellschaft

Wissensgesellschaft In den Sozialwissenschaften wird häufig mit Bezug auf den Begriff der Wissensgesellschaft die These vertreten, dass sich die gesellschaftliche und ökonomische Rolle von Wissen im 20. Jahrhundert grundsätzlich verändert habe. So erklärt etwa Meinhard Miegel, dass die Entwicklung zur Wissensgesellschaft als der „dritte gewaltige Paradigmenwechsel in der Geschichte der Menschheit“ zu betrachten sei. Nach der Entwicklung von Agrar- zu Industriegesellschaften sei nun der Übergang von Industrie- zu Wissensgesellschaften zu beobachten. Eine derartige Transformation mache sich zunächst in der Wirtschafts- und Arbeitswelt bemerkbar, so beschreibt etwa Sigrid Nolda, „dass das Konzept der Wissensgesellschaft allgemein von der wachsenden Bedeutung des Wissens als Ressource und Basis sozialen Handelns ausgehe. Arbeit sei seit den 1970er Jahren wesentlich durch ihren kognitiven Wert, also Wissen gekennzeichnet.“ Neben der wirtschaftlichen und gesellschaftlichen Bedeutung von Wissen ändere sich jedoch auch die Verfügbarkeit von Wissen durch neue Informations- und Kommunikationstechnologien und eine veränderte Bildungspolitik. Eine derartige Begriffsbestimmung bleibt vage, da die gesellschaftliche und ökonomische Bedeutung von Wissen kein exklusives Merkmal von Wissensgesellschaften ist. Grundsätzlich setzt jede Arbeit verschiedene Formen des Wissens voraus, zudem ist auch bereits in antiken Gesellschaften die Verteilung von Wissen ein wesentliches Merkmal gesellschaftlicher Unterschiede. In diesem Sinne erklärt etwa der UNESCO World Report Towards Knowledge Societies, dass jede Gesellschaft als Wissensgesellschaft zu betrachten sei.

Wissensverteilung und Wissensfreiheit In dem Maße, in dem die Verteilung und Verfügbarkeit von Wissen eine soziale und ökonomische Bedeutung hat, wird der Zugang zu Wissen auch als Gerechtigkeitsproblem diskutiert. Dabei wird die Bedeutung des Wissens in gegenwärtigen Gesellschaften gleichermaßen als Problem und Chance diskutiert. Zum einen wird argumentiert, dass aufgrund der zentralen gesellschaftlichen Rolle des Wissens ein schlechter Wissensstand und -zugang zu einer weitreichenden sozialen Benachteiligung führe. Zu klassischen Themen wie Einkommens- oder Arbeitsverteilung, trete nun die Verteilung von Wissen als zentrales Gerechtigkeitsproblem hinzu. Eine weitergehende Analyse bedient sich oft der Verbindung zwischen Wissen und Macht, wie sie bereits von Francis Bacon in dem Spruch scientia potestas est („Wissen ist Macht“) zum Ausdruck kommt. Besonders einflussreich sind in diesem Kontext Michel Foucaults Arbeiten, nach denen gesellschaftliche Macht seit etwa dem 18. Jahrhundert wesentlich durch Wissenssysteme realisiert ist. Traditionell sei die Macht des Souveräns durch das Vermögen zu Töten bestimmt gewesen: „Er offenbart seine Macht über das Leben nur durch den Tod, den zu verlangen er im Stande ist. Das sogenannte »Recht über Leben und Tod«, ist in Wirklichkeit das Recht, sterben zu machen und Leben zu lassen. Sein Symbol war ja das Schwert.“ In modernen Gesellschaften zeige sich die Macht über Menschen jedoch auf eine andere Weise als positives Wissen etwa über psychische und körperliche Gesundheit und Krankheit, Fortpflanzung, Geburts- und Sterberaten oder Gesundheitsniveau. Dieses Wissen werde in der Biopolitik zum Machtinstrument, nicht nur über direkte politische Eingriffe ins Rechtssystem, Gesundheits- und Bildungspolitik, sondern ebenfalls durch Beeinflussung wissenschaftlicher und öffentlicher Diskurse. Die Verbindung von Wissen und Macht wird im Anschluss an Foucault häufig als wechselseitig beschrieben: Nicht nur impliziere Wissen Macht, umgekehrt würde Wissen durch Machtmechanismen gelenkt. Welches Wissen als


relevant gelte, werde etwa durch Wissenschaftsförderung, pädagogische Lernplanerstellung oder mediale Schwerpunktsetzungen bestimmt. Die Bedeutung von Wissen in modernen Gesellschaften wird jedoch nicht nur kritisch in Bezug auf Gerechtigkeits- und Machtfragen untersucht. Vielmehr gilt die Wissensgesellschaft häufig ebenfalls als eine positive Entwicklung, die allen Bürgern zumindest potentiell einen allgemeinen Zugang zum Wissen ermöglichen kann. Als positives Ideal wird diese Idee als Wissensfreiheit formuliert, nach der jeder Bürger das Recht auf freien Zugang zu Wissen hat. So erklärt etwa der UNESCO World Report „Die aktuelle Verteilung von neuen Technologien und die Entwicklung des Internets als öffentliches Netzwerk scheinen neue Möglichkeiten für ein öffentliches Wissensforum zu bieten. Haben wir nun die Mittel, um einen gleichen und universelle Zugang zu Wissen zu erreichen? Dies sollte der Grundpfeiler von echten Wissensgesellschaften sein.“ Zugleich wird jedoch betont, dass gegenwärtige Gesellschaften recht weit von diesem Ideal entfernt sind und zahlreiche kulturelle, politische und ökonomische Realitäten einer allgemeinen Wissensfreiheit im Wege stünden. Auf derartige Grenzen der Wissensfreiheit wird unter anderem in der Open-Accessund Open-Content-Bewegung reagiert, die sich um den freien Zugang und die freie Weiterverwendbarkeit von Wissen bemüht.

Wissenserwerb und -vermittlung Der Erwerb und die Vermittlung von Wissen wird in der Lernpsychologie und der Pädagogik erforscht. Dabei wird in der Regel ein sehr weiter Wissensbegriff verwendet, der auch der pädagogischen Praxis gerecht werden soll und folglich implizites und explizites Wissen und Wissensinhalte sehr verschiedener Art umfasst. Die Lernpsychologie lässt sich mindestens bis ins 19. Jahrhundert zu Hermann Ebbinghaus und Wilhelm Wundt zurückverfolgen. So führte Ebbinghaus 1885 die ersten Lernkurven in die Psychologie ein, die das Verhältnis von Lernaufwand und Lernertrag beschreiben. Derartige Versuche der quantifizierten Darstellung des Wissenserwerbs beim Menschen wurden im 20. Jahrhundert durch verschiedene Lerntheorien ergänzt, die versuchen den Wissenserwerb auf einer breiten theoretischen Ebene zu erklären. Ein klassisches Modell ist die Konditionierung, nach der Lebewesen auf einen bestimmten Reiz eine bestimmte Reaktion zeigen. Beim Konditionieren wird durch wiederholtes Präsentieren von kombinierten Reizen die gewünschte Reaktion antrainiert. Während der Behaviorismus den Wissenserwerb vollständig durch Reiz-Reaktions-Mechanismen zu erklären versuchte, begann man in der 1960er Jahren, interne psychische Zustände zu postulieren, die als Wissensrepräsentationen den Lernerfolg erklären sollten. In den letzten Jahrzehnten sind zudem Lerntheorien hinzugekommen, die den Wissenserwerb mit Hilfe von neuronalen Netzen und neurowissenschaftlichen Erkenntnissen beschreiben (vgl. den Abschnitt Wissensrepräsentation). In der lernpsychologischen Forschung wird also zum einen versucht, den Wissenserwerb des Menschen auf einer allgemeinen, theoretischen Ebene zu verstehen. Zum anderen werden jedoch auch konkrete Wissenserwerbsstrategien beschrieben und erklärt, die je nach Wissensthema, Altersstufe, individuellen kognitiven Profilen und kulturellem Kontext stark variieren können. Eine solche Forschung bietet als pädagogische Psychologie eine Basis für die Entwicklung pädagogischer Wissensvermittlungsstrategien. Die Pädagogik ist insgesamt als Wissenschaft der Wissensvermittlung zu verstehen, wobei zwischen einer Allgemeinen Pädagogik und differentiellen beziehungsweise anwendungsbezogenen Pädagogik unterschieden werden kann. Die allgemeine Pädagogik wird gelegentlich als Grundlagendisziplin verstanden, die die basalen Mechanismen der Wissensvermittlung erforscht. Da Lernen jedoch in verschiedenen Kontexten sehr unterschiedliche Lern- und Lehrstrategien erforderlich macht, sind immer wieder Zweifel an der Möglichkeit einer allgemeinen Pädagogik als Grundlagendisziplin geäußert worden. Neben der allgemeinen Pädagogik wird in differentiellen Ansätzen die Wissensvermittlung mit Bezug auf spezifische


Gruppen untersucht, Beispiele für Teildisziplinen sind die Vorschulpädagogik, die Sonderpädagogik und die Erwachsenenbildung. In verschiedenen Anwendungsfächern wird zudem nach den Anforderungen der Wissensvermittlung in bestimmten Themenfeldern gefragt, etwa in der Interkulturellen Pädagogik, der Theaterpädagogik oder der Sexualpädagogik. Auch wenn alle Teilbereiche der Pädagogik als Ansätze zur Wissensvermittlung verstanden werden können, hat sich „Wissen“ in den letzten Jahrzehnten unter dem Einfluss des lernpsychologischen Konstruktivismus, der Informationstheorie, neuer Medien und der Debatte um die Wissensgesellschaft in einigen pädagogischen Theorien zu einem neuen Grundbegriff entwickelt. Dabei wird darauf hingewiesen, dass Wissen ein wesentlich soziales Phänomen sei und daher nicht auf eine Schüler-Lehrer-Interaktion reduziert werden könne. Wissen werde in gemeinschaftlicher Arbeit mit Hilfe verschiedener Medien „sozial konstruiert“ und eine angemessene pädagogische Theorie und Praxis müsse auf diese Merkmale der Wissensgenerierung eingehen. Ein bekannter Ansatz ist etwa die Knowledge building Theorie von Carl Bereiter und Marlene Scardamalia. Bereiter und Scardamalia gehen auf der Basis des Wissensgesellschaftskonzepts davon aus, dass Wissensvermittlung und -generierung in gegenwärtigen Gesellschaften nur zu einem kleinen Teil durch klassische Ansätze wie Lehrmethoden und Lehrpläne realisiert werden kann: „Die neue Herausforderung besteht darin, die Jugend in eine Kultur zu führen, die die Wissensgrenzen an allen Seiten verschiebt. Es geht darum, dabei zu helfen, eine konstruktive und persönlich befriedigende Rolle in dieser Kultur zu finden.“ Der Begriff Wissensgesellschaft bezeichnet eine Gesellschaftsformation in hochentwickelten Ländern, in der individuelles und kollektives Wissen und seine Organisation vermehrt zur Grundlage des sozialen und ökonomischen Zusammenlebens wird. Grundsätzlich jedoch baut jedes gesellschaftliche System auf Wissen auf. Der gesellschaftsanalytische Wert des Begriffs "Wissensgesellschaft" ist dabei allerdings umstritten. Der Begriff der Wissensgesellschaft wurde unter anderem 1966 vom amerikanischen Soziologen Robert E. Lane verwendet („knowledgeable societies“). Daniel Bell, ebenfalls amerikanischer Soziologe, popularisierte das Konzept der Wissensgesellschaft 1973 mit seiner Studie The Coming of Post-Industrial Society. A Venture in Social Forecasting. Er versuchte darin zu zeigen, dass theoretisches Wissen die wichtigste Ressource der post-industriellen Gesellschaft darstelle, während in industrialisierten Gesellschaften Arbeit, Rohstoffe und Kapital die zentrale Rolle spielten. Nach Daniel Bell lässt sich der Strukturwandel der Gesellschaft auf ökonomischer Ebene an der Entwicklung zur Dienstleistungsökonomie und in kognitiver Hinsicht an der Einbeziehung von Wissenschaft und Wissensarbeit in die Produktion selbst beobachten. Als einer der ersten Ökonomen prägte Peter Drucker die Begriffe der „Angestelltengesellschaft“ (1950), des „Wissens- und Kopfarbeiter“ (1960) beziehungsweise den der „Wissensgesellschaft“ (1969). Ausgehend von dem Werk Michael Polanyis, „The tacit dimension“ aus dem Jahr 1966, und dessen Kernaussage, „daß wir mehr wissen, als wir zu sagen wissen“, ist die eigentliche Grundlage für eine inhaltliche Diskussion nach Art, Schaffung und Verwertung der Ressource Wissen eröffnet worden. Die Differenzierung in „implizites Wissen“ und „explizites Wissen“ bildet hierbei einen der wesentlichen Ansätze. Der Übergang von der Industrie- zur Wissensgesellschaft lässt sich zeitlich nicht genau fixieren. Verschiedene Denker haben ab den 50er bzw. 60er Jahren des 20. Jahrhunderts einen Strukturwandel innerhalb der gesellschaftlichen und wirtschaftlichen Ordnung diagnostiziert, der mindestens so bedeutsam sein soll wie der Übergang von der Agrargesellschaft zur Industriegesellschaft. Erzeugung, Nutzung und Organisation von Wissen wurden als zentrale Quellen von Produktivität und Wachstum begriffen. Allerdings wird schon in der klassischen sozialwissenschaftlichen Literatur darauf hingewiesen, dass bereits die Industrialisierung eine


wissensbasierte Gesellschaft voraussetzt, in der ein ent-traditionalisierter, systematischerer Umgang mit Wissen praktiziert wird. Karl Marx zum Beispiel sieht die Systematisierung, Verwissenschaftlichung und Technisierung der betrieblichen und gesellschaftlichen Wissensbestände vor allem als Mittel zum Zweck kapitalistischer Herrschaftsstrukturen. Max Weber verweist im Zuge einer umfassenden Analyse der europäischen Geistesgeschichte auf die Berechen- und Kalkulierbarkeit wirtschaftlicher Prozesse als Indikatoren für eine rationale Wirtschaft. Er rückt im Zuge dessen die Bürokratie als besondere Form des Umgangs mit Wissen in den Mittelpunkt, die er als Herrschaft durch Wissen analysiert. Der Zusammenhang von Wissen und Macht bzw. Wissen und seine Legitimierung wurde später auch von Michel Foucault bzw. Jean-Francois Lyotard untersucht. Im Unterschied zu den Diskussionen der 1960er Jahre problematisieren die Debatten bezüglich der Wissensgesellschaft ab Ende des 20.Jahrhunderts auch den globalen Charakter der beobachteten Rationalisierungsprozesse und die Zunahme von Nicht-Wissen in der Wissensproduktion und damit verbundene Unsicherheiten, Risiken und Paradoxien. Um das Jahr 2000 herum wird das Schlagwort der Entwicklung zur Wissensgesellschaft zunehmend von politischen Parteien und Interessenverbänden besetzt, oft in Gegensatz zum alternativ verstandenen Schlagwort von der Zivilgesellschaft.

Wissensökonomie Auf europäischer Ebene findet die Idee im Rahmen einer auf Erhöhung der Wettbewerbsfähigkeit ausgerichteten Wirtschafts- und Gesellschaftspolitik ihren Niederschlag in der sog. "LissabonStrategie". Dabei werden Rankings für Volkswirtschaften vorgenommen, wobei zwischen "forschungsintensiver Produktion" und "wissensintensiven Dienstleistungen" unterschieden werden kann. Im Konzept der Wissensgesellschaft kommt der beruflichen Qualifikation der Arbeitnehmer eine hohe Bedeutung zu. US-Ökonom Jeremy Rifkin sagt, Arbeit werde in Zukunft „etwas für die Eliten sein“ (siehe Ende der Arbeit). Da die Wissensgesellschaft anstelle der Verwertung von fixem Sachkapital von immateriellem Kapital ausgeht, das nicht mehr mit klassischen Methoden (Produkteinheit pro Zeiteinheit) gemessen werden kann, wäre nach André Gorz die angemessene Ökonomie für eine Wissensgesellschaft ein Wissenskommunismus. Gefragt ist nicht formelles, abrufbares Wissen, sondern Formen lebendigen Wissens, wie Erfahrungswissen, Urteilsvermögen, Selbstorganisation, etc. Nicht die abgeleistete Arbeitszeit, sondern die „Verhaltenskomponente“ und die „Motivation“ gelten als ausschlaggebende Wertschöpfungsfaktoren. Solche Faktoren werden betriebswirtschaftlich als Humankapital bezeichnet. „Motivation“ bedeutet in diesem Zusammenhang ein Sich-Selbst-Einbringen und Sich-Selbst-Produzieren, während die erwähnte Verhaltenskomponente sich auf Kunden, aber auch auf die innerbetriebliche Zusammenarbeit bezieht. Pierre Veltz macht in diesem Zusammenhang darauf aufmerksam, dass nicht die von Einzelnen geleistete Arbeit, sondern die Qualität der Verständigungen im Umfeld des Produktionssystems entscheidend ist. Das Humankapital entsteht also nicht individuell im luftleeren Raum, sondern entfaltet sich unter kulturellen Rahmenbedingungen als allgemeines Wissen, das in der primären Sozialisierung weitergegeben wird. Das lebendige Wissen als Quelle der Wertschöpfung produziert, so A. Gorz, nichts greifbar Materielles. Es ist vielmehr die Arbeit des sich selbst als Aktivität produzierenden Subjekts.


Charakteristika der Wissensgesellschaft Als typische Charakteristika der Wissensgesellschaft können wohl die folgenden 4 Punkte genannt werden:    

Wissen wird zur strategischen Ressource in Produkten und Dienstleistungen Das Wissen der Zukunft ist vernetzt, dezentral und interdisziplinär Effektive Nutzung des Wissens ist ein entscheidender Wettbewerbsfaktor Wissen selbst wird zum veräußerlichten Gut

Ikujirō Nonaka und Hirotaka Takeuchi unterscheiden, aufbauend auf Michael Polanyi, zwischen explizitem und implizitem Wissen. Sie definieren das Schaffen von Wissen als einen Prozess der Umwandlung von implizitem Wissen in allgemein verständliche Worte und Zahlen. Die Gegenwart zeichnet sich durch medienvermittelte Informationen aus, welche einem erheblichen Einfluss auf privates und öffentliches Leben ausüben. Menschen als Wissensträger werden immer wichtiger und die Mitglieder der Gesellschaft müssen mehr als bisher die Qualität vorhandener Informationen beurteilen können. Reines Faktenwissen wird an Wichtigkeit verlieren. Dagegen werden Grundlagenwissen und die damit einhergehende Beurteilungskompetenz und Verstehensprozesse immer wichtiger.


5.

Die Wissensgesellschaft lässt auf sich warten

Nach Angaben der KfW Entwicklungsbank können am Ende des ersten Jahrzehnts des neuen Jahrtausends noch immer rund 760 Millionen Erwachsene weltweit nicht lesen und schreiben. Die Weltbank setzt die weltweite Alphabetisierungsrate von Menschen über 15 Jahren mit gerade einmal 83 Prozent an. Nach Prognosen der UNO werden 2015 noch 710 Millionen Menschen ohne grundlegende Lese- und Schreibkompetenz sein. 98 Prozent der Analphabeten leben in Entwicklungsländern, aber auch 4 Millionen Menschen in Deutschland gelten als Analphabeten. Zwei Drittel der Betroffenen weltweit sind Frauen. Untersuchungen zeigen, dass mit niederem Bildungsniveau hohe Geburtenraten, Chancenlosigkeit am Arbeitsmarkt und ökonomische Abhängigkeit gerade von Frauen einhergehen. Wir haben hier also 15 Jahre nachdem das Web uns Hoffnung auf eine bessere Welt mit einfacherem Wissenszugang gegeben hat, noch immer einen gewaltigen Aufholbedarf, wenn wir an uns selbst weiterhin die Anforderung der Entwicklung einer Wissensgesellschaft stellen. Bezieht man das derzeit angenommene Bevölkerungswachstum – die UNO erwartet bei mittlerer Projektion bis 2025 in etwa 8 Milliarden und bis 2050 knapp 9,2 Milliarden Menschen - in eine dynamische Betrachtung über die Aufgabe zur Entwicklung einer Wissensgesellschaft mit ein, dann können wir ermessen, dass eine gewaltige Aufgabe vor uns liegt. Die hauptsächliche Quelle des Wissens ist die Schrift, aber es können keine gedruckten Bücher (P-Books) mehr sein, auf die wir bei der Herausbildung der Wissensgesellschaft zurückgreifen. Gedruckte Bücher sind teuer zu produzieren und schwer zu transportieren. Vor allem in den Entwicklungsländern führt die fehlende verkehrstechnische Infrastruktur in Verbindung mit der fehlenden Kaufkraft dazu, dass der Zugang zu gedrucktem Wissen nach wie vor ein Luxus ist.


6.

Klimawandel und Ressourcenbelastung (Stern-Report)

Allgemein Bei der Darlegung der Umweltsituation wollen wir auf öffentlich zugängliche und auch für den Laien [halbwegs] verständliche Quellen zurückgreifen. Diesbezüglich scheint uns der Stern-Report ein guter Ansatz. Der Stern-Report hat in den letzten Jahren eine breite öffentliche Diskussion erfahren, die über Wikipedia und die Blogosphäre sehr schön nachvollziehbar und dokumentiert ist. Darüber hinaus können der gesamte Report wie die einzelnen Kapitel unentgeltlich von diversen Webseiten heruntergeladen aber auch in kommentierter Buchform gekauft werden.

Der Stern-Report (englisch Stern Review on the Economics of Climate Change) wurde 2006 vom ehemaligen Weltbank-Chefökonomen und damaligen Leiter des volkswirtschaftlichen Dienstes der britischen Regierung, Nicholas Stern, veröffentlicht. Der im Auftrag der britischen Regierung erstellte rund 650 Seiten starke Bericht untersucht insbesondere die wirtschaftlichen Folgen der globalen Erwärmung. Der Report kommt zur Schlussfolgerung, dass die Konzentration von Treibhausgasen in der Atmosphäre gegenüber dem Stand vor der industriellen Revolution von 280 ppm (parts per million oder Millionstel in der Atmosphäre) Kohlendioxidäquivalenten auf heute 430 ppm gestiegen ist und sich jährlich um über 2 ppm erhöht. Der Klimawandel ist eine Bedrohung des Lebens auf der Erde. Es ist aber immer noch möglich, die schlimmsten Risiken und Auswirkungen des Klimawandels mit tragbaren Kosten zu vermeiden, wenn jetzt schnell auf nationaler und internationaler Ebene gehandelt wird. Um schwerwiegende Folgen für die Weltwirtschaft zu vermeiden, sollte die Konzentration von Treibhausgasen in der Atmosphäre unter 550 ppm gehalten werden, aber schon in diesem Fall würde die weltweite Durchschnittstemperatur um 2 bis 3 °C steigen. Die Konzentration der Treibhausgaskonzentration kann auf 550 ppm begrenzt werden, wenn der Anstieg der Emissionen innerhalb von 15 Jahren gestoppt wird und danach die Emissionen jährlich um rund 2 % sinken. Da sich die gesamtwirtschaftliche Produktion, das Bruttoinlandsprodukt, bis 2050 etwa verdrei- bis vervierfachen wird, bedeutet dies, dass die Emissionen pro Einheit des Bruttoinlandprodukts bis 2050 um rund drei Viertel gedrückt werden müssen. Wenn nichts getan wird, um die Emissionen von Treibhausgasen zu reduzieren, könnte die Konzentration von Treibhausgasen in der Atmosphäre bereits 2035 das Doppelte ihres


vorindustriellen Niveaus erreichen, was einen Anstieg der Durchschnittstemperatur um mehr als 2 °C bedeuten würde. Längerfristig gesehen, läge die Wahrscheinlichkeit, dass der Temperaturanstieg 5 °C überschreiten würde, bei mehr als 50 %, wenn nicht gehandelt wird. Dieser Anstieg würde dem Anstieg der Durchschnittstemperatur seit der letzten Eiszeit entsprechen. Nach Meinung des Stern-Reports sind die Anstrengungen zur Vermeidung des Klimawandels und der Förderung von Wachstum und Entwicklung keine Gegensätze. Im Gegenteil, die Bekämpfung des Klimawandels ist langfristig gesehen eine Wachstumsstrategie. Emissionen können durch eine höhere Energieeffizienz, durch Bedarfsänderungen sowie durch die Nutzung sauberer Kraftwerks-, Heizungs- und Transporttechnologien reduziert werden.

Holz, Papier und Umwelt Der Kraftwerkssektor müsste dem Stern-Report folgend weltweit bis 2050 wenigstens 60 % weniger Kohlendioxid ausstoßen, damit die Konzentration von Treibhausgasen auf oder unter 550 ppm Kohlendioxidäquivalente stabilisiert wird. Auch die Verringerung von Emissionen außerhalb der Energiewirtschaft, wie sie zum Beispiel bei der Abholzung von Wäldern entstehen, ist wesentlich. Der Verlust von Wäldern trägt jährlich mehr zu den globalen Emissionen bei als der Verkehrssektor. Die Erhaltung der Wälder ist eine äußerst rentable Möglichkeit zur Verringerung von Emissionen. Darüber hinaus müssten, so eine Forderung des Reports, die Innovationen zum Einsatz kohlenstoffarmer Technologien gefördert werden, da der Einsatz neuer kohlenstoffarmer Technologien um zumindest das Fünffache des 2006 gegebenen Niveaus wachsen sollte. Der 2006 herausgebrachte Stern-Report hat in der Folge heftige Diskussionen hervorgerufen über die es auf Wikipedia eine sehr gute zusammenfassende Darstellung gibt. Es gibt Stimmen, die dem Report eine zu negative Haltung vorwerfen aber auch Stimmen, die genau im Gegenteil meinen, dass der Report die Situation sowie die Prognose über die Entwicklung viel zu positiv darstellt. In der Politik, so heißt es, macht man dann etwas richtig, wenn alle Seiten mit dem Erreichten unzufrieden sind. In diesem Sinne dürfte der Stern-Report also vieles richtig gemacht und dargestellt haben. Sogar der naivste Fortschrittsgläubige [im konservativen Sinne] bestreitet heute die durch die Industrialisierung entstandenen Umweltschäden nicht mehr. Wir sind mit den Ressourcen unseres Planeten zunächst unwissend – nun aber wissend – nicht sorgsam genug umgegangen.

Rebooting The Planet In seinem jüngsten und höchst bemerkenswerten Buch MacroWikinomics: Rebooting Business and the World hat der renommierte Wissenschaftler und Autor Don Tapscott anhand ausgewählter Branchen dargelegt, dass es mit der heute vorhandenen Technologie schon Möglichkeiten gibt, den Umgang unserer Gesellschaft mit den knappen natürlichen Ressourcen nachhaltig zu verbessern. Im Sinne des Stern-Reports verweist Tapscott dabei auf die vielfältigen Möglichkeiten, die sich aus dem sinnvollen Einsatz kollaborativer Technologien und Methoden ergeben.


Diesbezüglich bietet vor allem die zunehmende Virtualisierung vieler Lebensbereiche die Chance, den Ressourcen unseres Planeten eine entsprechende Pause zu gönnen bzw. Abbau und Verwendung effizienter zu gestalten. Dies ist, wie auch Don Tapscott darlegt, gerade angesichts der erst beginnenden Entwicklung der großen und bevölkerungsreichen Regionen wie China oder Indien unbedingt erforderlich. Virtualisierung geht einher mit der Teilung von vorhandener Infrastruktur [Cloud Sourcing, Shared Ressources etc] und mit der Abnahme der Nutzung natürlichen Ressourcen durch die einzelne Person. So können beispielsweise große Server in den Rechenzentren von Google, Amazon & Co die Daten viel ressourceneffizienter verwalten als Millionen kleine Server in Unternehmen und Haushalten. Und genau an dieser Stelle können wir mit unserer Vision über die E-Books als Beitrag zur Entwicklung der Wissensgesellschaft bei gleichzeitiger Entlastung der Umwelt anknüpfen.


7.

Die Gutenberg Galaxis ist Vergangenheit

Die P-Books haben in den letzten 500 Jahren einen wesentlichen Beitrag in der Entwicklung der Industriegesellschaften aus einer landwirtschaftlich geprägten, wissensmäßig durch weltliche und kirchliche Instanzen abhängigen Gesellschaft über die Industrialisierung in eine Wohlstandsgesellschaft geleistet. Ohne die Gutenberg'sche Innovation der Druckmaschine mit beweglichen Lettern wäre das wohl so nicht möglich gewesen. Der Medientheoretiker Marshall McLuhan hat diese hinter uns liegende Epoche als die Gutenberg Galaxis bezeichnet, welche die Phase der Oralität und Literarität abgelöst hat. Das Leitmedium der Gutenberg Galaxis war das gedruckte Buch: „Der Buchdruck neigte dazu, die Sprache von einem Mittel der Wahrnehmung zu einer tragbaren Ware zu verändern. Der Buchdruck ist nicht nur eine Technologie sondern selbst ein natürliches Vorkommen oder Rohmaterial wie Baumwolle oder Holz oder das Radio; und wie jedes Rohmaterial formt es nicht nur die persönlichen Sinnesverhältnisse, sondern auch die Muster gemeinschaftlicher Wechselwirkung.“ (Marshall McLuhan, The Gutenberg Galaxy, 1962)

Auf Grundlage der zunehmenden Digitalisierung der letzten 3 Jahrzehnte befindet sich die Gutenberg Galaxis in der evolutionären Ablöse durch das elektronische Zeitalter. Diese Ablöse des bedruckten Papiers durch neue elektronische Technologien wie E-Books ist aus Entwicklungs- und Umweltperspektiven auch dringend geboten. Die Papier- und Buchproduktion ist schon heute eine nicht zu unterschätzende Umweltbelastung, die sich selbst unter Einrechnung technischer Fortschritte und effizienterer Technologien um ein Vielfaches erhöhen würde, wenn wir bei steigender Weltbevölkerung und zwecks Umsetzung der Ziele einer Wissensgesellschaft noch mehr Bücher drucken, verteilen und entsorgen müssten. Das Buch ist ein - aus der Umweltperspektive - nicht mehr zeitgemäßes Medium. Bereits heute, werden jährlich über 125 Millionen Bäume abgeholzt, um Papier zu erzeugen und trotzdem haben wir nach wie vor 760 Millionen Analphabeten, die noch nie ein Buch gesehen haben. Die Produktion eines P-Books verbraucht über 20 Liter kostbares und äußerst knappes Wasser. Ein EBook hingegen verbraucht in einer Gesamtverbrauchsrechnung nur rund 2 Tassen davon. Die Papierindustrie in Deutschland wird – ganz im Gegensatz zur amerikanischen Industrie – zwar nicht müde darauf hinzuweisen, dass auch die digital-elektronische Infrastruktur viel Energie verschlingt und CO2-Belastungen produziert, aber das verändert sich sehr rasch. Die Informationstechnologie steht noch ganz am Anfang ihrer Lernkurve. Die Energie- und Schadstoffeffizienz verbessert sich [frei] nach dem Mooreschen Gesetz alle 18 Monate um das Doppelte. Die neuen E-Book Reader verbrauchen nur mehr den Bruchteil der Energie von PCs und NotE-Books und auch diese sind heute bereits sehr effizient. Wir können hier noch ähnliche Fortschritte erwarten wie in der industrialisierten Wirtschaft beim Umstieg von der Dampfkraft auf elektrische und fossile Energie. Das ist auch notwendig, wenn wir unseren Planeten gerade vor dem Hintergrund der dramatisch ansteigenden Bevölkerung im Gleichgewicht halten wollen. Im November 2008 gab das UN Klimasekretariat bekannt, dass die Treibhausgasemissionen in 40 erfassten Industriestaaten zwischen den Jahren 2000 und 2006 um 2,3 % gestiegen sind. Die Störung des natürlichen Gleichgewichts der Atmosphäre durch Eingriffe in den Naturhaushalt und durch anthropogene Emission von Treibhausgasen verstärkt den natürlichen Treibhauseffekt und führt zur globalen Erwärmung. Für die im Kyoto-Protokoll reglementierten Gase ist Kohlenstoffdioxid (CO2) als Referenzwert für die Treibhausgase festgelegt. Kohlenstoffdioxid (CO2) hat einen Anteil von ungefähr 20 % am natürlichen Treibhauseffekt und macht etwa 60 % des vom Menschen verursachten zusätzlichen Treibhauseffekts aus. Der weltweite anthropogene CO2Ausstoß betrug im Jahr 2006 circa 32 Milliarden Tonnen.


Die amerikanische Buchindustrie ist sich des Umstandes bewusst, dass sie ein wesentlicher Mitverursacher der Treibhausgase in Form von CO 2 ist. Daher hat das Book Industry Environmental Council bereits 2009 beschlossen, die CO 2-Belastung bis 2020 um 20 Prozent und bis 2050 sogar um 80 Prozent reduzieren zu wollen. Darüber hinaus gibt es verschiedene Organisationen und Initiativen rund um die Buchindustrie, die sich mit sowohl für eine nachhaltige Waldbewirtschaftung wie auch mit einem verantwortungsvollen Umgang mit der Umwelt einsetzen. Zu nennen sind hier vor allem die Green Press Initiative und ihre Initiative Ecolibris, die sich bereits seit knapp 4 Jahrzehnten unter dem Motto 41 Gründe, einen Baum für dein Buch zu pflanzen für eine nachhaltige Bucherzeugung einsetzen.

Über Ecolibris und Aktionen wie eben die 41 Gründe, einen Baum für dein Buch zu pflanzen, sollen die Konsumenten und Leser überzeugt werden, für jedes gelesene Buch einen Baum zu pflanzen bzw. pflanzen zu lassen, um seine persönliche Umweltbilanz zu verbessern. Diesbezüglich bietet Ecolibris gleich die entsprechenden Baumpflanzungsdienstleitung an.


Es ist auch die Green Press Initiative, die sich mit dem Thema der E-Books und ihrer Umweltauswirkungen im Vergleich zu den P-Books sehr intensiv auseinandersetzen [siehe auch das Kapitel 端ber Wald, Holz und Papier].


8.

Holz, Papier und die Umwelt

Die Vereinten Nationen schützen die Wälder Die Vollversammlung der Vereinten Nationen hat 2006 in einer Resolution das Jahr 2011 zum "Internationalen Jahr der Wälder" [International Year of Forests] erklärt und will damit Bewusstsein für die Bedeutung eines nachhaltigen Umgangs mit den Wäldern und das fragile Ökosystem der Wälder schaffen. Bereits Ende der 1970er Jahre hatte die Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen den Tag des Waldes ausgerufen, der jährlich am 21. März begangen wird aber bei uns bisher kaum Beachtung gefunden hat.

Wälder – eine Lebensgrundlage unseres Planeten Wälder - so schätzt die Weltbank - bieten Lebensräume für etwa zwei Drittel aller Arten auf der Erde. Die Abholzung der tropischen Regenwälder ist verantwortlich für den Verlust der biologischen Vielfalt mit nicht weniger als 100 Arten pro Tag. Bereits seit den Es gibt im Web und der Blogosphäre eine Vielzahl an Aktionen rund um Das Jahr der Wälder und dem am 21. März stattfindenden Tag des Waldes. In Deutschland findet man über Das Jahr des Waldes eine Vielzahl von Informationen rund um das Thema und auf Wald 2011, wo man erfährt, dass es in Summe sieben Milliarden Bäume in Deutschland gibt, die zusammen eine Waldfläche von etwa 11,1 Millionen Hektar ergeben. Im Gegensatz zu vielen anderen Regionen der Erde nimmt der Waldbestand in Deutschland zu, in den letzten 40 Jahren um rund 10 Prozent. Nach den Daten des World Wildlife Fond [WWF] gibt es in der EU rund 160 Millionen Hektar Wald, was mehr als der Fläche Deutschlands, Frankreichs und Spaniens zusammen entspricht. Weltweit noch 3,9 Milliarden Hektar Wald. Zwei Drittel der 1,3 Millionen bekannten Tier- und Pflanzenarten leben in Wäldern. Insgesamt werden nach WWF sogar 9,5 Millionen Spezies in Wäldern vermutet, die bislang noch weitgehend unentdeckt zwischen Wurzel und Wipfel leben. Das waldreichste Land der Erde ist Russland, mit rund einem Viertel aller Wälder und dem größten zusammenhängenden Waldgebiet der Erde in Sibirien mit einer Größe von über 800 Millionen Hektar. Das größte zusammenhängende Regenwaldgebiet der Erde befindet sich im Amazonas-Becken. Pro Jahr werden weltweit im Durchschnitt 13 Millionen Hektar Wald abgeholzt und was umgerechnet auf die Minute eine Fläche von rund 35 Fußballfeldern ergibt. Seit 1960 wurden Tropenwälder in der Größe von halb Europa vernichtet, 645 Millionen Hektar. Die anhaltende Zerstörung der Wälder außerhalb Deutschlands und Europas bedroht rund 80 % der gefährdeten Säugetier- und Vogelarten.

Wald und Wirtschaft Wald ist auch Wirtschaft. Das im Jahr 2005 weltweit industriell eingeschlagene Holz hatte einen Wert von annähernd 77 Milliarden Euro. Der Wert weiterer Waldprodukte wird für das Jahr 2005 auf etwa 14 Milliarden Euro geschätzt. Der tatsächliche Wert dürfte weitaus höher liegen, weil sie kaum statistisch erfasst werden. Einer der größten Holz- und Waldverbraucher ist das Papier. Insofern rät nicht nur der WWF zum massiven Sparen beim Papierverbrauch und bezeichnet das Dateiformat PDF, sogar als das grüne Dateiformat.

Wald, Holz und Papierproduktion Die amerikanische Green Press Initiative hat errechnet, dass alleine die US-amerikanische


Buchindustrie im Jahre 2006 rund 30 Millionen Bäume konsumiert und 12,4 Millionen Tonnen CO 2-Belastung verursacht hat. Weltweit werden für die gesamte Papiererzeugung sogar rund 125 Millionen Bäume abgeholzt. Der Verlust von Wäldern trägt jährlich mehr zu den globalen Emissionen bei als der Verkehrssektor. Die Erhaltung der Wälder ist eine äußerst effiziente Möglichkeit zur Verringerung von Emissionen. Die erfreuliche Entwicklung der letzten Jahre ist die zunehmende Verwendung von Recycling Papier wie aus nachfolgender Grafik aus der Studie der Book Industry Study Group und Green Press Initiative hervorgeht.

Darüber hinaus setzen immer mehr Verlage und Druckereien auf den Einsatz von FSC-Papier. Der Forest Stewardship Council (FSC) ist eine internationale Non-Profit-Organisation und etablierte das erste

System zur Zertifizierung nachhaltiger Forstwirtschaft. Der Ausdruck „FSC“ wird auch benutzt  

für das FSC-Zertifizierungssystem für das FSC-Zeichen, auch FSC-Logo, FSC-Zertifikat oder FSC-Gütesiegel genannt.

Letzteres kennzeichnet Holz-Produkte als Erzeugnisse von Forstbetrieben, die nach FSC-Kriterien zertifiziert sind. Das FSC-System zur Zertifizierung von Forstwirtschaft wurde gegründet zur Sicherung der nachhaltigen Waldnutzung. Diese beinhaltet die Wahrung und auch Verbesserung der ökonomischen, ökologischen und sozialen Funktionen der Forstbetriebe. Hierzu entwickelte der FSC einen allgemeinen und länderübergreifend einheitlichen Standard, der aus zehn Prinzipien und Kriterien besteht und den man nur anwenden kann, wenn man diese zehn für eine nationale Ebene konkretisiert (siehe unten). Die Green Press Initiative hat einen Aktionsplan zur Reduzierung der Umweltbelastung und zur Schonung der Wälder ausgerufen, der schon von über 200 Verlagshäusern, 17 Druckerherstellern und vielen anderen Branchenunternehmen in den USA akzeptiert wurde. Dabei sollen folgende Umweltziele erreicht werden:  

bis 2012 sollen 30 Prozent des verwendeten Papiers aus Recycling kommen bis 2012 sollen 20 Prozent des verwendeten Papier FSC zertifiziert sein.


 

Reduktion der Treibhausgase um 20 Prozent bis 2020 (Basis 2006) Komplette Eliminierung von Papier, das aus Zellstoff von gefährdeten Bäumen und Wäldern stammt.

Man sieht, dass es in den USA innerhalb der Buchindustrie nicht nur ein Umweltbewusstsein gibt, sondern auch durchaus aggressive Aktionen, um die Situation zu verbessern.


9.

Kohlendioxid, Treibhausgase und Buchproduktion

Situation und Daten der USA Die Green Press Initiative liefert schätzt, dass alleine die in den USA produzierten Bücher jährlich 12,4 Millionen Tonnen CO 2-Belastung verursachen. Die amerikanische Buchindustrie ist sich der Umweltbelastung, die aus der Produktion und der Konsumation von Büchern resultiert durchaus bewusst. Daher hat das Book Industry Environmental Council bereits 2009 beschlossen, die CO 2-Belastung bis 2020 um 20 Prozent und bis 2050 sogar um 80 Prozent reduzieren zu wollen. Die amerikanische Book Industry Study Group und die Green Press Initiative haben die CO 2- bzw. Treibhausgas-Belastung auf die einzelnen Wertschöpfungsstufen der Buchindustrie heruntergebrochen:

Nach Berechnungen von Green Press Initiative verursacht jedes gedruckte Buch knapp 4,4 Kilogramm CO 2-Belastung. Ein E-Book hingegen verbraucht kein Papier und verursacht in einer Gesamtrechnung maximal 3 Gramm CO 2 Belastungen. In einer interessanten Vergleichsrechnung der Cleantech Gruppe schlägt ein verkauftes Buch im Zuge der Druckproduktion, Bindung, Transportlogistik und Entsorgung sogar mit bis zu 7,5 kg CO2-Belastung zu Buche.

Situation und Daten in Deutschland Der Börsenverein des deutschen Buchhandels schätzt, dass in Deutschland jährlich rund 1 Milliarde Bücher gedruckt und hergestellt werden. Setzen wir das in Relation zur Anzahl der Einwohner von knapp 81,7 Millionen, dann kommen für den deutschsprachigen Teil der Schweiz und für Österreich für die insgesamt rund 12 Millionen Einwohner nochmals rund 150 Millionen Bücher dazu. Wir werden wohl nicht so falsch liegen, wenn wir postulieren, dass alleine im deutschsprachigen Raum rund 1,2 Milliarden Bücher jährlich produziert werden.


Multipliziert mit den von Green Press Initiative errechneten Wert von 4,4 Kilogramm CO 2Belastung pro Buch würde die Menge der jährlich in Form von CO 2 produzierten Treibhausgase im deutschsprachigen Raum rund 4,8 Millionen Tonnen betragen. Hinzu kommt noch die Belastung aus der Produktion von Zeitungen und Magazinen. Die Papierproduktion unsere Bücher, Magazine und Zeitungen ist ein wesentlicher Mitverursacher der CO2-Belastung. Der Verband Deutscher Papierfabriken schätzt, dass der europäische Pro-KopfVerbrauch von Papier rund 200 Kilogramm pro Jahr beträgt. Das entspricht dem CO2-Ausstoß eines durchschnittlichen Familienautos auf 1000 Kilometer. Für diese 200 kg Papier werden in Deutschland 560 kWh Energie benötigt. Die taz hat im Oktober 2010 wissen lassen, dass jede Ausgabe ihrer Tageszeitung rund 300 Gramm CO2 verursacht, was einer Autofahrt von zwei bis drei Kilometern entspricht. Frage: wieviel CO 2 verschlingt die Produktion von einem Kilogramm Papier?


10.

E-Books, E-Book Reader und Umweltbelastung

Kleine Geschichte der E-Book und E-Book Reader Die ersten wirklich massentauglichen E-Books kamen erst 2009 auf den amerikanischen und 2010 auf den europäischen Markt. Dabei war sicher Amazon mit dem Kindle E-Book Reader ein Pionier. Unabhängig wie man als Lesender, Autor oder Verlag zum Unternehmen Amazon stehen mag, das Unternehmen hat über Jahre hinweg eine Innovation betrieben, die uns vielleicht eine Perspektive vermitteln vermag, wie wir Wissensgesellschaft trotz Bevölkerungswachstum bewältigen können. Mit den E-Book Readern wie den Amazon Kindle kommen wir in komplett andere Energieverbrauchs- und Schadstoffverbrauchsdimensionen als mit den traditionellen PCs oder Note/Netbooks. Neben den Amazon Kindle E-Book Readern, die vor allem in den USA Verbreitung gefunden haben sind die von Apple Anfang 2010 auf den Markt gebrachten TabletPCs mit der Bezeichnung iPad. Diese gibt es seit März 2011 in der zweiten Generation mit der Bezeichnung iPad 2. Im Gegensatz zum Amazon Kindle ist das iPad ein Multifunktionsgerät und die Nutzung als E-Book Reader lediglich eine von vielen Nutzungsmöglichkeiten.

E-Book Situation in Deutschland Von Ansgar Warner, erschienen auf e-Book News unter der nicht-kommerziellen Creative Commons Lizenz

Mehr als 450.000 E-Reader gibt es schon in den Händen deutscher Leser, will MediaControl jetzt festgestellt haben. Und alleine im Jahr 2010 wurden mehr als vier Millionen E-Books verkauft. Einen wichtigen Anteil daran haben Buchhandelsgrößen wie Thalia und Libri, die seit letztem Jahr mit WiFi-fähigen Geräten wie Oyo respektive LumiRead drahtloses E-Book-Shopping zum neuen Standard machten. Trotz aller Erfolge im letzten Weihnachtsgeschäft: Besonders hoch klingt die von MediaControl genannte Reader-Zahl nicht, selbst wenn man in Rechnung stellt, dass es dabei tatsächlich nur um „dedizierte“ Lesegeräte geht, also vor allem solche mit lesefreundlichem E-InkDisplay. Was deutsche Kunden wirklich unter „E-Reader“ verstehen, zeigte eine TNS-Emnid-Studie im letzten Jahr – an erster Stelle stand Apples iPad, und zwar bereits vor dem Verkaufsstart. Mittlerweile dürfte die Zahl der abgesetzten Exemplare von Apples Tablet auch hierzulande bereits die Millionengrenze überschritten haben. Mehr als eine Million iPad-Besitzer haben also bereits direkten Zugang zu Apples iBooks-Store, mit stark wachender Tendenz. An zweiter Stelle beim „Product Awareness“-Test kam Amazons Kindle, das als „Kindle 3“ parallel zum iPad-Start mit zuvor unerreichten Preis-Leistungsverhältnis von sich reden machte. Mangels deutschem Kindle-Store war das „K3“ bisher kaum ein ernstzunehmender Faktor. Das jedoch dürfte sich in diesem Jahr ändern: Amazon steht endgültig ante Portas. In Deutschland gibt es leider noch viele Faktoren, die ein rasches Take-Off des E-Book Marktes behindern. Die „zünftigen“ Denkstrukturen der Gutenberg-Galaxis wirken fort. Verlage treten bei der Print-to-Online-Strategie auf die Bremse. Autoren scheinen Trends vom Self-Publishing bis hin zum kollaborativen Schreiben bisher komplett zu verschlafen. Doch das muss nicht so bleiben. Der „Kindle-Effekt“ lässt sich auch als kulturelle Revolution beschreiben, die vorherrschende Denkschablonen sprengt. Amazon-Chef Jeff Bezos scheint darauf von Anfang an spekuliert zu haben – „to kindle“ heißt schließlich soviel wie anfeuern oder anfachen. Der zündende Funke wirkt. E-Books haben sich in den USA neben Hardcover & Paperback nun sogar in den altehrwürdigen Bestseller-Listen der New York Times verankert, Bestseller-Autoren veröffentlichen


exklusiv auf Amazons Lesegeräten, Nachwuchstalente erobern neue Genres wie etwa die „SingleKurzformate“. Noch viel wichtiger für die deutschen Zustände dürfte aber eins sein: Die Leser haben bereits Feuer gefangen.


11.

Umweltvergleichsrechnung P-Books und E-Books

Es ist aus den oben dargelegten Gründen sehr einsichtig, dass der direkte Vergleich zwischen gedruckten und elektronischen Büchern zu Gunsten letzterer ausfallen muss. Bei reinen Informationsgütern ohne physische Ausmaße und Ressourcen fallen eben auch keine Umweltbelastungen an. Hingegen benötigen Informationsgüter wie E-Books zu ihrer Nutzung eine Infrastruktur, deren Errichtung, Betrieb und Nutzung sehr wohl physische Ressourcen benötigt und Umweltbelastungen erzeugt. Dazu gehören neben einem EBook Reader wie z.B. dem Amazon Kindle der dem Apple iPad auch eine Server- und Telekommunikationsinfrastruktur und entsprechende elektrische Energie. Der wesentliche Punkt, um festzustellen ob und wenn ja, in welchem Ausmaß E-Books und E-Book Reader dem gedruckten Buch ökologisch überlegen sind hängt nach den Überlegungen der Green Press Initiative von den beiden Parametern  Leseverhalten des Benutzers und dem  Lebenszyklus des E-Book Readers ab. Stellen wir auf Grund dieser Parameter eine einfache Vergleichsrechnung an Persönliche Umweltbilanz in einer 3-Jahres-Betrachtung P-Books gegen E-Books Wir gehen davon aus, dass ein gedrucktes Buch 4,4 kg CO 2-Belastung generiert. Ein Leser, der also 3o Bücher pro Jahr liest würde in der gedruckten Variante rund 120 Kilogramm CO 2 Belastung verursachen. In 3 Jahren ergibt das in Summe 360 Kilogramm. Liest dieser Leser hingegen die 30 Bücher auf einem E-Book Reader wie dem Amazon Kindle, dann verursacht das zunächst im ersten Jahr 168 Kilogramm CO 2-Belastung in der persönlichen Umweltbilanz des Lesers für den E-Book Reader und dann nochmals knapp 270 Gramm für die Bücher in den 3 Jahren. Das ergibt in Summe also weniger als 170 Kilogramm CO 2 Ergebnis: beim Vielleser sind E-Books deutlich grüner und sparen rund 190 Kilogramm über 3 Jahre Es ist nun sehr einfach herauszufinden wo der Break-Even-Punkt liegt, also jene Anzahl von E-Books, die gelesen werden müssen, damit man von einer ökologischen Vorteilhaftigkeit gegenüber gedruckten Büchern reden kann. Das ergibt sich aus einer einfachen Division bei der wir den CO 2 FootPrint des E-Book Readers durch den eines gedruckten Buches (4,4 kg) dividieren. Wir erhalten dann einen Mengenstrahl, der zeigt, bei welcher Menge gelesener Bücher gedruckte oder elektronische Bücher weniger persönliche Umweltbelastung erzeugen.


Der Amazon Kindle E-Book Reader wird beispielsweise ab dem 42igsten gelesenen E-Book grüner als die gedruckten Bücher, der iPad 2 ab dem 33. Buch. Generell kann gesagt werden, dass Wenigleser ihre Umweltbilanz mit gedruckten Büchern und Vielleser mit E-Books optimieren. Wird allerdings die Betrachtung etwas erweitert um die Zusatzfunktionalität, die vor allem ein multifunktionaler E-Book Reader wie das iPad hat, dann sinkt dadurch der Umwelt-Break-Even sehr rasch. So kann das iPad auch für das Lesen von Tageszeitungen und Magazinen eingesetzt werden wie auch als Ersatz für andere Spielkonsolen. Alleine die Produktion einer Ausgabe einer gedruckten Tageszeitung belastet die Umwelt mit rund 300 Gramm. Verzichtet der Besitzer eines iPads dann auch noch auf eine Spielkonsole, dann könnte sich ein E-Book bereits von Beginn weg als Vorteilhaft gegenüber einem P-Book darstellen.

Kurzfristig sind E-Books eine zusätzliche Umweltbelastung Gehen wir nun von der individuellen auf die kollektiv-gesellschaftliche Ebene, dann könnte der massenweise Umstieg von P-Books auf E-Books zunächst zu einer erhöhten Umweltbelastung durch die Anschaffung der E-Book Reader führen. Diese „negative Investition“ hat auch dazu geführt, dass die amerikanische Buchindustrie die Erreichung der 2009 gesteckten Ziele zur Reduktion der CO 2-Belastung gefährdet sieht. Als die 2009 die Ziele zur Reduktion der CO 2-Belastung festgelegt wurden hatten die E-Books gerade einmal einen Anteil von 5 Prozent am Gesamtmarkt in den USA. Nun wird geschätzt, dass dieser Anteil in den nächsten Jahren auf bis zu 50 Prozent ansteigen könnte, was sich zunächst in der Anschaffung von E-Book Readern niederschlägt.

Zusammenfassung: E-Books sind in einer Gesamtbetrachtung dann grüner als P-Books, wenn der Nutzer über die Lebensdauer des E-Book Readers zumindest 40 Bücher liest. Kommen noch periodisch erscheinende Tageszeitungen und Magazine hinzu reduziert sich diese Zahl sehr rasch auf unter 10 Bücher. Wird ein multifunktionaler E-Book Reader auch als Ersatz für andere Computer- oder Spieleeinheiten angeschafft können sich E-Books in einer persönlichen Umweltbilanz vom ersten Buch an als grüner erweisen als P-Books.

Exkurs: Leseland ist abgebrannt: Über Kindle-Effekte & Peak Print Von Ansgar Warner, erschienen auf e-Book News unter der nicht-kommerziellen Creative Commons Lizenz

Mehr als 450.000 E-Reader gibt es schon in den Händen deutscher Leser, will MediaControl jetzt festgestellt haben. Und alleine im Jahr 2010 wurden mehr als vier Millionen E-Books verkauft. Einen wichtigen Anteil daran haben Buchhandelsgrößen wie Thalia und Libri, die seit letztem Jahr mit WiFi-fähigen Geräten wie Oyo respektive LumiRead drahtloses E-Book-Shopping zum neuen Standard machten. Trotz aller Erfolge im letzten Weihnachtsgeschäft: Besonders hoch klingt die von MediaControl genannte Reader-Zahl nicht, selbst wenn man in Rechnung stellt, dass es dabei tatsächlich nur um „dedizierte“ Lesegeräte geht, also vor allem solche mit lesefreundlichem E-InkDisplay.

Product-Awareness im Test Was deutsche Kunden wirklich unter „E-Reader“ verstehen, zeigte eine TNS-Emnid-Studie im letzten Jahr – an erster Stelle stand Apples iPad, und zwar bereits vor dem Verkaufsstart. Mittlerweile dürfte die Zahl der abgesetzten Exemplare von Apples Tablet auch hierzulande bereits die Millionengrenze überschritten haben. Mehr als eine Million iPad-Besitzer haben also bereits


direkten Zugang zu Apples iBooks-Store, mit stark wachender Tendenz. An zweiter Stelle beim „Product Awareness“-Test kam Amazons Kindle, das als „Kindle 3“ parallel zum iPad-Start mit zuvor unerreichten Preis-Leistungsverhältnis von sich reden machte. Mangels deutschem Kindle-Store war das „K3“ bisher kaum ein ernstzunehmender Faktor. Das jedoch dürfte sich in diesem Jahr ändern: Amazon steht endgültig ante Portas.

Nach Peak Oil droht nun Peak Print Dank deutscher Buchpreisbindung wird der neu angefachte Wettbewerb vor allem über die Gerätebasis ausgetragen. Spannung ist dabei garantiert. Denn das aktuelle Kindle ist nicht nur dem pannenträchtigen Oyo mehr als eine Nasenlänge voraus. Alleine schon Amazons bisherige Erfolgsgeschichte in den USA müsste bei deutschen Buchhandelsketten die Alarmglocken läuten lassen. Der „Kindle-Effekt“ hat in nur wenigen Jahren Branchengrößen wie Borders und Barnes&Noble in die Krise gestürzt. Umsätze in den „Brick&Mortar“-Shops gingen zugunsten des Online-Handels stark zurück, die neu hinzukommenden E-Book-Umsätze aber kassierte zu 90 Prozent Big Brother Amazon. Wirtschaftswissenschaftler stellen fest, dass auf dem Buchmarkt die „Zirkulation physischer Güter“ ihr historisches Maximum überschreitet. Nach Peak Oil nun also auch Peak Print. Doch was heißt das für Deutschland?

Kindle-Effekt als kulturelle Revolution Sicherlich gibt es bei uns neben „Take Off-“Faktoren viele verlangsamende Momente. Die „zünftigen“ Denkstrukturen der Gutenberg-Galaxis wirken fort. Verlage treten bei der Print-toOnline-Strategie auf die Bremse. Autoren scheinen Trends vom Self-Publishing bis hin zum kollaborativen Schreiben bisher komplett zu verschlafen. Doch das muss nicht so bleiben. Der „Kindle-Effekt“ lässt sich auch als kulturelle Revolution beschreiben, die vorherrschende Denkschablonen sprengt. Amazon-Chef Jeff Bezos scheint darauf von Anfang an spekuliert zu haben – „to kindle“ heißt schließlich soviel wie anfeuern oder anfachen. Der zündende Funke wirkt. E-Books haben sich in den USA neben Hardcover & Paperback nun sogar in den altehrwürdigen Bestseller-Listen der New York Times verankert, Bestseller-Autoren veröffentlichen exklusiv auf Amazons Lesegeräten, Nachwuchstalente erobern neue Genres wie etwa die „SingleKurzformate“. Noch viel wichtiger für die deutschen Zustände dürfte aber eins sein: Die Leser haben bereits Feuer gefangen.


12.

Wissensgesellschaft 2.0

Bisher haben wir versucht, die Notwendigkeit zur Transformation der papiergebundenen zur elektronischen Wissensvermittlung primär unter der Perspektive der Umwelt- und Ressourcenbelastung darzulegen. In der Folge möchten wir nun aufzeigen, dass auch die Wissensvermittlung mit E-Books effizienter stattfinden kann, wobei sich der Begriff Effizienz in diesem Zusammenhang sowohl auf die Umweltbelastung wie auch auf die Wissensvermittlung bezieht. Es gibt Referenzprojekte, die sich mit dem Thema der neuen Wissensvermittlung mittels E-BookTechnologien beschäftigen und eines davon möchten wir hier ausführlicher darstellen. Die Not-For-Profit Organisation Worldreader.org mit Standorten in Seattle [USA] und Barcelona [Spanien] hat es sich mit der Mission Books for all zum Ziel gesetzt, neue elektronisch-digitale Buchformate zu nutzen, um damit den Menschen in den unterentwickelten Ländern auf neue Art Wissen zu vermitteln und damit die Selbstentwicklung der Länder durch gut ausgebildete Menschen anzukurbeln. Die Organisation wurde vom ehemaligen Amazon Manager David Risher gegründet und hat vielleicht auch deswegen einen der beiden Standorte in Seattle, der Heimat von Jeff Bezos' Amazon.

Tatsächlich arbeitet Worldreader.org auch mit Amazon zusammen und nutzt derzeit die Amazon Kindle E-Book Reader als Plattform für ihre Aktivitäten. Angesichts fehlender Alternativen hinsichtlich einer global verfügbaren eReader Plattform und den Möglichkeiten des global verfügbaren Amazon Whispernet ist diese Partnerschaft aktuell eine Zwangsläufigkeit. Worldreader.org ist wie wir der Meinung, dass die neue E-Book Technologie die Kosten und Komplexität der Wissensvermittlung deutlich reduziert und ihr intelligenter Einsatz somit tatsächlich das Potenzial zur Herausbildung einer globalen Wissensgesellschaft bietet. Die Organisation wurde 2009 gegründet und hat nach ersten Feldversuchen an der Benjamin Franklin International School in Barcelona seine Aktivitäten nach Ghana expandiert. Dort wurde zuletzt im November 2010 ein Projekt mit 500 E-Book Readern für 6 Schulen gestartet, wobei man versucht, sehr vorsichtig und reflektierend mit dieser neuen Technologie umzugehen. Für die Menschen in wissensmäßig rückständigen Ländern scheint die E-Book Technologie und die mit ihr mögliche kostengünstige Vermittlung von Wissen tatsächlich als Chance begriffen zu werden.


Beim Aufbau der entsprechenden Inhalte geht Worldreader mit einem 3-stufigen Konzept vor. Zunächst werden die E-Book Reader mit vorgeladenen Inhalten an die Schüler ausgeliefert. In der Phase 2 wird neuer Content gemeinsam mit den lokalen Lehrern auf die Kindle Plattform hochgeladen. In der letzten Phase wird letztlich den Schülern ein Gutschein in der Höhe von US-$ 15-20 zur Verfügung gestellt mit dem sie Bücher ihrer Wahl aus dem Kindle Shop beziehen können. Initiativen wie diese bieten im Zeitalter des globalen Dorfes, das sich mit den sozialen Plattformen wie FacE-Book, Twitter & Co soeben herausbildet, die Chance auf eine Beseitigung von Zugangsbarrieren zu Wissen und Information. Das wiederum ist die unbedingte Voraussetzung für die Umsetzung der Perspektive Wissensgesellschaft.


Manifest für E-Book, Wissensgesellschaft und Umwelt