Issuu on Google+

DIE WISSENSCHAFTSZEITUNG IM INTERNET

29. KW 2011

22. Juli 2011

Liebe Leserin, lieber Leser,

ERDALTERTUM

Wann startete die Plattentektonik? Trotz neuer Daten bleibt die Frage nach dem Ursprung der dynamischen Erdkruste spannend von Lars Fischer

Mercedes-Benz F-Cell / Flickr.com

In uralten Diamanten haben sich Proben aus dem frühen Erdmantel erhalten, und mit ihnen Spuren früher Plattentektonik: Vor drei Milliarden Jahren veränderten demnach abtauchende Platten die Chemie des Mantels erheblich.

G

ebirge und Meere prägen das Antlitz der Erde, und sie sind weit mehr als nur Höhen und Tiefen des Geoids. Sie sind die sichtbaren Symptome des Mechanismus, der die Welt seit Jahrmilliarden immer wieder umgestaltet und erneuert – der Plattentektonik. Strömungen im Erdmantel treiben die Platten der Erdkruste über die Oberfläche des Planeten, zerreißen Kontinente, lassen Meeresboden neu entstehen und wieder vergehen. Seit Jahrmilliarden – aber wie lange genau? Seit geraumer Zeit versuchen Wissenschaftler, den erdgeschichtlichen Beginn dieser Prozesse festzunageln. Nach der Kollision, die vor 4,5 Milliarden Jahren zur Bildung des Mondes führte, bestand der Planet aus einem globalen Magma-Ozean, der sich langsam abkühlte und eine feste Kruste ausbildete. Dabei formten sich die ersten Kerne der heutigen Kontinente, die Kratone, deren Alter bis ins frühe Archaikum vor mehr als 3,5 Milliarden Jahren zurückreicht. Irgendwann nach der Entstehung dieser frühen Fortsetzung Seite 4

ELEKTROMOBILITÄT 2020

Deutschland soll zukünftig mehr mit Strom fahren, denn Elektroautos gelten als klimafreundlichere Alternative – wenn ihr Saft aus regenerativen Quellen stammt. Doch ist das überhaupt realistisch? Und führt die EMobilität nicht zu einem rapide ansteigenden Stromverbrauch? Offensichtlich nicht, hat Jan Philipp Bornebusch kalkuliert: »Die Rechnung geht auf«, so das Ergebnis. Zuversichtlich grüßt Daniel Lingenhöhl lingenhoehl@spektrum.com

Die Rechnung geht auf Ist das Stromnetz einer dramatisch vergrößerten E-Fahrzeugflotte gewachsen? Jan Philipp Bornebusch

Geht es nach den Plänen der Bundesregierung, befahren bald Millionen E-Autos Deutschlands Straßen. Kann das Stromnetz diesen Bedarf abfangen? Und wie steht es um die Pläne einer Zweitnutzung der Akkus als Puffer? Jan Philipp Bornebusch hat einmal nachgerechnet.

M

ehr Elektroautos auf Deutschlands Straßen wollen längst nicht mehr nur die Grünen. Jüngst bekräftigte auch Bundeskanzlerin Angela Merkel ihre Forderung, die zurzeit knapp 50 Millionen Kraftfahrzeuge nach und nach zu ersetzen. Und nicht nur das: Die Erfolgsaussichten dieses Plans sind noch keineswegs gewiss, da verplanen schon Wissenschaftler die Akkus der Elektroflotte als Puffer für die schwankende Stromeinspeisung regenerativer Energiequellen. Ist das überhaupt realistisch? Das Ziel der Bundesregierung, bis

2020 eine Million Elektroautos auf die deutschen Straßen zu schicken - und bis 2030 vielleicht sogar sechs Millionen -, ist ambitioniert, doch nachvollziehbar: Elektroautos sind lokal emissionsfrei, sparen also CO2, und der Wirkungsgrad elektrischer Antriebe von etwa 90 Prozent übertrifft die Wirkungsgrade von Benzinmotoren (maximal 35 Prozent) und Dieselmotoren (maximal 45 Prozent) erheblich. Doch »lokal emissionsfrei« bedeutet nicht, dass Elektromobilität ohne Emission von Treibhausgasen und andere negative

IN DIESER AUSGABE: Formeln Die ungeplanten Ergebnisse der Mathematik Seite 5 Geotektonik Neutrinos enthüllen radioaktive Heizung des Erdinneren Seite 10

Seite 11

Kosmische Kollisionen Womöglich prallte eine Satellitengalaxie auf die Milchstraße Mittelalter Schwere Rüstung machte Ritter müde

Seite 17

Fortsetzung Seite 2

Impressum: spektrumdirekt ist eine Publikation der Spektrum der Wissenschaft Verlagsgesellschaft mbH, Slevogtstraße 3-5, D-69126 Heidelberg Chefredakteur (v.i.S.d.P.): Dr. Carsten Könneker | Redaktion: Jan Dönges, Antje Findeklee, Dr. Daniel Lingenhöhl, Dr. Jan Osterkamp | Mitarbeit: Maike Pollmann, Lars Fischer


29. KW 2011

22. Juli 2011

FORTSETZUNG VON SEITE 1

Die Rechnung geht auf Auswirkungen zu haben wäre. Zwar entstehen bei der Fahrt keine Abgase. Aber welche Emissionen bei der Stromproduktion für das Aufladen der Pkw-Batterien entstehen, hängt vom Kraftwerk ab, das den Strom erzeugt. Nur wenn die verwendete Energie vollständig aus regenerativen Quellen stammt, kann die Fahrt als CO2-neutral gelten. Doch selbst dann spart die Fahrt mit dem Elektroauto noch lange keine Energie. Denn die Effizienz der Antriebe kann durch mangelnde Effektivität bei der Stromproduktion zunichte gemacht werden. Verbrenner versus E-Motor Überdies lässt sich der Stromverbrauch eines Elektroautos nicht direkt mit dem Kraftstoffverbrauch eines Verbrennungsmotors vergleichen. Der Vergleich muss stattdessen über den Primärenergiebedarf erfolgen. Auf diese Weise fließen dann auch alle Verluste bei der Bereitstellung und dem Transport der benötigten Energie in die Rechnung ein. Die Verluste auf dem Weg in die Pkw-Batterie liegen abhängig vom Kraftwerk, das die elektrische Energie produziert, zwischen 40 Prozent und 70 Prozent. Nach der Energieeinsparverordnung wird in Deutschland aktuell mit einem mittleren Verlustfaktor von 2,6 gerechnet: Für jede Wattstunde elektrische Energie, die erzeugt wird, geht im Gesamtenergieverbrauch das Äquivalent von 2,6 Wattstunden verloren. Berücksichtigt man diesen Faktor, fällt der Wirkungsgrad des Elektroautos deutlich geringer aus. Er sinkt auf etwa 35 Prozent und damit auf das Niveau eines Verbrennungsmotors. Allerdings gibt es Hoffnung, diesen Verlustfaktor zu verringern

und dadurch elektrische Energie umweltfreundlicher zu gestalten. Dank neuer, effizienterer Kraftwerke wurde der Primärenergiefaktor in den letzten Jahren bereits von 3,0 über 2,7 auf 2,6 angepasst - eine Entwicklung zu Gunsten der Elektroantriebe. Beim Gesamtenergieverbrauch liegen Elektromotoren und Verbrenner also aktuell gleich auf, aber mit absehbaren Vorteilen für die Elektroantriebe der Zukunft. Auf Elektroautos umzusteigen, bedeutet aber, dass Energie, die bisher als Kraftstoff an Tankstellen zur Verfügung gestellt wurde, plötzlich dem Stromnetz entnommen wird. Ist die bestehende Infrastruktur dieser Belastung gewachsen? Woher kommt der Strom? Um das abschätzen zu können, braucht man ein Gefühl für die beteiligten Größenordnungen: 2010 wurden laut Bundesverband der Energie- und Wasserwirtschaft in Deutschland etwa 621 Terawattstunden (TWh) elektrische Energie erzeugt und 608 TWh verbraucht. Der restliche Strom wurde exportiert. Dem stünde 2020 der Stromverbrauch von einer Million Elektrofahrzeugen gegenüber. Aktuell benötigt ein Elektroauto je nach Modell auf 100 Kilometern etwa 20 bis 30 Kilowattstunden. Im Jahr 2020 könnten 15 Kilowattstunden ein realistischer Wert sein, bedenkt man Fortschritte in der Antriebstechnik und andere Effizienzsteigerungen. Die durchschnittliche jährliche Fahrleistung eines deutschen Autos beläuft sich auf rund 11 000 bis 14 000 Kilometer; oft wird ein Wert von 12 000 Kilometern angesetzt. Folgt die einfache Rechnung: Bei ungefähr einer Million Elektrofahrzeugen summiert sich der Gesamtenergieverbrauch auf 1,8

TWh elektrische Energie. Das entspricht etwa 0,3 Prozent der aktuellen Stromerzeugung – eine Aufgabe, die trivial erscheint. Zumal im gleichen Zeitraum der Ausbau der Stromversorgung zu einem intelligenteren Stromnetz einem so genannten Smart Grid - geplant ist. Auto-Akkus als Puffer? Die Masse an kleinen Stromspeichern, die sich bald in den Garagen der stolzen E-MobilBesitzer befinden könnten, hat bereits Begehrlichkeiten geweckt. Denn regenerative Energiequellen liefern ihren Strom nur in stark schwankenden Mengen: Ohne Sonne versiegt der Solarstrom; ist es windstill, erlahmen die Windräder. Die klassische Antwort darauf sind gewaltige Stromspeicher, etwa in Form von Pumpspeicherkraftwerken, die allerdings nur durch groß angelegte Infrastrukturprojekte zu realisieren sind. Wäre es für die Versorger nicht günstiger, die Millionen Akkus zu mieten und in Phasen des Überangebots Strom dort zwischenzulagern? Tatsächlich sind für diese schon Mitte der 1990er Jahre von Willett Kempton, einem Forscher der University of Delaware, ersonnene Idee bereits vielfach Pläne ausgearbeitet worden. Fragt sich nur, ob der Speicherplatz angesichts des geringen Anteils an der Gesamtstrommenge überhaupt ins Gewicht fällt. Eine Überschlagsrechnung zeigt, dass dem tatsächlich so ist. Für Elektroautos ist eine Reichweite von 800 Kilometern pro Batterieladung nötig, um Verbrennungsmotoren Konkurrenz zu machen. Das ist zwar noch weit jenseits dessen, was aktuell in Serie gefertigt wird, scheint aber bis 2020 nicht utopisch zu sein. Beim oben angenommenen

|2|

Energieverbrauch von 15 kWh pro 100 Kilometer wird eine Batterie künftig wenigstens 120 kWh elektrische Energie speichern müssen. Bei einer Million Elektro-Pkws 2020 bedeutet das insgesamt 120 GWh theoretisch abrufbare Energie, bei 6 Millionen Fahrzeugen 2030 sogar 720 GWh. Da Privatautos die allermeiste Zeit stillstehen und somit über 90 Prozent der Zeit an das Netz angeschlossen sein können, wäre ein recht hoher Anteil der theoretisch abrufbaren Energie tatsächlich nutzbar - und das ist viel. Zum Vergleich: 120 GWh entsprechen (ohne Berücksichtigung der Umwandlungswirkungsgrade) etwa dem Dreifachen dessen, was alle deutschen Pumpspeicherkraftwerke, die zur Zeit als Energiepuffer dienen, gemeinsam zur Verfügung stellen. Um 720 GWh in einem einzigen Pumpspeicher zu fassen, müsste man beinahe das Zweifache des Volumens des Steinhuder Meers auf die Zugspitze pumpen. Auch wenn die Realität mit ihren Widrigkeiten nicht erlauben wird, diese errechneten Zahlen tatsächlich zu erreichen, schlummert in den Autobatterien künftiger Elektroflotten-Generationen ein ernst zu nehmendes Potenzial. Denn nicht der Energieverbrauch während fünf Prozent des Tages, in denen das Auto gefahren wird, ist entscheidend, sondern das nutzbare Speichervermögen der Batterien während der restlichen Zeit. So oder so alltagstauglich Aber weg von Zahlenspielereien und zurück in die Wirklichkeit der Zukunft. Es ist Winter 2020 und vor der Tür steht mein Elektroflitzer. Ich stehe früh auf - es ist noch dunkel - und muss zur Arbeit. Das Radio verrät mir beim


29. KW 2011

Frühstück, dass es den ganzen Tag regnen wird, kein nennenswerter Wind. Mir schwant Böses: Ohne Wind- und Sonnenenergie arbeitet Deutschlands Energieversorgung unter Soll, und die Regelenergie der Elektroautos muss vermutlich voll in Anspruch genommen werden. Heißt das: Meine Autobatterie ist leer, und ich muss mich mit dem Fahrrad durch Schnee und Eis kämpfen? Die Antwort ist: Nein. Wenn Elektroautos künftig tatsächlich genutzt werden, um Fluktuationen in der Stromversorgung abzufangen, dürften mit Sicherheit zwei Regelmechanismen im-

22. Juli 2011

plementiert werden. Zum einen wird man absehbare Trips vorprogrammieren können. Wer am Folgetag in den Urlaub startet, stellt heute noch schnell ein, dass die Batterie ab 6 Uhr früh voll geladen bereitstehen soll. Zum anderen wird der Besitzer eines Elektrofahrzeugs eine Schwelle definieren können, die die maximale Entladung seiner Batterie durch das Stromnetz festlegt. Ist dieser Wert erreicht, wird keine weitere Energie mehr zu Pufferungszwecken entnommen. Wer also weiß, dass er für die 40 Kilometer zum Arbeitsplatz werktags etwa 5 Prozent der Batterieladung nutzt, könnte die Mindest-

ladungsgrenze großzügig auf 10 Prozent festlegen, um keine bösen Überraschungen zu erleben. Besonders zuversichtliche Wissenschaftler halten nicht einmal solche Sicherheitsvorkehrungen für nötig. Denn weltweit tüfteln Forscher an verschiedenen Methoden zur Schnellaufladung von Akkumulatoren, die deren Ladezeiten von Stunden auf Minuten oder sogar Sekunden reduzieren sollen. Dann würde es genügen, beim Verlassen des Hauses per Fernsteuerung den Ladevorgang zu starten. Bis der Weg zur Garage zurückgelegt ist, würde die Energieanzeige grün leuchten: Ladestand 100 Prozent! Und das

Schönste: Dafür, dass der Fahrzeughalter die Batterie seines Wagens als Puffer zur Verfügung stellt, würde er von den Stromkonzernen auch noch entlohnt. Die Pläne der Bundesregierung erscheinen also realistisch. Was noch fehlt, sind Elektroautos mit konkurrenzfähigen Reichweiten und Ladezeiten. In Zeiten steigender Rohölpreise verspüren die großen Automobilkonzerne aber zunehmenden Druck, ihre Entwicklungsarbeiten auf diesem Gebiet zu verstärken. Es steht also zu hoffen, dass nach und nach das Brummen der Verbrennungsmotoren dem Surren der Elektroantriebe weichen wird. <<

FORTSETZUNG VON SEITE 1

Kontinentfragmente begannen die Wilson-Zyklen, die das Wesen der Plattentektonik ausmachen: Kontinente zerreißen und bilden einen Ozean, der sich an einem Mittelozeanischen Rücken permanent erweitert. An anderer Stelle schließt sich ein Ozean, der Meeresboden taucht unter den Kontinent ab, bis die Erdteile kollidieren und Gebirge auftürmen. Dieser Prozess schweißte immer neue Kontinentbruchstücke an die ursprünglichen Kratone an, die Geologen als Terranes und Ophiolithkomplexe in alten und jungen Gebirgen identifizieren können – so wachsen die Kontinente bis heute. Der wichtigste Bestandteil dieser Prozesse ist die Subduktion, bei der schwerer Meeresboden unter weniger dichte kontinentale Kruste abtaucht. Das passiert dort, wo Kontinente sich aufeinander zu bewegen. Die Subduktion ist der Schlüssel zu dem Rätsel, wann all dies begonnen hat. Denn nur unter bestimmten Bedingungen können Erdplatten wieder in den Mantel abtauchen:

US Geological Survey

Wann startete die Plattentektonik?

Sie müssen dicht genug sein, um in ihm zu versinken. »Das Problem ist, dass sich die Erde seit ihrer Entstehung abkühlt, und erst wenn ihre Kruste kühl genug ist, ist Plattentektonik möglich«, sagt der Geowissenschaftler Stephen Foley von der Universität Mainz. »Aber hat sie sich schnell abgekühlt oder langsam?« Um diese Frage zu beant-

worten, suchen Wissenschaftler nach den geologischen Spuren der allerersten Wilson-Zyklen. Nur an wenigen Prozent der Erdoberfläche haben sich Gesteine aus dem fraglichen Zeitalter erhalten, und die Jahrmilliarden sind keineswegs sanft mit ihnen umgesprungen. Hitze und Druck haben sie fast bis zur Unkenntlichkeit verändert.

|3|

Schema einer Subduktionszone An einer Subduktionszone verschwindet Ozeanische Kruste unter dem Kontinent und taucht in den Erdmantel ab. Dabei verändert sie dessen Chemie dramatisch.


29. KW 2011

22. Juli 2011

Science

Ältester Hinweis auf Plattentektonik? Ältester Hinweis auf Plattentektonik? Dieser so genannte Sheeted Dike aus der Isua-Gesteinsformation auf Grönland ist 3,8 Milliarden Jahre alt und entstand möglicherweise in einer Subduktionszone.

Doch es gibt eine weitere Möglichkeit, Aufschluss über Vorgänge vor über drei Milliarden Jahren zu gewinnen. Mögen an der Oberfläche die Spuren längst getilgt sein, tief in der Kruste gibt es einen weiteren Ort, an dem Relikte aus dieser Zeit von der Erosion unberührt blieben. Die Unterseite der Erdplatten bildet der Lithosphärische Mantel, der mit dem tieferen Erdmantel in enger Wechselwirkung steht, aber zusammen mit der Kruste über den Planeten driftet. Aus dieser Zone stammt die neueste Alterbestimmung für die früheste Plattentektonik, die nun von Steven Shirey von der Carnegie Institution in Washington und dem südafrikanischen Geologen Stephen Richardson durchgeführt und veröffentlich wurde. Die beiden Wissenschaftler untersuchten winzige Einschlüsse in Diamanten aus alten Kratonen, die in ihrem Panzer aus Kohlenstoff seit dem Erdaltertum unverändert geblieben waren. Dabei stellten sie fest, dass sich

die Verunreinigungen in zwei Gruppen aufteilen: Alle Proben, die älter als drei Milliarden Jahre sind, weisen eine peridotitische Zusammensetzung auf, während in den jüngeren Einschlüssen Eklogite weit überwiegen. Diese Ergebnisse deuten nach Ansicht der beteiligten Forscher auf eine grundlegende Änderung in der Chemie des oberen Erdmantels hin: Peridotite sind unveränderte Mantelgesteine, während Eklogite entstehen, indem vulkanischer Basalt tief in den Mantel hineingelangt – wie es bei der Subduktion geschieht. Dass die Diamanten keine Eklogite enthalten, die älter als drei Milliarden Jahre sind, bedeute mithin, dass es vor diesem Zeitpunkt keine Subduktion und damit auch keine Plattentektonik gab. Dass die Frage damit erledigt ist, glaubt Foley indes nicht. Das Thema sei seit Jahren sehr umstritten, erklärt er: »Der Zeitpunkt von drei Milliarden Jahren vor heute passt gut zu vielen bisherigen Schätzungen, aber man-

che Wissenschaftler setzen den Beginn der Plattentektonik noch deutlich früher an.« Einige Befunde nämlich scheinen der neuen Datierung zu widersprechen. 2008 datierten Wissenschaftler einen Teil des Kanadischen Schildes auf 4,28 Milliarden Jahre – und vermeinen in den Gesteinen die Reste uralten Ozeanbodens zu erblicken. Und das ist kein Einzelfall, weiß Foley: »Bei plattentektonischen Vorgängen entstehen erkennbare, horizontal gelagerte Strukturen, und man findet sie in Gesteinen, die über 3,5 Milliarden Jahre alt sind. Die Frage ist: Gibt es einen alternativen Entstehungsmechanismus für solche Strukturen?« Auch was den frühen Erdmantel angeht, sind längst nicht alle Widersprüche ausgeräumt. Basierend auf Einschlüssen in bis zu 4,2 Milliarden Jahre alten Zirkonen bestimmten vor drei Jahren US-Forscher den Wärmefluss durch den Erdmantel zu jenen Zeiten und kamen auf abnorm niedrige Werte, geringer sogar als

|4|

heute. Das kann nur dann hinkommen, wenn irgendetwas den Wärmefluss am Entstehungsort der Zirkone lokal verringert hat, und der einzige bekannte Mechanismus, der den Wärmefluss in so großen Tiefen beeinflusst, ist die Subduktion. Und: Es gibt sehr wohl Wissenschaftler, die Eklogite auf ein höheres Alter als drei Milliarden Jahre datieren. Die Frage nach dem Beginn der Plattentektonik wird die Forschung sicherlich noch eine Weile beschäftigen.<< Shirey, S., Richardson, S.: Start of the Wilson Cycle at 3 Ga shown by Diamonds from subcontinental Mantle. In: Science 333, S. 434 – 436.


29. KW 2011

22. Juli 2011

Formeln

Die ungeplanten Ergebnisse der Mathematik Mathematik bestimmt den Alltag – doch ersichtlich ist das nicht immer (Teil 1) Exklusive Übersetzung aus

von Peter Rowlett

Abstrakte Formeln können zu alltäglichen Anwendungen führen. Das dauert allerdings bisweilen Jahrhunderte – und lässt sich nicht erzwingen, wie sieben Geschichten belegen, die der »Natur«e-Mitarbeiter Peter Rowlett zusammengetragen hat und die »spektrumdirekt« in zwei Folgen präsentiert. Teil 1 handelt von Quaternionen, Einsteins Äquivalenzprinzip und Kusszahlproblemen.

Eine berühmte Anekdote rankt sich um die Entdeckung der Quaternionen: Dem irischen Mathematiker William Rowan Hamilton kam die Idee zu diesem Zahlensystem, als er am 16. Oktober 1843 über die BroughamBrücke in Dublin lief. Er kennzeichnete diesen Augenblick, indem er die Gleichungen in das Mauerwerk der Brücke ritzte. Hamilton hatte nach einer Möglichkeit gesucht, das System der komplexen Zahlen in die Dreidimensionalität zu erweitern. Auf der Brücke gelangte er jedoch zur Erkenntnis, dass ein Sprung in die Vierdimensionalität nötig ist, um ein konsistentes Zahlensystem zu erhalten. Bei den komplexen Zahlen gilt zum Beispiel a+ib, wobei a und b reelle Zahlen sind, während i die Quadratwurzel von -1 ist. Quaternionen bestehen dagegen aus der Gleichung a+bi+cj+dk, für die die Regel i2=j2=k2=ijk=-1 gilt. Hamilton verbrachte den Rest seines Lebens damit, für die Nutzung der Quaternionen zu werben. Sie waren nicht nur mathematisch elegant, sondern auch außerordentlich nützlich, um geometrische, optische und mechanische Probleme zu lösen. Nach seinem Tod trug der Philosophieprofessor Peter Guthrie Tait (1831-1901) von der University of Edinburgh die Fackel weiter. William Thomson – auch

Eti Ammos/Fotolia.com

Von Quaternionen zu Lara Croft (Marc McCartney und Tony Mann)

bekannt als Lord Kelvin - schrieb über Tait: »Wir führten einen 38-jährigen Krieg über die Quaternionen.« Thomson stimmte mit Tait überein, dass sie in ihrem wichtigen Gemeinschaftswerk »Tre-

atise on Natural Philosophy« immer Quaternionen verwenden würden, wenn es Sinn machte. Sie fehlen jedoch völlig im endgültigen Manuskript, was zeigt, dass Thomson nicht von ihrem Sinn überzeugt war. Ende des

|5|

Formeln Die Mathematik ist mehr als nur Formeln - sie bildet die Grundlage zahlreicher technischer Alltagsanwendungen.


29. KW 2011

Von der Geometrie zum Urknall (Graham Hoare)

1907 formulierte Albert Einstein das Äquivalenzprinzip, ein entscheidender Schritt für die Entwicklung der allgemeinen Relativitätstheorie. Seine Idee, dass die Effekte von Beschleunigung und eines gleichförmigen Gravitationsfelds sich nicht unterscheiden lassen, beruht auf der Äquivalenz von träger und schwerer Masse. Einsteins entscheidende Erkenntnis war, dass sich die Gravitation in der Raumkrümmung manife-

NASA

19. Jahrhunderts stellten Vektorenberechnungen schließlich die Quaternionen endgültig in den Schatten – zumal nachfolgende Mathematikergenerationen eher Kelvin als Tait folgten: In ihren Augen waren die Quaternionen zwar hübsch, aber leider auch unpraktisch und eine historische Fußnote. Deshalb war es etwas überraschend, als ein Kollege, der Computerspielentwicklung lehrt, uns fragte, welche mathematischen Kurse Studenten belegen sollten, wenn sie etwas über Quaternionen lernen wollten. Es stellte sich heraus, dass sie sich als äußerst wertvoll erweisen, wenn man dreidimensionale Rotationen berechnen soll. In diesem Fall haben sie verschiedene Vorteile gegenüber Methoden, die auf Matrizen beruhen. Dadurch wurden sie für verschiedenste Anwendungen unentbehrlich – etwa die Robotik, maschinelles Sehen und bei der Programmierung von Grafiken, die sich immer schneller aufbauen. Tait wäre zweifellos glücklich, dass letztlich er den »Krieg« gegen Kelvin gewonnen hat. Und Hamiltons Erwartung, dass seine Entdeckung von großem Nutzen ist, bewahrheitete sich ebenfalls – wenngleich mit 150 Jahren Verspätung. Heute profitiert von ihr vor allem die Computerspielindustrie: Sie macht unter Nutzung der Quaternionen mittlerweile weltweit 100 Milliarden Dollar Umsatz.

22. Juli 2011

stiert und damit keine Kraft darstellt. Wie Masse die umgebende Raumzeit krümmt, beschreiben Einsteins Feldgleichungen. Seine allgemeine Relativitätstheorie veröffentlichte der Wissenschaftler im Jahr 1915, die Ursprünge datieren jedoch zurück in die Mitte des vorangegangenen Jahrhunderts. Denn 1854 führte Bernhard Riemann in seinem brillanten Habilitationsvortrag das Konzept der Mannigfaltigkeit ein - und damit die grundlegenden Prinzipien moderner Differenzialgeometrie: n-dimensionale Räume, Metrik und Krümmungen und wie Krümmungen die geometrischen Eigenschaften von Raum kontrollieren. Mannigfaltigkeiten sind grundlegende Verallgemeinerungen von Formen, etwa der

Oberfläche einer Kugel oder eines Torus, die sich differenzialgeometrisch untersuchen lassen. Riemann ging weit über den konzeptuellen Rahmen der euklidischen und nichteuklidischen Geometrie hinaus. Und er sah bereits voraus, dass seine Mannigfaltigkeiten als Modelle für die physikalische Welt dienen könnten. Die Werkzeuge, mit denen sich die riemannsche Geometrie schließlich auf die Physik anwenden ließ, gehen vor allem auf Gregario Ricci-Curbastro zurück, der 1892 mit ihrer Entwicklung begann und sie schließlich mit seinem Schüler Tullio Levi-Civita erweiterte. 1912 nahm Einstein die Hilfe seines Freunds Marcel Grossman, eines Mathematikers, in Anspruch, um mit dieser »Tensoranalysis« seine weit reichenden physikalischen Erkenntnisse ma-

|6|

Alles begann mit dem Urknall Der Standardtheorie der Kosmologie zufolge hat unser Universum seinen Ursprung im Urknall. Er markiert den Beginn von Zeit und Raum. Im abkühlenden All bildeten sich nach und nach die bekannten Elementarteilchen und schließlich Sterne, Galaxien sowie alle anderen astronomischen Objekte.

thematisch zu formulieren. Er nutzte die riemannschen Mannigfaltigkeiten für vier Dimensionen: drei für den Raum, eine für die Zeit. Zu dieser Zeit galt das Universum als statisch. Einstein erkannte jedoch bald, dass seine Feldgleichungen keine statischen Lösungen hatten, wenn sie auf das Universum als Ganzes angewendet wurden. 1917 führte Einstein die kosmologische Kon-


29. KW 2011

22. Juli 2011

Dichteste Kugelpackungen In einer dichtesten Kugelpackung hat jede Kugel 12 nächste Nachbarn, sechs davon in der eigenen Schicht. Die kubisch-flächenzentrierte Packung hat die Schichtfolge ABC, während die hexagonale Packung die Schichtfolge ABA zeigt. In beiden Fällen sind etwa 74 Prozent des Raumes ausgefüllt.

stante in seine Feldgleichungen ein, um eine statische Lösung zu ermöglichen. 1922 jedoch veröffentlichte Alexander Friedmann Argumente für einen explosionsartigen Ursprung des Universums - den Urknall -, nachdem er Einsteins Feldgleichungen vor einem kosmologischen Hintergrund untersucht hatte. Widerwillig akzeptierte Einstein die unwiderlegbaren Hinweise auf eine Expansion des Universums und entfernte die Konstante 1931 wieder - und nannte sie seither die »größte Eselei seines Lebens.« Von Orangen zu Modems (Edmund Harris)

1998 tauchte die Mathematik plötzlich in den Nachrichten auf. Thomas Hales von der University of Pittsburgh bewies damals die keplersche Vermutung und belegte, dass die Art und Weise, wie Obsthändler ihre Orangen stapeln, tatsächlich die effizienteste Lagerung von Kugeln darstellt. Eine Frage, die seit 1611 unbeantwortet geblieben war, erhielt endlich ihre Lösung! Und was antwortete ein Obsthändler darauf im Fernsehen? »In meinen Augen war das eine Verschwendung von Zeit und Steuergeldern.« Seitdem diskutiere ich gedanklich immer wieder mit diesem Verkäufer. Heute erleichtert die Mathematik der perfekten Ku-

gellagerung die moderne Kommunikation, da sie zentral für Kanalkodierungen und Fehlerkorrekturkodes ist: Sie hilft damit, die Übermittlung digitaler Daten gegen Übertragungsfehler zu schützen. 1611 vermutete Johannes Kepler, dass die Stapelarbeit der Obsthändler die effizienteste Art der Kugellagerung bedeutet, doch konnte er dies noch nicht beweisen. Selbst die einfachere Frage nach der optimalen Anordnung zweidimensionaler Kreise konnte erst in den 1940er Jahren durch László Fejes Tóth bewiesen werden - der ungarische Mathematiker leistete 1953 einen weiteren Beitrag zur Lösung der keplerschen Vermutung, als er 1953 bewies, dass das Problem der Berechnung des Maximums aller Anordnungen auf die Betrachtung einer sehr großen, aber endlichen Anzahl von Fällen reduziert werden kann. Im 17. Jahrhundert stritten Isaac Newton und David Gregory zudem über das Kusszahlenproblem: Wie viele Kugeln können eine vorgegebene Kugel berühren, ohne dass sie sich überlappen? In einem zweidimensionalen System lässt sich leicht belegen, dass die Antwort 6 ist. Newton dachte, dass 12 das Maximum im drei-

dimensionalen Raum wäre – was auch tatsächlich der Fall ist, aber erst 1953 von Kurt Schütte und Bartel van der Waerden bewiesen wurde. In der Vierdimensionalität steigert sich die Zahl auf 24, errechnete Oleg Musin 2003. Bei fünf Dimensionen können wir bislang nur sagen, dass der Wert zwischen 40 und 44 liegt, doch wissen wir bereits, dass es sich in der achten Dimension um 240 Kontakte handelt. Diesen Beleg hat Andrew Odlyzko von der University of Minnesota in Minneapolis schon 1979 erbracht. Die gleiche Veröffentlichung beinhaltete sogar ein noch exotischeres Ergebnis: Die Antwort bei 24 Dimensionen lautet 196 560. Diese Beweise sind einfacher als das Resultat für drei Dimensionen und beziehen sich auf zwei extrem dichte Kugelpackungen, die man als E8-Gitter bei acht und als Leech-Gitter bei 24 Dimensionen bezeichnet. Das hört sich alles recht magisch an, aber hat es auch einen Nutzen? Der Ingenieur Gordon Lang glaubte in den 1960er Jahren daran. Er entwickelte Systeme für Modems und griff fleißig alle mathematischen Grundlagen ab, die er bekommen konnte. Er musste ein Signal über rauschende Kanäle wie beispielsweise

|7|

eine Telefonleitung schicken. Der natürliche Weg wäre gewesen, verschiedene Töne für die Signale auszuwählen. Aber der empfangene Ton war vielleicht nicht derjenige, der gesendet worden war. Um dieses Problem zu beheben, beschrieb er die Laute über eine Liste mit Nummern. Danach fand man einfach heraus, welches der gesendeten Signale dem empfangenen Signal am nächsten lag. Diese Signale können als Kugeln betrachtet werden, die Spielraum für Hintergrundrauschen lassen. Um den verschickten Informationsgehalt zu maximieren, müssen diese »Kugeln« so dicht wie möglich gepackt werden. In den 1970er Jahren entwickelte Lang ein Modem mit achtdimensionalen Signalen, indem er die E8-Gitter-Packung einsetzte. Dies half später dem Internet auf die Sprünge, da nun Daten über das Telefon anstatt über speziell ausgelegte Kabel verschickt werden konnten. Nicht jeder war davon begeistert: Donald Coxeter, der Lang geholfen hatte, die Mathematik hinter diesem Problem zu verstehen, sagte, er sei »entsetzt, dass diese wunderbaren Theorien derartig befleckt worden waren«. <<


29. KW 2011

22. Juli 2011

ALZHEIMERDIAGNOSE

»Manche Patienten sind über Jahre stabil« Wo liegt der Nutzen einer Früherkennung der Alzheimerkrankheit? Die Fragen stellte Annegret Faber.

Mit einer neuen Methode lässt sich die Alzheimerkrankheit bis zu 15 Jahre vor ihrem Ausbruch nachweisen. Dazu injizieren Ärzte dem Patienten die schwach radioaktive Markersubstanz Florbetaben, die sich im Gehirn anreichert und dort an das Beta-Amyloid-Protein bindet - es gilt als wichtiges Anzeichen einer Alzheimerdemenz. Ein Positronen-Emissions-Tomograf (PET) macht schließlich die Proteinablagerungen sichtbar. Wissenschaftler des Universitätsklinikums Leipzig um Hermann-Josef Gertz entdeckten kürzlich diese Methode. Doch wem nützt das frühe Wissen?

S

privat

pektrumdirekt: Herr Gertz, als Gerontopsychiater an der Uniklinik Leipzig beschäftigen Sie sich schon seit Ende der 1970er Jahre mit der Alzheimerkrankheit und arbeiteten auch an der kürzlich gemachten Entdeckung eines Verfahrens mit, das eine besonders frühe Diagnose erlaubt. Bei wie vielen Patienten haben Sie denn schon die Diagnose »Alzheimer« gestellt?

Hermann-Josef Gertz Hermann-Josef Gertz ist Stellvertretender Klinikdirektor der Klinik und Poliklinik für Psychiatrie und Psychotherapie am Universitätsklinikum Leipzig. Der Demenzforscher ist außerdem Leiter der dortigen Forschungsabteilung für Gerontopsychiatrie.

Gertz: Das ist natürlich schwer zu sagen. Aber es dürften mittlerweile weit über 1000 sein. Wie laufen solche Diagnoseverfahren ab? Zunächst gibt es eine Anamneseerhebung, das heißt, eine klinische Untersuchung, wie sie bei Psychiatern und Neurologen üblich ist. Dann wird Blut abgenommen. Und schließlich schauen wir uns das Gehirn in einem Kernspintomografen an. Wenn man es ganz vollständig haben will, führen wir noch eine Lumbalpunktion durch, also eine Untersuchung der Gehirn-Rückenmarks-Flüssigkeit. Und nun kommt die neue Methode hinzu. Die steht vielleicht in einem Jahr zur Verfügung. Trotz der vielen Methoden ist die Diagnose nur zu 80 Prozent sicher. Wie vermitteln Sie das den Patienten?

Ich sage zu ihnen: Alles, was ich Ihnen sagen kann, ist, dass auf Grund dieser Befundkonstellation eine Alzheimerkrankheit sehr wahrscheinlich der Hintergrund ihrer Gedächtnisstörung ist. Aber in welcher Weise die Erkrankung fortschreitet - ob sie überhaupt fortschreitet -, das weiß ich nicht, das kann ich Ihnen nicht sagen. Aus meiner Sicht ist dies eines der ganz großen Probleme der Frühdiagnostik. Die negativen Befunde sind sicher, aber die positiven Befunde sind es nicht. Das heißt, Sie können Alzheimerdemenz im Einzelfall ausschließen. Aber inwiefern sind die positiven Befunde ein Problem? Manche Patienten haben die Diagnose und sind trotzdem über Jahre stabil. Selbst bei fortgeschrittenen Alzheimerpatienten ist das manchmal der Fall. Und die Möglichkeit der Frühdiagnose ist neu. Es gibt dazu weder durchdiskutierte Strategien noch Empfehlungen oder eine andere Form der Konsensbildung. Im Moment arbeitet daher jeder so ein bisschen auf eigene Faust. Was wir anstreben ist, die Problematik der Frühdiagnostik dem Patienten zu vermitteln, bevor man mit der Diagnose beginnt. Die Patienten müssen wissen, dass auch ein unklares Ergebnis herauskommen kann. Im Moment herrscht bei

|8|

den Patienten große Unsicherheit. Viele denken, aus dieser Diagnose würde sich unmittelbar eine Therapie ergeben. Das ist aber definitiv nicht der Fall. Wäre es dann nicht besser, auf die Diagnose zu verzichten? Es gibt dazu sehr interessante Umfragen in Europa. Von der Allgemeinbevölkerung sind 80 Prozent der Meinung, dass man unbedingt Screenings durchführen sollte. Welche Motivation dahinter steht, hat die Erhebung leider nicht erfasst. Je mehr Fachwissen die Befragten über die Alzheimersche Erkrankung hatten, desto weniger gut fanden sie die Idee, möglichst früh zu diagnostizieren: Nur 20 bis 30 Prozent der Fachärzte in der Neurologie und Psychiatrie sind für eine Frühdiagnose. Am allerwenigsten überzeugt sind die Kostenträger. Welche Argumente sprechen gegen die Frühdiagnose? Ganz klar das Fehlen überzeugender therapeutischer Konsequenzen. Welche sprechen dafür? Ich denke, da geht es am ehesten um die Begleitumstände einer solchen Erkrankung, wie juristische Aspekte beispielsweise. Betroffene sollten Vorsorgevollmachten


29. KW 2011

in einem Zustand ausstellen, in dem sie das noch selbst entscheiden können und in dem sie sich die nötigen Gedanken machen können. Nicht erst dann, wenn man fragen muss, ob ihre Unterschrift überhaupt noch gültig ist. Könnte sich das Wissen über die bevorstehende Krankheit auf einzelne Patienten sogar negativ auswirken? Manche schränken sich sicher übermäßig ein oder sind unverhältnismäßig besorgt. Aber in welchem Umfang das passiert, ist schwer zu sagen. Darüber haben wir keinen ausreichenden Überblick. Der Stempel »Alzheimer« wird meines Erachtens im Moment viel zu sehr mit der Vorstellung von schwersten Krankheitsverläufen und völliger Hilflosigkeit verbunden. Die Frühstadien haben jedoch damit überhaupt nichts zu tun. Es kann sein, dass ein Patient niemals an diesen Punkt kommt. Ich denke aber trotzdem, jeder hat das Recht, diese Informationen vorab zu bekommen. Dann kann jeder für sich entscheiden, ob er das machen möchte oder nicht. Auf der Homepage der Deutschen Alzheimer Gesellschaft werden verschiedene Therapieformen aufgelistet. Verhaltenstherapie, Kognitives Training, Erinnerungstherapie, Kunsttherapie. Kann ich damit den Verlauf der Erkrankung beeinflussen oder der Krankheit vorbeugen? Körperliche Aktivität, gute soziale Verbindungen, gute Ausbildung, hohe Schulbildung sind alles Faktoren die potenziell vor der Krankheit schützen. Aber das sind letzten Endes sehr unspezifische Faktoren. Körperliche Aktivität ist für vieles gut - vielleicht auch für das Hirn. Rauchen bie-

22. Juli 2011

tet einen gewissen Schutz gegen Demenz. Gute Schulbildung ist ebenfalls ein robuster Faktor. Aber dabei handelt es sich allesamt um Einflussgrößen, die lange in der Vergangenheit zurückliegen. Wenn man alt ist, kann man da nichts mehr tun. Ein ganz wichtiger Faktor ist Bluthochdruck im Alter zwischen 45 und 60 Jahren, der offenbar Gefäße und Gehirn so schädigt, dass später eine Demenz entstehen kann.

eine frühe Diagnose geknüpft, da man mit ihnen den Ausbruch der Krankheit blockieren möchte, Stichwort: »Impfung gegen Alzheimer«. Um sie testen und später auch implementieren zu können, ist die Frühdiagnostik unverzichtbar. In der Praxis jedoch driften Therapie und Diagnostik derzeit stark auseinander. << Herr Gertz, wir danken Ihnen für das Gespräch.

Wie sieht es mit medikamentösen Therapien im Frühstadium aus? Medikamente können die Krankheit hinauszögern, aber nicht heilen. Tatsächlich zählen Therapieansätze mit Medikamenten zu den am besten untersuchten. Nur: Diese Untersuchungen stammen überwiegend aus den 1990er Jahren, als man mit der Diagnose noch längst nicht so weit war wie heute. Und sie wurden alle an Patienten in einem relativ fortgeschrittenen Stadium durchgeführt. Entsprechend sind die Medikamente auch nur für dieses späte Stadium zugelassen. Heute können wir aber davon ausgehen, dass zwischen Diagnose und Beginn der Demenz mehrere Jahre vergehen. Und in diesen Jahren können wir die Medikamente nicht anwenden, weil sie nicht zugelassen sind und weil ihre Wirksamkeit für diese ganz frühen Stadien nicht nachgewiesen ist. In der Klinik gibt das eine verdrehte Situation: Wir können eine häufige Krankheit immer besser diagnostizieren, kommen aber mit der Therapie nicht hinterher. Das stellt die Frühdiagnostik noch einmal sehr in Frage. Ist die Möglichkeit der frühen Diagnose ihrer Zeit voraus? Ja und Nein. Aktuelle Therapieentwicklungen sind zwingend an

|9|


29. KW 2011

22. Juli 2011

Geotektonik

Z

erfallende Radioisotope tragen etwa die Hälfte zum gesamten Wärmefluss aus dem Erdinneren bei, berechneten japanische Forscher auf der Basis von Neutrinodaten des Detektors KamLAND (Kamioka Liquid Scintillator Antineutrino Detector) unter dem Mount Ikenoyama bei Kamioka in Japan. Das Wissenschaftlerteam zählte Elektron-Antineutrinos aus dem Erdkern, die beim Zerfall von Uran-238 und Thorium-232 entstehen, und berechnete aus den Daten die Konzentration dieser Elemente im Erdinneren. Insgesamt erzeugen diese Radioisotope demnach 20 Terawatt Wärme. Dazu kommen vier Terawatt aus dem Zerfall von Kalium-40. Das reicht nicht aus, um die 44 Terawatt Wärme zu erklären, die die Erde ins All abstrahlt - die zusätzliche Hitze, schließen die Forscher, stammt noch von der Entstehung des Planeten. Wissenschaftler der KamLAND-Kollaboration hatten bereits 2005 die Antineutrinos aus dem Erdinneren nachweisen können. Nun, sechs Jahre später, stehen genug Daten zur Verfügung, um zu bestimmen, wie viel Wärme durch diese Zerfälle entsteht. Der KamLAND-Detektor ist ein kugelförmiger Tank, der mit Szintillatorflüssigkeit gefüllt ist - einem speziellen Mineralölgemisch, in dem die seltenen Zusammenstöße von Neutrinos mit Neutronen Lichtblitze erzeugen. Im Zeitraum von März 2002

bis November 2009 registrierten die Detektoren in der Wand des Tanks insgesamt 841 Antineutrinoereignisse. Allerdings haben die meisten dieser Ereignisse einen oberirdischen Ursprung: Die kommerziellen Atomreaktoren Japans erzeugen durch Zerfälle von Uran- und Plutoniumisotopen den Großteil der gemessenen Elektron-Antineutrinos. Anhand der Leistungsdaten der Kraftwerke gelang es den Forschern jedoch, dieses Signal zu identifizieren und herauszufiltern: Während der Geoneutrinohintergrund konstant bleibt, schwankt der Neutrinoausstoß der Kraftwerke im Lauf der Zeit. Übrig blieben 98 Ereignisse, die ihren Ursprung im Erdkern haben. Diese Daten reichten den Wissenschaftlern aus, um die Konzentration der Radioisotope im Erdkern mit hinreichender Genauigkeit zu modellieren. Aus diesen Informationen erhoffen sich die Forscher weitere Erkenntnisse über Entstehung und Entwicklung des Erdinneren, insbesondere die Dynamik des Erdmantels. Dort steht die Zerfallswärme radioaktiver Elemente im Verdacht, beträchtlich zur Konvektion beizutragen, die unter anderem die Plattentektonik und andere geophysikalische Phänomene antreibt. (lf ) <<

Itaru Shimizu

Neutrinos enthüllen radioaktive Heizung des Erdinneren

Schemazeichnung des KamLAND-Detektors Der kugelförmige Tank enthält 1000 Tonnen Szintillatorflüssigkeit, insgesamt 1879 Fotodetektoren in der Wand nehmen die Neutrinosignale auf.

Nature Geoscience 10.1038/ngeo1205, 2011

| 10 |


29. KW 2011

22. Juli 2011

Kosmische Kollisionen

Womöglich prallte eine Satellitengalaxie auf die Milchstraße

S

dehnte Gasblasen nördlich und südlich des galaktischen Zentrums, die Gammastrahlen emittieren. Bisher spekulieren Astronomen über mögliche Ursachen - einig sind sie sich nur darin, dass ein sehr energiereiches Ereignis hinter den so genannten Fermi-Blasen stecken muss, etwa Materiejets, wie man sie aus den Zentren aktiver Galaxien kennt, oder intensive Sternentstehung. Im Einklang damit entdeckte man, dass die Umgebung des supermassereichen Schwarzen Lochs noch vor einigen hundert Jahren um ein Vielfaches heller im Röntgenlicht strahlte. Das galaktische Zentrum weise aber noch weitere Besonder-

heiten auf, berichten Lang und ihre Kollegen. So befänden sich ausgerechnet dort die drei massereichsten jungen Sternenhaufen mit jeweils abertausenden Gestirnen. Eigentlich sollte die starke Schwerkraft von Sagittarius A* die Gaswolken auseinanderreißen, bevor sich Sterne bilden können. Gleichzeitig beobachte man in dieser Region einen deutlichen Mangel an älteren Sternen verglichen mit anderen Teilen der Galaxis. All dies lasse keinen Zweifel daran, dass das Zentrum der Galaxie einmal viel aktiver war als heute, folgern die Astronomen. In der aktuellen Studie kombi-

nierten sie Beobachtungsdaten und theoretische Modelle, um das Eindringen einer kleinen Satellitengalaxie in die Milchstraße - mitsamt Sternen, Gas und ihrem zentralen Schwarzen Loch mit einigen zehntausend Sonnenmassen - als Ursache zu prüfen. Demnach prallte die Galaxie vor rund 13 Milliarden in die noch junge Milchstraße. Auf ihrem Weg zum galaktischen Zentrum wurde sie allmählich durch Gezeitenkräfte auseinandergerissen, wobei die turbulenten Gasmassen ideale Bedingungen für Sternentstehung boten. Auch Sagittarius A* vereinnahmte einen Teil der fremden Mate-

NASA/GSFC

agittarius A*, das supermassereiche Schwarze Loch im Zentrum der Galaxis, zeigt sich dieser Tage sehr geruhsam. Die Hinweise verdichten sich allerdings, dass seine Nachbarschaft noch vor einigen Millionen Jahren alles andere als ruhig war. Auslöser der damaligen Aktivität war laut Astronomen um Meagan Lang von der Vanderbilt University in Nashville, US-Bundestaat Tennessee, womöglich eine Satellitengalaxie, die mit der noch jungen Milchstraße zusammenprallte. Erst kürzlich entdeckten Astronomen zwei keulenförmige, rund 25 000 Lichtjahre ausge-

Gammastrahlenblasen Im Zentrum unserer Milchstraße wölben sich zwei riesige Gasblasen - jeweils rund 25 000 Lichtjahre lang - ins All.

| 11 |


29. KW 2011

aber erst in der jüngsten Vergangenheit, womöglich vor nur zehn Millionen Jahren. Das dargestellte Szenario basiere bisher nur auf Indizienbeweisen und sei durchaus angreifbar, geben Lang und ihr Team zu, auch wenn es eine plausible Erklärung für die bislang beobachteten Eigenschaften des galaktischen Zentrums liefere. (mp) <<

arXiv, 1107.2923, 2011

NASA/CXC/MIT/Frederick K. Baganoff et al.

rie, woraufhin riesige Jets in den intergalaktischen Raum schossen und Gammastrahlen freisetzten. Die Überreste davon sind heute als Fermi-Blasen zu beobachten. Derweil bewegte sich das mittelschwere Schwarze Loch spiralförmig auf das supermassereiche Exemplar zu und schleuderte dabei die meisten älteren Sterne aus dem galaktischen Zentrum heraus, schreiben die Forscher. Vereinigt hätten sich die beiden massereichen Schwarzen Löcher

22. Juli 2011

Die Zentralregion unserer Milchstraße Diese Aufnahme des Röntgenteleskops Chandra zeigt die Region um das galaktische Zentrum und die Position des Schwarzen Lochs Sagittarius A*.

Vakzine

Streitpunkt Impfstoffsicherheit Hysterie über angebliche Impfrisiken überschattet Aufklärung echter Nebenwirkungen

Exklusive Übersetzung aus

Roberta Kwok

Impfungen können Nebenwirkungen haben - und Mediziner sollten das immer im Blick behalten. Ein unbegründeter Verdacht darf ihren nüchternen Blick dabei aber nie trüben.

J

ohn Salamone ist nun wahrlich kein Impfskeptiker. Er glaubt nicht an dubiose Behauptungen, dass Impfstoffe Gift für Kinder seien oder gar für Autismus und andere Störungen verantwortlich wären. Aber tragischerweise musste gerade er erfahren, dass seltene Nebenwirkungen durchaus auftreten können. Sein Sohn David war 1990 noch ein Baby, als ihm nach einer Polioschluckimpfung die Kräfte schwanden und er zuletzt nicht mal mehr krabbeln konnte. Nach etwa zwei Jahren mit Physiotherapie und Arztbesuchen musste Salamone erkennen, dass der Kleine auf Grund seines gestörten Immunsystems nach der Impfung an Poliomyelitis erkrankt war. »Wir haben ihn damals schlicht mit

Polio infiziert«, meint Salamone, der inzwischen in Mount Holley in Virginia im Ruhestand lebt. Eine durch die Impfung ausgelöste Poliomyelitis ist ein bekanntes Impfrisiko, das bei etwa einer von 2,4 Millionen Impfungen, insbesondere bei gleichzeitigen Immundefekten, auftritt. Einen sichereren, inaktivierten Polio-Impfstoff gab es zwar schon damals, aber die Schluckimpfung war billiger, einfacher und angeblich wirksamer gegen Krankheitsausbrüche. In den 1980ern war die Poliomyelitis in den USA fast ausgerottet, und alle neuen Fälle fielen auf den Impfstoff zurück. Salamone und andere Eltern kämpften schließlich dafür, dass in den späten 1990ern in den USA auf eine sicherere Impfstoff-

variante umgestellt wurde. Weil Impfstoffe Gesunden und oftmals Kindern gegeben werden, müssen sie höhere Sicherheitsstandards erfüllen als die meisten pharmazeutischen Produkte. Die tatsächlich abgewehrten Krankheitserreger kann man nicht sehen; und da die Erkrankungen seltener werden, gerät das Ziel der Impfungen häufig in Vergessenheit. Nur die Risiken, so niedrig sie auch sein mögen, bleiben der Öffentlichkeit noch präsent. Zudem gibt es richtige Anti-Impf-Bewegungen, die von VIPs und Aktivisten wie Andrew Wakefield angespornt werden. Der britische Chirurg verlor seine Zulassung als Arzt, nachdem er unbegründete Behauptungen über die Sicherheit des Masern-

| 12 |

Mumps-Röteln-(MMR)-Impfstoffs verbreitet hatte. Das Ganze hat so manche wissenschaftliche Arbeit überschattet, in der die wahren Nebenwirkungen aufgedeckt werden sollten. Viele angebliche Zusammenhänge erwiesen sich als falsch. So auch der Verdacht, dass der MMR-Impfstoff und das Konservierungsmittel Thimerosal Autismus verursachen [1]. Aber Impfstoffe haben in der Tat Nebenwirkungen wie Ausschlag und Druckschmerz an der Impfstelle, Fieberanfälle und gefährliche Infektionen bei immundefekten Menschen. Ernste Probleme treten selten auf, und es ist schwer zu beweisen, dass sie tatsächlich von der Impfung herrühren. Zudem


29. KW 2011

Opfer des eigenen Erfolgs Der technologische Fortschritt hat die modernen Impfstoffe reiner und sicherer gemacht. Die meisten Industrieländer nehmen inzwischen nur noch den inaktivierten Polio-Impfstoff und haben auch den Ganzzell-Impfstoff gegen Keuchhusten abgeschafft. Dieser wurde aus abgetöteten Bakterien hergestellt und zog relativ häufig Schwellungen am Arm, Fieberkrämpfe, Müdigkeit und Teilnahmslosigkeit nach sich. Um die Sicherheit weiter zu erhöhen, muss man manchmal auch nach extrem seltenen Risikofaktoren Ausschau halten. Zwar durchlaufen Impfstoffe vor ihrer Zulassung strenge Sicherheitstests, in der Regel aber werden nicht genügend Probanden in die Studien eingeschlossen, um Risiken mit einer Wahrscheinlichkeit von 1:1000 bis 1:100 000 Fällen aufdecken zu können (siehe Risikoberechnung). Derart seltene Nebenwirkungen können nur durch eine kontrollierte Anwendung in der Bevölkerung gefunden werden. Die Behörden wurden inzwischen immer wachsamer. Als in den Jahren 2009/2010 eine H1N1-Pandemie befürchtet wurde, produzierten mehrere Firmen vorab schon mal möglichst viele Impfdosen. Inzwischen wurden immense Anstrengungen unternommen, die Sicherheit der Impfstoffe zu überprüfen. So wurden in den USA die freiwilligen Meldungen von

vermuteten Nebenwirkungen ausgewertet und jede Menge Informationen des öffentlichen Gesundheitssystems, der Krankenversicherungen, der Impfregister, der Neurologennetzwerke sowie anderer Gesundheitsversorgungssysteme zusammengefasst. In Europa sammelten Wissenschaftler Informationen aus 15 verschiedenen Ländern. Außerdem wurden die Mitarbeiter der chinesischen Gesundheitssysteme offiziell angewiesen, mögliche Nebenwirkungen innerhalb von 24 Stunden, schwer wiegende Nebenwirkungen innerhalb von zwei Stunden zu melden. Dabei wurde besonders auf das Guillain-Barré-Syndrom geachtet, ein Lähmungssyndrom, das zwar in vielen Fällen behandelbar ist, langfristig aber Behinderung oder gar Tod zur Folge haben kann. Bei einem im Jahr 1976 in den USA eingesetzten Impfstoff gegen die Schweinegrippe trat das Guillain-BarréSyndrom bei fünf bis neun Fällen pro 1 Million Geimpften auf. Bei neueren Grippe-Impfstoffen wurde kein eindeutiger Zusammenhang mehr gefunden, aber die Behörden bleiben wachsam. Während der Grippepandemie in den Jahren 2009/2010 trat bei etwa 60 Finnen im Alter von 4 bis 19 Jahren unerkärlicherweise eine Narkolepsie auf. Die meisten von ihnen hatten den von GlaxoSmithKline in Bentford (UK) hergestellten H1N1-Impfstoffe Pandemrix erhalten. Auch in Schweden fanden sich gehäuft solche Erkrankungsfälle. Allerdings bleibt zu beweisen, ob tatsächlich der Impfstoff die Ursache ist. Bei einer Reihe von Impfstoffen hat sich die Nachbeobachtung schon gelohnt. So wurde im Jahr 1999 ein Rotavirus-Impfstoff in den USA verboten, nachdem 15 Fälle von Intussuszeption, einer segmentalen Einstülpung des Darms, bei geimpften Kindern gemeldet wurden. Der Pathomechanismus ist noch unklar; denkbar wäre ein

Nature

sind Studien zur Bestimmung von Impfstoffrisiken sehr langwierig. Unterdessen müssen die Gesundheitsbehörden aber über Maßnahmen entscheiden und sie gegenüber der Bevölkerung erklären. Das sei wichtig, um öffentliches Vertrauen zu erlangen, meint Neal Halsey, ein Kinderarzt an der Johns Hopkins Bloomberg School of Public Health in Baltimore (USA). »Wenn wir nicht weiterforschen, wird es noch mehr Impfgegner geben.«

22. Juli 2011

Impfen: Risikobestimmung Quelle: US Centers for Disease Control and Prevention. Für weitere Informationen siehe go.nature.com/s7rfio

impfstoffinduziertes Anschwellen der Lymphknoten im Darm, was wiederum zur verstärkten Kontraktion und Einstülpung geführt haben könnte. Die Intussuszeption trat schätzungsweise bei 1 von 10 000 Impflingen auf. Die Arbeitsgruppe um Nicola Klein, der Kodirektorin des Kaiser Permanente Vaccine Study Center in Oakland in Kalifornien, berichtete im Jahr 2007 über eine Studie zum Kombinationsimpfstoff für Masern, Mumps, Röteln und Windpocken (MMRV). Im Alter zwischen 12 und 23 Monaten geimpfte Kleinkinder hatten dabei sieben bis zehn Tage nach der Impfung häufiger Fieberkrämpfe als Kinder, die getrennte MMRund Windpockenimpfstoffe erhalten hatten. Da-

| 13 |

raufhin nahm die Impfkommission der USA ihre Empfehlung für den MMRV-Impfstoff wieder zurück. Eine nachfolgende Studie deutet darauf hin, dass die MMRV-Kombinationsimpfung pro 2300 Impfdosen einen einzigen Fieberkrampf mehr auslöst als die separate Impfung gegen MMR und Windpocken [2]. Auch in Ländern mit niedrigem und mittlerem Einkommen soll die Nachbeobachtung von Impfungen verbessert werden. Mit Hilfe des internationalen Programms GAVI Alliance (vormals Global Alliance for Vaccines and Immunisation, mit Sitz in Genf ) haben diese Länder immer mehr Zugang zu Impfstoffen. So könnten sie bald mit Impfungen gegen Denguefieber


29. KW 2011

und Cholera versorgt werden. Im Jahr 2006 hat die Pan American Health Organization in Washington DC ein Nachbeobachtungssystem für lateinamerikanische Länder eingerichtet. Die Weltgesundheitsorganisation (WHO) in Genf arbeitet mit 12 Ländern zusammen, darunter Iran, Tunesien, Vietnam und Indien, um ein neues Monitoringsystem zur Impfstoffsicherheit zu entwickeln. Laut Patrick Zuber, dem Leiter der Arbeitsgruppe globale Impfstoffsicherheit bei der WHO, stellt die Hälfte der Länder bereits Informationen für eine globale Datenbank zu Verfügung. Darüber hinaus wurden klinische Studien mit größerer Teilnehmerzahl gestartet. Die zwei Rotavirus-Impfstoffe RotaTeq von Merck (Whitehouse Station in New Jersey) und Rotarix von GlaxoSmithKline wurden vor der Zulassung in zwei Sicherheitsstudien mit jeweils mehr als 60 000 Kindern getestet [3, 4]. Doch auch bei diesen großen Studien können seltene Nebenwirkungen nicht ausgeschlossen werden. Deshalb wäre es sinnvoller, Langzeitstudien nach Impfstoffzulassung zu organisieren, meint Rino Rappuoli, internationaler Chef der Impfstoffforschung bei Novartis Vaccines and Diagnostics in Siena in Italien. Mit großen Studien im Vorfeld der Zulassung »fühlt man sich vielleicht besser, aber man beantwortet keinerlei wissenschaftlich wichtige Fragen«, sagt er. In ersten mexikanischen Studien nach der Zulassung von Rotarix wurde ein leicht erhöhtes Risiko für Intussuszeption nach der ersten Impfdosis festgestellt. Ähnliche Ergebnisse gab es für beide Rotavirus-Impfstoffe in Australien [5]. Bei all dem darf aber nicht verschwiegen werden, dass manche Wissenschaftler der Meinung sind, die Rotavirus-Impfung könne vor späteren Intussuszeptionen eher schützen.

22. Juli 2011

Verspätete Ergebnisse – verlorenes Vertrauen Selbst wenn eine mögliche Impfstoffnebenwirkung gefunden ist, bleibt noch eine lange Phase mit Ungewissheit. Um schlüssige Beweise zusammenzutragen, sind oft Kontrollstudien in mehreren Ländern nötig, bei denen Hunderttausende oder gar Millionen von Menschen eingeschlossen werden müssen. So ist bis heute noch nicht klar, ob Pandemrix tatsächlich etwas mit der Häufung von Narkolepsiefällen in Europa zu tun hat. Eine Studie des europäischen Netzwerks VAESCO (Vaccine Adverse Event Surveillance & Communication) untersucht derzeit das Auftreten von Narkolepsien in mehreren Ländern der EU, in denen unterschiedliche H1N1-Impfstoffe eingesetzt wurden. So scheint die Narkolepsierate seit 2008 in mehreren Ländern gestiegen zu sein, was allerdings noch auf die Zeit vor dem Einsatz der H1N1-Impfstoffe zurückgeht. Außerdem ist der Anstieg nicht deutlich genug, um die Episoden in Finnland zu erklären, so die Pharmaepidemiologin und Studienleiterin Miriam Sturkenboom von der Erasmus Universitätsklinik Rotterdam. GlaxoSmithKline finanziert auch eine Studie in Kanada mit einem dem Pandemrix ganz ähnlichen H1N1-Impfstoff. Hier wurde bisher nicht von häufigeren Narkolepsiefällen berichtet. Ein Anstieg könnte auch schlicht mit der intensiveren Diagnostik bei H1N1-Infektion zusammenhängen, meint Jan Bonhoeffer, ein Spezialist für Infektionskrankheiten bei Kindern von der Baseler Kinderklinik, der auch Chef des internationalen Forschungsnetzwerk für Impfstoffsicherheit, der Brighton Collaboration, ist. Seiner Meinung nach läuft es mit der Narkolepsie-Story genauso wie mit MMR und Autismus: Die Leute wollen unbedingt eine Ursache für ei-

ne ernste, chronisch verlaufende und wenig verstandene Krankheit hören. Sicherheitsfragen müssen immer ganz schnell und abschließend untersucht werden, fügt Bonhoeffer noch hinzu. Denn sobald die Wissenschaftler einen Verdacht als unbegründet erachten, »dann kümmert sich keiner mehr darum, und es dauert Jahre, bis das verlorene Vertrauen wieder zurückgewonnen ist. Und damit richten voreilige Warnungen oftmals mehr Schaden an, als sie eigentlich verhindern sollten.« In einem weltweiten Netzwerk für Impfstoffsicherheit wäre es möglich, Hypothesen schneller und mit größerer Probandenzahl zu testen. Deshalb koordiniert die WHO derzeit auch eine weltweite Impfstudie zum pandemischen H1N1 und dem Guillain-BarréSyndrom. Gut kontrollierte randomisierte Studien, also der höchste Evidenzstandard zur Bestimmung eines ursächlichen Zusammenhangs, sind auf Grund der nötigen großen Probandenzahl oftmals nicht möglich. Und bei randomisierten Studien an einem einzigen Standort ist unklar, ob die Ergebnisse auf andere Orte übertragbar sind, sagt Alfred Berg, ein klinischer Epidemiologe der University of Washington in Seattle. Selbst wenn die Nachbeobachtung schneller und besser wird, werden die Gesundheitsbehörden immer noch kurzfristig und anhand unvollständiger Informationen Entscheidungen treffen müssen. Dabei wollen sie meist auf der sicheren Seite stehen – doch Warnungen machen die Bevölkerung immer misstrauisch. Im März beispielsweise, als vier Kinder kurz nach einer Impfung starben, stoppten die japanischen Behörden zwei Impfstoffe, einen gegen Pneumokokken und einen gegen Haemophilus influenzae. Später stellte sich dann heraus, dass es keinen echten Beweis für

| 14 |

einen Zusammenhang gibt. Der Vorfall hinterließ aber tiefe Wunden, meint Pier Luigi Lopalco, der Direktor des European Centre for Disease Prevention and Control in Solna in Schweden. Einem Stopp wird inzwischen mehr Medieninteresse entgegengebracht als der Wiederaufnahme eines Impfstoffs, so dass sich die Leute immer nur an die Gefahren erinnern. Die US-Behörden wurden dafür kritisiert, dass sie auf thiomersalfreie Impfstoffe gedrängt haben, ohne dass ein Risikoverdacht für das Konservierungsmittel bestand. »Die Leute haben uns gefragt, warum es nicht mehr verwendet wird, wenn es doch keine Probleme macht«, erzählt der Kinderarzt Ken Bromberg vom Brooklyn Hospital Center in New York. »Es muss wirklich ein Problem geben, auch wenn das niemand zugibt.« Aber nichts zu tun, hätte einen Verlust der Glaubwürdigkeit bedeutet, glaubt Halsey. »Das hätten die Leute so nicht akzeptiert.« Wer ist gefährdet? Schon lange ist die unterschiedliche Anfälligkeit für Impfrisiken bekannt. So wird immungeschwächten Personen in der Regel von Lebendimpfstoffen abgeraten; bei anderen Erkrankungen ist das weniger klar. Einige Fachleute sprechen von besonderen Risiken bei Kindern mit Stoffwechselstörungen. Allerdings wurden im April zwei Studien veröffentlicht, die dagegen sprechen. Klein und ihre Kollegen berichteten über Kinder mit erblichen Stoffwechselstörungen: In den ersten 30 Tagen nach einer Impfung mussten diese nicht häufiger notfallmäßig behandelt oder gar ins Krankenhaus aufgenommen werden als Kinder aus einer Kontrollgruppe [6]. In der zweiten Studie zeigte sich, dass Kinder mit einer Störung im Harnstoffzyklus des Zellstoffwechsels in den 21 Tagen nach


29. KW 2011

Impfung nicht häufiger schwere Stoffwechselprobleme hatten als Kontrollkinder [7]. Manche Wissenschaftler hoffen, irgendwann eine genetische Prädisposition für Impfnebenwirkungen nachweisen zu können. Nach Meinung des Impfspezialisten Gregory Poland von der Mayo Clinic in Rochester in Minnesota würde das zumindest die Risiken und Vorteile offenlegen. So wird derzeit zum Beispiel die Prädisposition für Nebenwirkungen der Pockenimpfung untersucht. Kathryn Edward von der Vanderbilt University in Nashville in Tennessee hat mit ihren Kollegen zwei Gene beschrieben, die mit Impfreaktionen wie Hautausschlag assoziiert sind [8]. Polands Gruppe ist zudem auf der Suche nach genetischen Risikofaktoren für die Myoperikarditis, einer Entzündung des Herzmuskels und des umliegenden Gewebes. Selbst wenn eine Impfung für bestimmte Kinder ein Risiko bedeutet, könnte das Nichtimpfen noch gefährlicher sein. Die durch Impfen unterbindbaren Erkrankungen sind bei Patienten mit

22. Juli 2011

Stoffwechselstörungen womöglich besonders schwer wiegend oder sogar tödlich, erklärt Marshall Summar, der Direktor der Abteilung für Genetik und Stoffwechsel am Children’s National Medical Center in Washington D.C. Edwards und ihre Kollegen haben untersucht, wie Kinder mit mitochondrialen Störungen auf Impfstoffe und natürliche Infektionen reagieren. Wenn der Impfstoff ein Risiko darstellt, kann man möglichen Nebenwirkungen auch vorbeugen. So kann zum Beispiel auf eine gute Ernährung insbesondere nach der Impfung geachtet werden, meint Edwards. Auch an sichereren Impfstoffen und Herstellungsverfahren wird gearbeitet. So will Novartis in Holly Springs in North Carolina einen InfluenzaImpfstoff in Zellkulturen anstatt den bisher üblichen Hühnereier produzieren. Hierdurch könne man laut Rappuoli die Sicherheit verbessern und allergische Reaktionen gegen Hühnereiweiß verringern. Wenn nötig, könne das Produktionswerk noch in diesem

Jahr Impfstoff gegen eine Influenzapandemie herstellen. Außerdem wird auch am Ersatz potenziell schädlicher Impfstoffe geforscht. Dazu gehören Pockenimpfstoffe, die Immungeschwächten nicht ohne Weiteres gegeben werden können; der Tuberkulose-Impfstoff, der für HIV-positive Kinder nicht empfohlen wird; und der Gelbfieberimpfstoff, der bei älteren Menschen ein Erkrankungsrisiko birgt. Die neuen sichereren Impfstoffe genauso wirksam zu machen wie die bisherigen, ist zweifelsohne eine Herausforderung. Nach Meinung von James Cherry, einem Spezialisten für Infektionskrankheiten bei Kindern von der University of California in Los Angeles, hatte der Keuchhustenausbruch 2010 in Kalifornien mit der Wirksamkeit des Impfstoffes zu tun. So würden in den Industrieländern verstärkt die sichereren, zellfreien Keuchhustenimpfstoffe eingesetzt, die aber weniger wirksam seien als die besten Ganzzellimpfstoffe Wissenschaftler betonen gerne, dass der Nutzen von Impfstoffen nach wie vor die Risiken weit

überwiegt. Wenn sich aber die Bevölkerung immer weniger an die Erkrankungen erinnert, werden auch immer weniger Impfnebenwirkungen toleriert werden. »Wer die Erkrankung nicht kennt oder nicht selbst erlebt hat, wird auch nicht jedes Risiko eingehen«, sagt Edwards. So sehr sich die Wissenschaftler auch bemühen: Die Risiken können sie nicht völlig beseitigen. Impfstoffe sind biologische Produkte mit biologischer Wirkung, meint Juhani Eskola, stellvertretender Direktor von Finnlands National Institute for Health and Welfare in Helsinki. »Eine 100-prozentige Sicherheit wird es nie geben.« <<

[1] Immunization Safety Review Committee Immunization Safety Review: Vaccines and Autism (National Academies Press), 2004 [2] Pediatrics 126, e1–e8, 2010 [3] N. Engl. J. Med. 354, S. 11–22, 2006 [4] N. Engl. J. Med. 354, S. 23–33, 2006 [5] Vaccine 29, S. 3061–3066, 2011 [6] Pediatrics 127, e1139–e1146, 2011 [7] Pediatrics 127, e1147–e1153, 2011 [8] J. Infect. Dis. 198, S. 16–22, 2008

Mikrobiologie

Giftspritze im Kampf der Keime

D

er größte Feind von Bakterien sind oft sie selbst: Wenn zwei Sorten von Keimen um die Ressourcen im natürlichen Lebensraum streiten, dann bekämpfen sie sich mit erstaunlichen Mitteln. Ihr vielseitiges Waffenarsenal lernen Mikrobiologen allerdings gerade erst genauer kennen: Etwa die Nahkampf-Injektionsnadeln von Pseudomonas aeruginosa, einem Keim, der besonders als Auslöser von schwer wiegenden Sekundärinfektionen beim Menschen

berüchtigt ist, etwa bei zystischer Fibrose. Die Bakteriennadel funktioniert fast so wie das Werkzeug, mit dem Bakterienviren ihr Erbgut in Bakterien injizieren, sie ist für die attackierte Keimkonkurrenz aber deutlich schneller tödlich, beschreibt jetzt Joseph Mougous von der University of Washington in Seattle. Die Forscher hatten schon vor gut einem Jahr erkannt, dass der Erreger sein in der äußeren Membran verankertes »Typ-VIPili-Sekretionssystem« (T6SS)

gegen nahe Bakterien in Stellung bringt. Wirksam ist es allerdings nur gegen »gramnegative« Keime, deren Hülle nach Sandwichmanier aus zwei Lagen Biomembran und einer dazwischenliegenden Peptidoglykanschicht bestehen. Jetzt zeigen die Forscher, warum T6SS hier verheerend wirkt: Der Proteinkomplex appliziert einen zersetzenden Cocktail gezielt in die Mittellage der Bakterienwand, wo sie am angreifbarsten ist. Nach einem direkten Kontakt zweier Bakterienzellen verankern

| 15 |

sich dabei die Pili zunächst auf der äußeren der beiden Membranen des Gegners, um dann zwei Enzyme genau in den Peptidoglykanspalt zu schleusen: Tse1 und Tse2. Eine Analyse zeigt, dass die beiden Proteine dort als Amidasen und Muramidasen arbeiten und die Peptidoglykanmoleküle abbauen. Der Verlust der Schutzhülle sorgt am Ende dafür, dass der angegriffene Keim abstirbt - ohne dass dafür ein toxisches Molekül bis in sein Inneres geschleust werden muss.


29. KW 2011

Nature

22. Juli 2011

Pseudomonas aeruginosa ist selbst ein gramnegatives Bakterium mit einer Peptidoglykanhülle und muss demnach unbedingt verhindern, dass es selbst von seinen Enzymwaffen angegriffen wird. Dafür sorgen die zwei Schutzproteine Tsi1 und Tsi3: Sie binden und neutralisieren die Angriffsproteine im Bakterium, bis sie in den Gegner appliziert werden. Die Forscher müssen nun klären, wie vielseitig die äußeren Anhänge von Bakterien wie Pseudomonas aeruginosa sind. Denkbar wäre etwa, dass an den Pili auch Erkennungssensoren

vorhanden sind, die Artgenossen und Feinde anhand von bestimmten Signalstrukturen an der äußeren Membran unterscheiden. Schließlich lagern sich Pseudomonas-Bakterien häufig zu Biofilmen aus vielen Zellen zusammen. Interessant wäre also zu klären, ob die sich nähernden Keime einer Art gegenseitig mit ihren Peptidoglykangiften traktieren und nur überleben, weil sie die entsprechenden Gegenmittel besitzen - oder ob sie darauf verzichten, weil sie sich als Artgenossen erkennen. (jo) <<

Injektionskanüle: Waffe im Kampf der Bakterien Pseudomonas aeruginosa besitzt mit dem Typ-VI-Sekretionssystem eine wirksame Waffe gegen andere Bakterien mit gramnegativer Zellwand. Solche Zellwände bestehen aus zwei Membranen: Einer äußeren (hier OM, »outer membrane«) und einer inneren (CM, zytoplasmatische Membran); dazwischen, im periplasmatischen Spalt, befindet sich eine Peptidoglykanhülle. Der Angriff mit der Injektionsspritze kann erfolgen, wenn die Bakterienwände sich nahe kommen: Pseudomonas (Zellwand im Schema in der oberen Bildhälfte) attackiert dann, indem es das Innenrohr (inner tube) des Apparates durch die äußere Membran des Zielbakteriums (untere Hälfte des Schemas) stößt. Dann schleust der Angreifer die Enzyme Tse3 und Tse1 in den Spalt zwischen den beiden Membranen des Gegners; dort lösen die Enzyme die Peptidoglycanmoleküle auf. Nur ein drittes Angriffsmolekül, Tse2, gelangt auch ins Innere des feindlichen Bakteriums. Gegen alle Angriffsenzyme besitzt allein Pseudomonas ein Gegenmittel: Tsi1, 2 und 3.

Nature 475, S. 343-347, 2011

| 16 |


29. KW 2011

22. Juli 2011

Mittelalter

Schwere Rüstung machte Ritter müde ittelalterliche Rüstungen konnten so manchem Ritter zum Verhängnis werden – so das Resultat eines Praxistests mit neuzeitlichen Recken. Um sich in den schweren Metallpanzern zu bewegen, waren nämlich enorme Kraftanstrengungen nötig. Die Kämpfer ermüdeten schnell auf dem Schlachtfeld und verloren so Kampf und Leben. Für die Studie wurden die Teilnehmer mit Repliken gotischer Plattenpanzer des 15. Jahrhunderts gerüstet, in denen sie verschiedene Bewegungsabläufe zu absolvieren hatten. Ergebnis der dabei aufgezeichneten Sauerstoffmessungen: Die Probanden mussten zum Gehen und Laufen mehr als doppelt so viel Energie aufwenden als ungeschützt. Zudem fiel ihnen das Atmen unter dem bis zu 50 Kilogramm wiegenden Harnisch auffallend schwer. Verantwortlich für den hohen Kraftaufwand ist die immense Belastung sämtlicher Körperteile. Würde man dasselbe Gewicht nur auf dem Rücken tragen, wäre

es wesentlich leichter, Arme und Beine zu bewegen, so der Biomechaniker Graham N. Askew von der University of Leeds. Die im Spätmittelalter üblichen Panzer waren aus flexibel verbundenen Stahlplatten gefertigt. Während des Hundertjährigen Kriegs, der von 1337 bis 1453 zwischen dem englischen und französischen Königshaus ausgetragen wurde, gehörten sie zur Standardausrüstung französischer Ritter. Gegen die leicht bewaffneten englischen Bogenschützen waren die voll gepanzerten Kämpfer aber im Nachteil – so 1415 in der Schlacht von Azincourt: Bevor die Ritter das Schlachtfeld erreicht hatten, mussten sie sich in voller Montur durch schlammiges Gelände schleppen und waren bei Kampfbeginn bereits völlig erschöpft. Nach Ansicht der Forscher um Askew ein Grund für die bittere Niederlage der Franzosen. (kb)<<

Graham N. Askew/University of Leeds

M

Proc. Royal Soc. B 10.1098/rspb.2011.0816, 2011

Ein Ritter auf dem ... ... Laufband. Für die Studie mussten sich die Probanden mehrere Minuten in voller Rüstung bewegen. Wie Kräfte zehrend das Tragen der Panzer war, konnten die Forscher anhand des Sauerstoffverbrauchs der Testteilnehmer ermitteln.

| 17 |


29. KW 2011

22. Juli 2011

Geophysik

Aktive Vulkankette im Südpolarmeer entdeckt ief unter der Meeresoberfläche harrt noch viel Unbekanntes seiner Entdeckung. Eine britische Schiffsexpedition meldet nun den Fund von zwölf unterseeischen Vulkanen nahe den South-Sandwich-Inseln im Südpolarmeer. Sieben davon seien noch aktiv und reichten bis über die Wasseroberfläche, wo sie eine Inselkette bilden. Einige erreichten Höhen von drei Kilometern über dem Meeresboden. Die Wissenschaftler des British Antarctic Survey entdeckten außerdem mehrere Krater von fünf Kilometer Durchmesser, die von ehemaligen Vulkanen zeugen. Wenn Vulkankegel in sich zusammenbrechen oder Mag-

makammern einstürzen, können Tsunamis ausgelöst werden. Auch an dieser Vulkankette entstanden solche Wellen, ist Philip Leat aus dem Forscherteam überzeugt und werden weitere entstehen. Dank der abgelegenen Lage seien sie aber keine Gefahr für Menschen. Der letzte Ausbruch eines der aktiven Vulkane liegt offenbar noch nicht lange zurück: 1962 berichtete die britische Marine, dass sie in der Gegend ausgedehnte Bimssteinteppiche im Meer gefunden hatte, die auf eine Eruption hindeuteten. Und es werde sicher neue Ausbrüche geben, so Leat. (af ) <<

British Antarctic Survey

T

Neue Vulkankette im Südpolarmeer Die Wissenschaftler an Bord der James Clark Ross, einem Forschungsschiff des British Antarctic Survey, haben die Inselkette 2007 und 2010 mit einem Fächerecholot vermessen.

| 18 |


29. KW 2011

22. Juli 2011

rezension

Die mystische Zahl

W

Arthur I. Miller 137 C. G. Jung, Wolfgang Pauli und die Suche nach der kosmischen Zahl Aus d. Engl.v . Hubert Mania DVA ISBN: 9783421042903 Dieses Buch können Sie im Science-Shop für 22,99 € (D), 23,70 € (A) kaufen. www.science-shop.de/artikel/1067035

5 x 5-Bewertung Inhalt

n

n

n

n n

Vermittlung

n

n

n

n

n

Verständlichkeit

n

n

n

n

o

Lesespaß

n

n

n

n o

Preis-Leistung

n

n

n

n

Expertenwertung

22

o

as sagt Ihnen die Zahl 137? Wahrscheinlich nichts. So alt wird kein Mensch, der Hartz-IV-Satz liegt zum Glück darüber, es ist nicht das Jahr irgendeiner berühmten Schlacht und sicher auch nicht die Geheimnummer von Lady Gaga. Für den in Österreich geborenen Wolfgang Pauli, einen der bedeutendsten theoretischen Physiker des 20. Jahrhunderts, war sie aber Bestandteil seiner physischen Probleme. Die 137 verfolgte ihn in seinen Träumen – und er träumte viel und intensiv. Vom Unterbewusstsein gequält, begab er sich schließlich in psychoanalytische Behandlung. Pauli suchte keinen Geringeren auf als den Schweizer Carl Gustav Jung, Freuds Widersacher und Begründer der Archetypenlehre. Die ominöse Zahl verfolgte ihn bis in den Tod: Er starb im Krankenhaus vom Roten Kreuz in Zürich – in Zimmer 137. Als Pauli dort am 5. Dezember 1958 mit starken Magenschmerzen eingeliefert wurde, stöhnte er: »Es ist die 137! Hier komme ich nicht mehr lebend heraus.« Die Zahl und ihr Analytiker stehen nun im Mittelpunkt des Buchs »137 – Carl Gustav Jung, Wolfgang Pauli und die Suche nach der kosmischen Zahl« von Arthur I. Miller. Was ist nun das Besondere an dieser Zahl? Zunächst einmal geht es nicht um eine Ganze Zahl im Sinn der Mathematik sondern um einen

| 19 |

physikalischen Wert. Genauer muss es 137,035999 heißen, und eigentlich ist sogar der Kehrwert davon gemeint. Es handelt sich um die berühmte Feinstrukturkonstante α ≈ 1/137, die in der Theorie der Atomspektren auftritt. Das Besondere: α ist dimensionslos, also ein reiner Zahlenwert ohne Einheit wie zum Beispiel Zentimeter oder Kilogramm. Die Zahl ist das Ergebnis einer eigentümlichen Kombination der drei Naturkonstanten e (elektrische Ladung), h (Wirkungsquantum) und c (Lichtgeschwindigkeit). Sie verknüpft also Quantentheorie (e, h) und Spezielle Relativitätstheorie (c) und ist daher ein zentrales Element der Relativistischen Quantenmechanik. Wolfgang Pauli und Werner Heisenberg haben diese Theorie (Quantenelektrodynamik) in den 1930er Jahren begründet. Es ist also kein Wunder, dass die Feinstrukturkonstante Pauli stark beschäftigt hat. Leider gelang es ihm nicht, ihren Wert aus tieferen Prinzipien abzuleiten. Das Problem ist nach wie vor offen. Im Buch von Miller ist die »kosmische Zahl« 137 nur eine Metapher für eine viel größere Geschichte: Der Konflikt zwischen Geist und Psyche – mit den Protagonisten Pauli und Jung. Beide waren tief darin verstrickt und versuchten das Wissen des jeweils anderen in ihr eigenes Weltbild einzubauen. Pauli war auf der Suche nach einer

tieferen, ganzheitlichen Erklärung für die physikalische Realität und Jung wollte seine zum Teil esoterische Vorstellung von der Seele auf eine naturwissenschaftliche Grundlage stellen. Für den erfolgreichen Psychoanalytiker Jung war es ein Glücksfall, als sich der berühmte Physiker und spätere Nobelpreisträger in seiner Züricher Praxis meldete. Pauli war nach außen hin ein extrem rationaler Mensch, bekannt – und bisweilen berüchtigt – durch seine scharfen Analysen und bissigen Kommentare: das »Gewissen der Physik«. Innerlich war er aufgewühlt von starken Gefühlen, streunte nachts umher, betrank sich in Bars, prügelte sich mit Fremden und ging ins Freudenhaus um sich abzulenken – der Prototyp eines »Dr. Jekyll und Mr. Hyde«. Pauli verbarg zeitlebens seine dunkle Seite vor der Welt. Das Doppelleben musste ihn zwangsläufig auf die »Couch« bringen. Jung analysierte seine Träume, legte sein weibliches Ich, die »Anima«, frei und behandelte das gestörte Verhältnis zu Frauen. Mit der Zeit wandelte sich das Verhältnis Analytiker zu Patient. Die beiden Männer zogen sich gegenseitig in ihren Bann und wurden schließlich Freunde. Sie diskutierten heftig über Archetypen, Mandalas, Alchemie, Ufologie, Zahlenmystik, Quanten, Symmetrie, Kom-


29. KW 2011

plementarität, Kausalität und Synchronizität – eine abstruse Mischung. Dabei schuf insbesondere die Synchronizität eine Brücke zwischen den so unterschiedlichen Fachgebieten. Der Begriff bezeichnet das gleichzeitige Auftreten von Ereignissen, die sich kausal nicht bedingen aber dennoch korreliert erscheinen. Das bekannteste Beispiel ist der »Pauli-Effekt«. Pauli verabscheute die Experimentalphysik, was bisweilen eine verblüffende Wirkung hatte. In seiner Gegenwart gingen viele Versuche schief – ein Albtraum für jeden Experimentator. Selbst im Alltag erzeugte seine bloße Anwesenheit wie in einer selbsterfüllenden Prophezeiung so manches Chaos. Physik und Psychologie werden heutzutage gerne auf obskure Weise vermischt – das Ergebnis ist pure Esoterik. In diesem Buch werden aber die beiden Fachgebiete thematisch klug verbunden ohne dass beim Leser auch nur der leiseste Verdacht einer ideologischen Beeinflussung entsteht. Der Amerikaner Miller, Physiker und emeritierter Professor für Geschichte und Philosophie der Naturwissenschaften

22. Juli 2011

am University College in London, liefert eine umfassende Charakterstudie von Pauli und Jung. Er dringt tief in die vermeintlich so unterschiedlichen Welten der beiden Personen ein. Lebensgeschichte und Werk werden in vielen Facetten dargestellt – das Ergebnis einer gründlichen Recherche. Bisweilen wiederholen sich die Dinge, was aber kaum stört. Der Text ist locker und verständlich geschrieben, besondere Vorkenntnisse sind nicht erforderlich. Es gibt einige Schwearzweißbilder, Diagramme und Formeln. Nur an einer Stelle findet sich ein kleiner Fehler (ob die Psychologie stets korrekt behandelt ist, kann ich nicht beurteilen): Auf Seite 247 steht, dass ei = 1 ist; hier muss es natürlich eipi = -1 heißen. Mit Anmerkungen, Literaturverzeichnis und Personenregister kommt das profunde Werk auf 411 Seiten. Schade ist nur, dass die Seite 137 nicht für etwas Besonderes genutzt wurde, etwa ein Buchstaben-/Zahlenrätsel nach Art der Kabbala. Fazit: Ein lesenswertes Buch mit hohem Anspruch und einem außergewöhnlichen

| 20 |

Thema. Was bedeutet nun die Zahl 137? Das kommt darauf an, wer sich mit ihr beschäftigt. Für gewöhnliche Menschen ist sie eine Zahl wie jede andere. Eingefleischte Zahlenmystiker fürchten vielleicht ihren schlechten Einfluss. Mathematiker fanden derweil heraus, dass alle hinreichend großen Zahlen Summen von höchstens 137 siebten Potenzen sind. Für theoretische Physiker ist die »kosmischen Zahl« eine ständige Herausforderung. Vielleicht errechnen sie ja eines Tages, dass es exakt 137 Universen gibt? Schließlich können Fans von Komikheften zu der Erkenntnis kommen: Es ist die Telefonnummer von Pauli aus der Serie »Fix und Foxi«.<< Dr. Wolfgang Steinicke Der Rezensent ist Physiker und Mitglied der Vereinigung der Sternfreunde e.V., deren Fachgruppe »Geschichte« er leitet. Er ist außerdem Herausgeber des »Praxishandbuch Deep-Sky«.


test