top of page

Suchergebnisse

104 Ergebnisse gefunden mit einer leeren Suche

  • Aggression und Altruismus: Überlebensstrategien im Tierreich

    Fortsetzung von „Ökologie für Anfänger: Im Dschungel der Wechselwirkungen   Auf den Hund gekommen Iwan Pawlows  Interesse galt eigentlich dem Verdauungsprozess – seine Erkenntnisse auf diesem Gebiet brachten ihm 1904 immerhin den Nobelpreis  ein. Einer der zahlreichen Versuche, die er in diesem Zusammenhang unternahm, sollte die Neugier des russischen Arztes allerdings von nun an in eine ganz andere Richtung lenken. Es war eines jener Experimente, die Wissenschaftsgeschichte geschrieben und Einzug in unser kollektives Bewusstsei n gehalten haben: die Entdeckung des Pawlowschen Reflexes . Der Speichelfluss, der bei den Versuchshunden einsetzte, sobald Futter zu riechen war, hatte Pawlow ins Grübeln gebracht. Er ersann eine Versuchsanordnung, bei der der Fütterung stets das Klingeln einer Glocke vorausging. Nach einer Weile zeigte sich, dass der Glockenton den Speichelfluss auch dann anregte, wenn es hinterher kein Futter gab. Es handelte sich also um einen Reflex, der nicht angeboren, sondern erlernt war. Iwan Pawlow Pawlow bezeichnete diese assoziativ erworbene Verhaltensänderung als Konditionierung . Vor Pawlow hatte sich niemand aus wissenschaftlicher Sicht für das Verhalten von Tieren interessiert. Seine Hundeexperimente begründeten eine neue biologische Disziplin. Schon bald sollten sich die Verhaltensforscher in zwei verfeindete Lager spalten. Die amerikanische Schule des „ Behaviorismus “, begründet durch die Psychologen Edward Lee Thorndike, John Broadus Watson und Burrhus Frederic Skinner , beriefen sich dabei direkt auf Pawlows Erkenntnisse. Nach ihrer Überzeugung ließ sich Verhalten stets auf ein rein durch äußere Faktoren gesteuertes mechanistisches Reiz-Reaktions-Schema zurückführen. Verhalten war gewissermaßen das Ergebnis einer mathematischen Funktion: Kannte man die Umweltstimuli und ihre Verarbeitungsregeln, kannte man auch die zu erwartende Reaktion. Dieser Sichtweise standen die Ethologen gegenüber, die Vertreter der europäischen Schule der klassischen vergleichenden Verhaltensforschung, deren Pioniere, Oskar Heinroth , Konrad Lorenz ,  Nikolaas Tinbergen und Irenäus Eibl-Eibesfeldt , allesamt Zoologen  waren. Umweltreize spielten für sie eine untergeordnete Rolle. Verhalten war in erster Linie eine Folge vererbter „ Instinkte “. Heute wissen wir, dass tierisches Verhalten nur selten solch einfachen Erklärungsmustern folgt. Dennoch haben die beiden historischen Schulen wichtige Grundlagenforschung geleistet und in zahllosen Studien und Feldversuchen einen umfassenden Katalog von Verhaltensmustern erstellt. Betrachten wir kurz ihre wichtigsten Erkenntnisse. [i]     Einfache Verhaltensprogramme Reflexe  sind fest verdrahtete, vollautomatische Programme, sozusagen ein mit Geburt ausgeliefertes kleines Betriebssystem, das sich nicht abschalten lässt. Dazu gehören etwa Speichelfluss- und Lidschlussreflex , das spontane Klammern Neugeborener oder die Schreckreaktion, bei der wir unsere Muskeln unwillkürlich anspannen. Reflexe sind nötig, weil die Welt ein gefährlicher Ort ist. Sie dienen der Gefahrenabwehr und müssen daher vor allem schnell sein. Wenn wir uns etwa die Hand verbrennen, kommt die Reaktion nicht aus dem Gehirn, sondern direkt aus dem Rückenmark – die Reizleitung spart so wertvolle Sekundenbruchteile.   Verhaltensform Ursprung Beispiel Ererbte Reflexe Passiv-angeboren Lidschlussreflex Konditionierte Reflexe Passiv-erlernt Pawlowscher Hund Prägung Passiv-erlernt Gänseküken Gewöhnung Passiv-erlernt Jagdhunde Nachahmung Passiv-erlernt Frühkindliche Imitation Kognitives Lernen Aktiv-erlernt Planvoller Einsatz von Hilfsmitteln Grundlegende Verhaltensformen   Eine der wichtigsten evolutionären Strategien, um Umweltgefahren zu begegnen ist das Gedächtnis ; es ist die grundlegende Voraussetzung für das Lernen . Während ererbte Reflexe genetisch fixiertes Wissen darstellen, das durch einen quälend langsamen, zufälligen Prozess im Laufe von Jahrmillionen als nützlich selektiert wurde, vollzieht sich neuronales Lernen innerhalb von Stunden, Minuten und Sekunden. Diese Fähigkeit ist keineswegs nur „höheren“ Tieren vorbehalten: Weil sie sich erinnern kann, wird auch eine gemeine Gartenschnecke eine Pflanze, die ihr einmal schlecht bekommen ist, kein zweites Mal verspeisen. Die klassische Verhaltensforschung beschreibt mit Prägung, Gewöhnung und Nachahmung eine Reihe einfacher Lernprozesse, die allesamt auf groben Heuristiken basieren. Die Prägung  wurde in den 1930er Jahren erstmals von Konrad Lorenz anhand von Graugänsen charakterisiert: Während eines kurzen Zeitfensters identifizieren die frisch geschlüpften Küken jedes in der Nähe befindliche, sich bewegende Objekt als ihre Mutter und folgen ihm von nun an bedingungslos nach – auch wenn es sich dabei um einen Verhaltensforscher oder einen Fußball handelt. Die Gewöhnung  soll sicherstellen, dass das knappe Gut Aufmerksamkeit nicht wahllos verschenkt, sondern nur wirklich wichtigen Dingen gewidmet wird. Deshalb nehmen wir die Kleidung, die wir auf der Haut tragen, nicht bewusst wahr und deshalb erschrecken erfahrene Jagdhunde nicht mehr bei jedem Schuss. Die Nervenbahnen werden entlastet, da die Wahrnehmung sich häufig wiederholender (und damit tendenziell ungefährlicher) Reize unterdrückt wird. Nachahmung  schließlich basiert auf der Heuristik, dass es für junge Tiere meist sinnvoll ist, das Verhalten älterer Verwandter zu imitieren – immerhin haben diese mit ihren Verhaltensweisen ja bisher überlebt. Werden Imitationsmuster dauerhaft von einer Generation auf die nächste übertragen, sprechen Verhaltensforscher von einer „ Tradition “. [ii]   Reflexe, Prägung, Gewöhnung und Imitation sind allesamt sehr einfache Verhaltensprogramme, denen nur bruchstückhafte Informationen und einfache Kriterien zugrunde liegen. In der Evolution  haben sich diese Programme grundsätzlich bewährt; doch sie können Verhalten auch in die falsche Richtung lenken, etwa, wenn Gänseküken einem Fußball nachlaufen oder wenn uns ein gebogenes Stück Holz auf dem Waldboden zusammenzucken lässt, weil es auf den ersten Blick einer Schlange ähnelt. Evolutionäre Verhaltens-Heuristiken verfahren nach dem Motto: lieber hundertmal falsch als einmal zu spät.   Der erstaunliche Sultan Tiere können aber auch noch nach einem ganz anderen Prinzip zu lernen. Diese Entdeckung machte der Psychologe und Primatenforscher Wolfgang Köhler  während des Ersten Weltkriegs auf Teneriffa. Als Leiter einer von der preußischen Akademie der Wissenschaften unterhaltenen Affenstation beobachtete Köhler, wie eines seiner Versuchstiere, ein besonders aufgeweckter Schimpanse namens Sultan, Kisten aufeinanderstapelte und sich so Zugang zu ansonsten unerreichbarem Futter verschaffte. In einem zweiten Versuch standen ihm dann nur Rohrstücke mit verschiedenen Durchmessern zur Verfügung. Der Schimpanse schob sie nach kurzem Überlegen ineinander und konnte sich so das Futter angeln. Sultan hatte gezeigt, dass er fähig war das von ihm entdeckte Prinzip auch auf andere Werkzeuge zu übertragen. In seiner 1917 veröffentlichten Arbeit „Intelligenzprüfung an Anthropoiden“ beschrieb Köhler erstmals die Fähigkeit von Menschenaffen , Informationen umzugestalten, Ursache-Wirkungsketten zu erkennen und durch abstraktes Denken auf einen ähnlichen Sachverhalt zu transferieren. Dass auch Tiere hierzu in der Lage sind, war eine Sensation – ein weiteres vermeintliches Alleinstellungsmerkmal des Menschen war demontiert. Wolfgang Köhler Seine Entdeckung machte Köhler zum Mitbegründer des Kognitivismus. Der evolutionäre Vorteil des kognitiven Lernens ist offensichtlich: Einsichten müssen nicht – wie bei der Gartenschnecke – durch Versuch und Irrtum erworben werden, vielmehr lassen sich die mit Fehlgriffen verbundenen Risiken und Umwege von vornherein vermeiden. Neben Menschen und Menschenaffen sind unter anderem auch Raben und Delfine zu solch kognitiven Lernprozessen befähigt . Nachdem der Schwerpunkt der Verhaltensbiologie in der ersten Hälfte des 20. Jahrhunderts auf der Beschreibung lag, rückte in der zweiten Hälfte zusehends eine andere Frage in den Mittelpunkt der Forscher: Welche Strategien verfolgen Tiere eigentlich mit ihrem Verhalten, welche Muster sind aus Sicht der Evolution „rational“? Diese neue Perspektive führte zur Entstehung der beiden jüngsten Zweige der Evolutionsbiologie: Soziobiologie und Verhaltensökologie. Aggression als Strategie Die Soziobiologie , die der amerikanische Ameisenforscher Edward O. Wilson  (einer der Verfechter der These vom „ egoistischen Gen “) in den 1970er Jahren begründet hatte, widmet ihre Aufmerksamkeit speziell dem Sozialverhalten von Gruppen. In der Tat ergeben sich die komplexesten Situationen nicht aus der Koexistenz verschiedener Spezies, sondern aus dem Zusammenleben von Artgenossen. Evolutionär gesehen bietet eine soziale Organisation viele Vorteile. Kollektives Jagen, gemeinsame Aufzucht der Jungen, gegenseitiger Schutz oder arbeitsteilige Bewachung des Territoriums erhöhen die evolutionäre Fitness der Gemeinschaft – Strategien, die Einzelgängern nicht offenstehen. Paare, Gruppen, Schwärme, Kolonien, Rotten, Meuten, Rudel oder Herden erzeugen aber auch vielschichtige Interessenskonflikte. Sie benötigen daher Regeln, die über Rollenzuweisungen und soziale Hierarchien den Zugang zu Nahrung und Sexualpartnern festlegen – mit der Erfindung von Gesellschaften wurde das Leben erst so richtig schwierig.   In der Tat erscheint der Umgang, den Artgenossen miteinander pflegen, oftmals aggressiv, hinterhältig und grausam – etwa, wenn Vogeleltern schwache Küken aus dem Nest werfen oder Gottesanbeterinnen ihre Partner verspeisen. Doch Tiere können nicht mit Adjektiven aus dem Kanon menschlicher Moral vorstellungen etikettiert werden. Ihr „Handeln“ ist weder gut noch schlecht; es „ist“ einfach nur. Tierische Aggression lässt sich daher nur aus der Perspektive beurteilen, ob sie hilfreich ist, Interessenkonflikte, um knappe Ressourcen oder Fortpflanzungspartner sinnvoll zu regeln. Sieht sich ein Tier mit Aggression  durch Artgenossen konfrontiert, bestehen seine beiden grundsätzlichen Handlungsoptionen darin, sich kämpferisch oder nachgebend zu verhalten. Um die jeweils beste Strategie zu klären, führte Wilsons englischer Kollege John Maynard Smith  das spieltheoretische Konzept der „ evolutionär stabilen Strategie “ ein. (Auf die Spieltheorie  wir hier  näher eingegangen.) Im Kern besagt diese Konzept, „dass die beste Strategie für ein Individuum davon abhängt, was die Mehrheit der Bevölkerung tut.“ [iii]  Eine Strategie ist dann stabil, wenn sie vom größten Teil der Gruppe praktiziert wird und sich kein Individuum durch alternatives Handeln besserstellen kann. Dieser etwas vertrackte Gedankengang lässt sich anhand unseres kleinen Tümpels  illustrieren, den wir im letzten Biologie-Blog betrachtet haben. Nehmen wir an, dass die Angehörigen einer Froschpopulation untereinander um die Vorherrschaft in dem Biotop wetteifern. Wenn alle Individuen bereit sind, hierfür stets bis zum Tod zu kämpfen, ist dies eine evolutionär stabile Strategie. Es gibt allerdings nur eine Handlungsoption: Kampf. Sie beinhaltet die Chance auf Sieg und damit die Möglichkeit, die eigenen Gene weitergeben zu können. Wer verliert, wird getötet; wer aufgibt auch. Die entscheidende Frage ist, ob es einem Individuum gelingen kann, in dieser Gruppe mit einer alternativen Strategie erfolgreich zu sein. Diese Strategie könnte beispielsweise darin bestehen, zunächst zu kämpfen, im Fall einer sich abzeichnenden Niederlage aber den Kampf rechtzeitig zu beenden und zu fliehen. Dies wahrt einerseits die Chance auf den Sieg, im Fall einer Niederlage aber auch die Option, sich weiterhin fortpflanzen zu können. [iv]  In einer Gemeinschaft todesmutiger Frösche können sich daher die Erbanlagen von mutierten Artgenossen, die genetisch bedingt vielleicht mit weniger Testosteron ausgestattet sind, leichter ausbreiten. Umgekehrt haben aggressive Frösche kaum eine Chance, eine Gruppe, die eine flexible Kampfstrategie fährt, genetisch zu unterwandern. Es ist daher wahrscheinlicher, in der Natur die anpassungsfähige Strategievariante anzutreffen. Damit lassen sich auch die verbreiteten „ Hackordnungen “ erklären, die in sozialen Gruppen Hierarchien und Rollenverteilungen festlegen. Die Ordnung ergibt sich aus einer Reihe von „Turnieren“ bei der sich die Gruppenmitglieder vom Alphatier bis hin zum Omegatier nach absteigend dominant-aggressivem Verhalten sortieren. Die Festlegung der Hierarchie erfolgt meist durch Drohgebärden oder ritualisierte Kämpfe mit geringer Verletzungsgefahr, die der Unterlegene mit Unterwerfungsgesten beendet. Aus Sicht der Evolution ist das eine sinnvolle Vorgehensweise: Die physisch stärksten Individuen erhalten die besten Fortpflanzungschancen. Gleichzeitig werden blutige Kämpfe, die die Gesamtfitness der Gruppe schwächen würden, vermieden.   Es geht auch anders So wie es zwischen den Arten außerhalb der Nahrungskette auch kooperatives Verhalten gibt, sind Dominanz und Unterwerfung keineswegs die einzigen Möglichkeiten, das Zusammenleben innerhalb einer Spezies zu organisieren. Gegenseitige Unterstützung  und altruistisches Verhalten können ebenso gut evolutionär stabile Strategien darstellen, mit denen sich statistische Überlebensboni erringen lassen. Besonders häufig sind sie unter Verwandten zu beobachten. Die Selbstlosigkeit ohne Gegenleistung, nimmt dabei mit der Nähe des Verwandtschaftsgrades zu. Mit der Hypothese des „egoistischen Gens“, der zufolge nicht Arten, sondern Gene miteinander ums Überleben kämpfen, lässt sich dieser Edelmut plausibel erklären: Er dient dem Fortbestand ähnlicher Erbanlagen – je enger die familiären Bande, desto mehr gemeinsame Gene teilen die Angehörigen miteinander. Die evolutionäre Kosten-Nutzen-Rechnung des Altruismus  geht aus soziobiologischer Sicht immer dann auf, wenn mehr Gene des Verwandten-Pools überleben, als mit dem Opfertod des altruistischen Angehörigen zugrunde gehen. [v]  Da beispielsweise Bienen mit ihren Schwestern näher verwandt sind als mit den eigenen Töchtern, erscheint es aus dieser Perspektive sinnvoll, auf Nachkommenschaft zu verzichten und die Königin selbstlos zu unterstützen. Dadurch erreichen mehr eigene Gene die nächste Generation. [vi]   Die Strategien der Weibchen Auch Beziehungen zwischen Sexualpartnern lassen sich mit der nüchternen verhaltensökologischen Perspektive erklären. Sexuelle Vermehrung bietet einen großen evolutionären Vorteil, denn wo es Eltern gibt, werden die Gene der Nachfahren durchmischt und die Variabilität dadurch verbessert. Doch diesem Vorteil steht ein gewichtiger Nachteil gegenüber: Sexuelle Fortpflanzung ist auf die Akzeptanz eines andersgeschlechtlichen Partners angewiesen. Arten, die sich sexuell vermehren, haben daher zusätzlich zu den bereits vorhandenen Auslesefaktoren noch einen weiteren Stressor: Nur wer einen Partner gewinnen kann, kann auch seine Gene weitergeben. Die sexuelle Selektion setzt insbesondere die Männchen unter Zugzwang, denn bei den meisten Arten entscheiden die Weibchen, welchen Partner sie akzeptieren. Das hat seinen Grund. Männchen sind oftmals bereit, sich wahllos fortzupflanzen; ihr Keimzellenangebot ist praktisch unbegrenzt. Anders die Weibchen. Sie gehen in fast allen Fällen das größere „Investitionsrisiko“ ein, denn die Anzahl der Nachkommen, die sie gebären können, ist beschränkt. Beruht das Paarungsverhalten der Art auf Polygamie  oder Promiskuität , dürfen sie zudem von den Männchen nicht allzu viel Unterstützung bei der Aufzucht erwarten. Weibchen haben somit das Problem, aus einem großen Angebot männlicher Anwärter den passendsten herausfinden zu müssen. In jenen Fällen, bei denen das Weibchen vom Partner außer Spermien nicht allzu viel erwarten darf, können sich die Auswahlkriterien nur an Äußerlichkeiten orientieren. Das wiederum zwingt die Männchen auf dem Paarungsmarkt ein Marketing in eigener Sache zu betreiben, das die Weibchen beim Bewerber „tüchtige Gene“ vermuten lässt. Die potentiellen Väter versuchen durch Körpergröße, ein auffälliges Fell oder Federkleid oder eine dominante Stellung in der Gruppenhierarchie ihre „Fitness“ zu demonstrieren. Da Männchen, die mutationsbedingt zufällig über derartige Attribute verfügen, von den Weibchen als Fortpflanzungspartner bevorzugt werden, entwickelte sich im Laufe der Evolution bei vielen Arten das Erscheinungsbild der beiden Geschlechter zunehmend auseinander. Das Ergebnis waren stolze Hähne, prahlerische Pfauen und imposante Gorillamännchen. Dieser Sexualdimorphismus funktioniert nach dem Prinzip: Wer auffällt, gewinnt! Die Männchen zahlen für diese Strategie oftmals einen hohen Preis, denn ihr Aussehen erregt nicht nur die Aufmerksamkeit des weiblichen Geschlechts, sondern auch die zahlreicher Fressfeinde. Die Weibchen hingegen bleiben unscheinbar – da das männliche Angebot die weibliche Nachfrage übersteigt, müssen die Weibchen sich bei der Partnerwahl nicht selbst in Szene setzen. Mandarinenten sind eines von vielen Beispielen für Arten mit einem deutlichen Sexualdimorphismus Ganz anders sieht es bei Arten aus, die gemeinsam Brutpflege betreiben. Bei ihnen gleichen sich die beiden Geschlechter in ihrem äußeren Erscheinungsbild. Durch die gemeinsame Aufgabe entsteht eine Bindung, die einen Dimorphismus überflüssig macht. Meist hält diese Bindung nur für die Dauer einer Fortpflanzungsperiode. In einigen wenigen Fällen aber, wie bei Höckerschwänen, Wölfen, Bibern und Walen, bedeutet sie eine lebenslange monogame Partnerschaft. Das äußere Erscheinungsbild der meisten Wirbeltierarten erlaubt also recht zuverlässige Schlüsse auf ihr Sexual- und Beziehungsverhalten.   Bei Wölfen sind Weibchen und Männchen kaum zu unterscheiden Evolutionäres Erbe Kuckuckskinder, Zweckgemeinschaften, Altruismus, Imponiergehabe, Drohgebärden, promiske oder monogame Partnerschaften: Aus Sicht der Verhaltensökologen und Soziobiologen verbergen sich hinter all diesen Strategien evolutionäre Kosten-Nutzen-Rechnungen, für die sich Überlebensboni kalkulieren lassen und deren Gewinne in Form der Anzahl überlebender Junger ausgezahlt werden. [vii]  Die Sprache, mit der Soziobiologen tierisches Verhalten beschreiben, könnte auch aus einen wirtschaftswissenschaftlichen Lehrbuch stammen. Viele dieser Strategien kommen uns merkwürdig bekannt vor – wir finden sie auch in praktisch jeder menschlichen Gesellschaft. Das ist nicht weiter verwunderlich, schließlich sind auch wir Produkte des Evolutionsprozesses. Viele unserer ererbten Verhaltensprogramme sind Millionen Jahre alt; sie wurden weitergegeben, weil sie sich bewährt haben. Die Soziobiologie erscheint somit auch als hilfreicher Ansatz zur Erklärung menschlichen Verhaltens. Allerdings ist sie keine hinreichende Erklärung. Denn als einzige Spezies auf unserem Planeten verfügen wir über ein entwickeltes Bewusstsein . Das bedeutet im Kern, dass wir – anders als Tiere – uns bewusst für oder gegen etwas entscheiden können. Mit naturwissenschaftlichem Determinismus allein ist menschlichem Verhalten also nicht beizukommen. Der zweite Teil des Buches wird sich daher ausschließlich mit den Regeln befassen, nach denen Menschen kommunizieren, handeln und entscheiden. Menschliches Verhalten ist ein Spannungsfeld, das größer kaum sein könnte: Hunderte von Millionen Jahre alte Gene liegen im Wettstreit mit evolutionär gesehen sehr jungen neuronalen Strukturen, die uns Geist einhauchen und Sprache und Kultur bescheren. Wie frei können wir angesichts des schweren evolutionären Marschgepäcks in unseren Entscheidungen überhaupt sein? Und sofern wir diese Freiheiten tatsächlich haben: Wie sollen wir mit ihnen umgehen?   Mit diesem Beitrag endet die Artikelserie zum Themengebiet Biologie Hier geht es zur weiterführenden Artikelserie „Bewusstsein“   Den Blog entdecken   Wer mehr wissen will: Dawkins, Richard (1996): „Das egoistische Gen“, Rowohlt. Gigerenzer, Gerd (2013): „Risiko“, C. Bertelsmann.   Bildnachweise: Sexualdimorphismus beim Hirschkäfer Sexualdimorphismus bei Mandarinenten Wolfspaar   [i] Der Begriff „Instinkt“, der in Lorenz‘ und Tinbergens Theorie eine zentrale Rolle spielt, fehlt in der folgenden Liste. Instinkt wurde in der Biologie nie eindeutig definiert, so dass er heute in wissenschaftlichem Zusammenhang meistens vermieden wird. [ii]  Die theoretische Zuordnung bestimmter Verhaltensweisen ist oftmals umstritten. So gibt es beispielsweise unterschiedliche Auffassungen, ob die Angst vor Spinnen und Schlangen ein angeborener Reflex ist, oder durch Imitation der Schreckreaktion der Eltern tradiert wird. (Vgl. Max-Planck-Gesellschaft (2017) und Gigerenzer (2013) S. 108 ff.) [iii]  Dawkins (1996) S.119. [iv] Der englische Dichter Samuel Butler (1612-1680) formulierte es einmal so: „Wer flieht, kann später wohl noch siegen, ein toter Mann bleibt ewig liegen.“ [v] Mit seinem Bruder teilt man nach den Gesetzen der meiotischen Teilung durchschnittlich die Hälfte, mit seinem Cousin ein Achtel seiner Gene. Der Evolutionsbiologe J.B.S Haldane antwortete daher einmal auf die Frage, ob er sein Leben geben würde, um seinen ertrinkenden Bruder zu retten: “Nein, aber ich würde es tun, um zwei Brüder oder acht Cousins zu retten”. Zitiert nach McElreath / Boyd (2007) S.82. [vi] Da Bienen-Männchen nicht sexuell gezeugt werden, tragen sie nur einen einfachen Chromosomensatz. Da er diesen bei der eigenen sexuellen Vermehrung vollständig an jedes Kind weitergibt, ist der Bienenvater mit seinen Töchtern zu 75% verwandt, die Mutter hingegen nur zu 25%. [vii] Vgl. Dawkins (1996) S. 329.

  • Die Jagd nach der Weltformel

    Fortsetzung von „Anatomie der Atome Teil 2: Von Helgoland nach Hiroshima“   Weltformel Einstein  und die Quantenphysiker hatten sich an die äußersten Ränder vorgewagt und mit zwei neuen Theorien alte Gewissheiten erschüttert. Newtons  Weltbild war nur im Bereich der menschlich-irdischen Maßstäbe hinreichend genau. Auf die Streckbank der Extreme gespannt aber zeigte sich, dass die mechanische Theorie im Kern falsch war. Zudem war offenbar geworden, dass die Welt in alle Richtungen begrenzt ist: Nichts im Universum kann schneller sein als das Licht ; keine Temperatur kann unter den absoluten Nullpunkt fallen; keine Wirkung die eines Quants unterschreiten. Naturgesetze sind nur innerhalb dieser Schranken gültig. Was sich jenseits davon befindet, bleibt den Möglichkeiten unserer Erkenntnis auf ewig verborgen. Wie sieht sie aus, die Weltformel? Einsteins Gleichung ist sicher nur eine Teil von ihr In das Kräftechaos, das innerhalb dieser Grenzen tobte, hatte man immerhin Ordnung gebracht. Sonnenschein, Auftrieb, Fliehkraft, Planetenbewegung , fallende Äpfel, Reibung, Blitze, Magnetismus, Radioaktivität, chemische Reaktionen , Schallwellen oder Muskelzucken sind Ausdrucksformen von lediglich vier Grundkräften . Die Natur hatte sie in einem stabilen System, dem Atom, vereint und jede von ihnen mit einem eigenen Charakter ausgestattet. Naturgesetze  sind nichts weiter als mathematisch exakt beschreibbare Wechselspiele aus Energie und Materie, die dafür sorgen, dass die Welt so ist, wie sie ist. Zwei dieser Kräfte, Elektromagnetismus und Schwerkraft , sind für uns im Alltag erfahrbar; starke und schwache Kernkraft hingegen entfalten ihre alchemistischen Wirkungen allein im Verborgenen.   Vier Grundkräfte regieren die Welt Zusammen beschrieben Relativitätstheorie und Quantenphysik   wesentliche Teile der Welt. Spaltung und Fusion von Atomkernen hatten zudem gezeigt, dass die beiden großen modernen Theorien der Physik irgendwie miteinander verbunden sind. Was fehlte, war eine übergeordnete Theorie, die alle Aussagen Einsteins und der Quantenphysiker widerspruchslos miteinander vereinte.   Gravitation ·       Unbegrenzte Reichweite, nicht abschirmbar ·       Wird im Quadrat des Abstands schwächer ·       Relative Stärke: 10 -38 ·       Bosonen: Gravitonen? Elektromagnetismus ·       Unbegrenzte Reichweite, abschirmbar ·       Wird im Quadrat des Abstands schwächer ·       Relative Stärke: 10 -2 ·       Bosonen: Photonen Starke   Kernkraft ·       Reichweite kürzer als Atomkerndurchmesser ·       Nimmt mit dem Abstand zu ·       Relative Stärke: 1 ·       Bosonen: Gluonen Schwache   Kernkraft ·       Reichweite kürzer als Atomkerndurchmesser ·       Kann Teilchen verwandeln ·       Relative Stärke: 10 -13 ·       Bosonen: W und Z-Bosonen Die vier Grundkräfte der Natur. Die relative Stärke besagt, dass die starke Kernkraft 100.000.000.000.000.000.000.000.000.000.000.000.000-mal stärker ist als die Gravitation     Big Bang – Die Kirche ist von Anfang an dabei Mitte der 1920er Jahre hatte der amerikanische Astronom Edwin Hubble  entdeckt, dass das Universum nicht nur aus der Milchstraße, sondern aus unzähligen weiteren Galaxien  besteht, die sich alle mit rasender Geschwindigkeit voneinander entfernen. Die Welt war nicht, wie alle bisher geglaubt hatten, statisch, sie strebte vielmehr mit Macht auseinander. Ein katholischer Priester aus Belgien, Georges Lemaître , zog 1927 als Erster daraus einen logischen Schluss: Wenn das Universum regelrecht in alle Richtungen explodiert, kann man auf dem Zeitpfeil zurückgehen bis zu Anfang und Ausgangspunkt der Fluchtbewegung. Eine weitere Erkenntnisgrenze war deutlich geworden: Die Welt und ihre Gesetze waren erst in jenem ursprünglichen Augenblick entstanden. Was vor diesem Anfang war, bleibt für uns unerforschlich. Einstein und Lemaître im California Institute of Technology 1933 Die Urknalltheorie  blieb zunächst umstritten. 1946 prognostizierten amerikanische Kosmologen, dass, sofern es den Urknall tatsächlich gegeben haben sollte, sich sein „Echo“ in Form einer kosmischen Hintergrundstrahlung aus Mikrowellen finden lassen müsse. Die katholische Kirche , die in der Vergangenheit neuen naturwissenschaftlichen Theorien zunächst oft skeptisch gegenübergestanden hatte, erkannte die Urknalltheorie bereits 1951 an, einem Zeitpunkt, zu dem die meisten Physiker noch nicht überzeugt waren. Aus Sicht der Religion  ließ sich der Big Bang als singulärer, göttlicher Schöpfungsakt deuten. Der Durchbruch kam 1964, als zwei amerikanische Radiophysiker der Bell Laboratories beim Ausrichten ihrer neuen Antenne ein permanentes Störgeräusch auffingen, das sie zunächst mit Taubendreck auf ihrem Empfänger in Verbindung brachten. Bald aber stellte sich heraus, dass es sich hierbei um eben jenes vorhergesagte „Echo“ des fernen Urknalls handelte. Damit war die Big-Bang Theorie nun auch in wissenschaftlichen Kreisen etabliert: Die Geschichte des Universums war die einer sich stetig ausdehnenden Raumzeit , in der die Grundkräfte nach und nach in immer komplexere Wechselwirkungen miteinander traten.   Schwingende Quarks Ebenfalls Mitte der 1960er Jahre zeichnete sich ab, dass man am anderen Ende des Betrachtungsspektrums immer noch nicht auf der untersten Ebene angekommen war. Für die unscharfen, schwingenden Strukturen, die sich zu Protonen und Neutronen  kristallisieren, prägte der amerikanische Physiker Murray Gell-Mann  den Begriff „ Quarks “, ein Wort, das er einem Roman von James Joyce  entlehnt hatte. Wenige Jahre zuvor hatte man begonnen, Teilchenbeschleuniger zu bauen, gigantische Crashtestanlagen, die der Materie ihre letzten Geheimnisse entreißen sollten. In ihnen beschleunigen elektromagnetische Felder massebehaftete Partikel auf nahezu Lichtgeschwindigkeit . Damit wurde es möglich, die von Einstein beschriebene Umwandlung von Bewegungsenergie in Materie direkt zu beobachten. Die erzwungenen Zusammenstöße von Elementarteilchen führten zur Entdeckung eines ganzen „Zoos“ von neuen Partikeln, wie Myonen , Tauonen , Neutrinos und verschiedenen Quark-Typen. Die Kollisionssplitter, die nur für unvorstellbar kurze Zeitspannen von 10 -24 bis 10 -7  Sekunden existieren, helfen Ursprung und Aufbau der Materie besser zu verstehen. Jedem dieser Teilchen musste Sekundenbruchteile nach dem Urknall eine ganz bestimmte Rolle zugekommen sein. Um 1970 hatte man ein Modell entwickelt, das beschrieb, wie Quarks Nukleonen entstehen lassen. Protonen und Neutronen waren der Zusammenschluss dreier verschiedener Quarks, mit jeweils unterschiedlichen Ladungen, die man nach einer Analogie aus der Farbenlehre als blaue, grüne und rote Farbladungen bezeichnete. Zusammen sind die drei Ladungen nach außen hin neutral, so wie die drei uns bekannten Farben zusammen das neutrale „Weiß“ ergeben. Eine weitere, dem Drehimpuls ähnliche Eigenschaft der Quarks ist der Spin, dessen Drehrichtung bestimmt, ob es sich um Up-Quarks oder Down-Quarks handelt. Wirken zwei Up-Quarks und ein Down-Quark zusammen, entsteht ein Proton. Sind im Dreierbund zwei Down-Quarks und ein Up-Quark vereint, bilden sie ein Neutron. Die bei Zerfalls- und Fusionsprozessen auftretende Wandlung von Neutronen in Protonen wird durch die schwache Kernkraft bewirkt, die einen Down-Quark in einen Up-Quark verwandelt.            Quarkstruktur von Protonen (links) und Neutronen (rechts) Das Standardmodell erklärt vieles – aber nicht alles Kurz darauf gelang der experimentelle Nachweis, dass schwache Kernkraft und Elektrizität bei extrem hohen Energien durch eine elektroschwache Wechselwirkung miteinander vereint sind. Das deutete auf einen gemeinsamen Ursprung der beiden Kräfte hin – ein erster Schritt zur Rekonstruktion jener rätselhaften hypothetischen Urkraft, die die Geburt des Universums eingeleitet haben musste. 1974 entdeckte man, dass bei noch extremeren Temperaturen auch die starke Wechselwirkung nicht mehr von der elektroschwachen zu unterscheiden war. Die drei Grundkräfte hatten einen gemeinsamen Ursprung. Die Genesis hatte in ihren ersten Augenblicken eine Welt hervorgebracht, die anderen, einfacheren Gesetzen gehorcht haben musste. Unser heutiges Physikverständnis beruht auf dem so genannten „ Standardmodell der Teilchenphysik “. Es ist das umfassendste Bild, das wir von den grundlegenden Zusammenhängen des Universums haben. Basierend auf den experimentell erworbenen Erkenntnissen der 1970er Jahre, beschreibt diese Theorie, wie starke, schwache und elektromagnetische Quantenkräfte zwischen den Elementarteilchen wechselwirken, ohne dabei Aussagen der speziellen Relativitätstheorie zu verletzen. [i] Demnach besteht die Welt aus den beiden großen Teilchenfamilien der Fermionen und Bosonen , benannt nach Enrico Fermi  und dem indischen Physiker Satyendranath Bose .   Die wichtigsten Spezies des Teilchenzoos Fermionen sind die Bausteine der Materie. Sie umfassen die Up- und Down-Quarks, die Protonen und Neutronen bilden, sowie die Leptonen, extrem massearme Teilchen, deren bekanntester Vertreter das Elektron ist. Leptonen stellen deshalb eine eigene Fermionen-Kategorie dar, weil sie sich der Wirkung der starken Kernkraft entziehen, während Quarks der Wirkung aller vier Grundkräfte unterliegen. Bosonen sind die Überträger von Kräften und Massen. Die masselosen Eichbosonen umfassen jene Teilchen, die der Materie die vier Grundkräfte vermitteln. Dazu gehören die Photonen, die die elektromagnetische Kraft zwischen Elektronen und Protonen übertragen, die Gluonen, die die Quarks zusammenschweißen, sowie die W- und Z-Bosonen, als Vermittler der schwachen Kernkraft. Die Vermutung liegt nahe, dass es auch ein Boson für die Schwerkraft geben muss, das Graviton. Doch bis heute bleibt der Schwerkraftvermittler hypothetisch – kein Teilchenbeschleuniger konnte seiner bisher habhaft werden.   Die Entwicklungsgeschichte der Physik Bereits 1964 formulierte der britische Physiker Peter Higgs  die Hypothese, dass es neben den Eichbosonen auch ein Boson geben müsse, das die Masse vermittelt. Auch dieses Teilchen entzog sich jahrzehntelang allen Zugriffsversuchen. 2012 gelang es schließlich der in der Schweiz beheimateten europäischen Kernforschungsorganisation CERN, das Higgs-Boson nachzuweisen. Simulation des hypothetischen Zerfalls eines Higgs-Teilchens Dies war der bis heute letzte große Erfolg des Standardmodells. Sein entscheidender Makel bleibt, dass die Gravitation , jene Grundkraft, die Raum und Zeit verbiegt und den Kosmos strukturiert, in ihm keinen Platz findet. Wir wissen nicht, wie Raumzeit  und Schwerkraft in das Gesamtsystem der Physik eingebunden sind. Seit einem halben Jahrhundert suchen tausende Physiker auf der ganzen Welt nach einer Quantentheorie der Gravitation . Gelänge es, das Standardmodell um die vierte Grundkraft zu erweitern, hielte man die „Weltformel“ in der Hand, eine einheitliche mathematische Beschreibung von Materie und sämtlichen Kräften, die die Erkenntnisse der Elementarteilchenphysik mit denen der allgemeinen Relativitätstheorie widerspruchsfrei vereinen würde. Es gibt noch viele Rätsel Diese umfassende Theorie müsste in der Lage sein, aus der Dynamik subatomarer Teilchen heraus alle bekannten kosmologischen Phänomene erklären zu können. Eines dieser Phänomene ist der merkwürdige Umstand, dass es eigentlich sehr viel mehr Materie im Universum geben müsste, als wir beobachten können. Die für uns sichtbaren Sterne umkreisen das Zentrum ihrer Galaxien schneller, als wir aufgrund der uns bekannten Gravitationsträger erwarten würden. Etwa 85% aller Materie, die es demnach im Universum geben müsste, interagiert offenbar nicht mit elektromagnetischen Wellen, das heißt, sie ist unsichtbar und wird daher als „Dunkle Materie“ bezeichnet. Wir haben heute weder eine Vorstellung, ob es diese riesigen Stoffmengen überhaupt gibt, noch wie sie sich aufspüren ließen. Genauso wenig können wir das Wesen der Naturkonstanten erklären. Warum sind Lichtgeschwindigkeit, Gravitationskonstante oder das Plancksche Wirkungsquantum  jeweils so und nicht anders definiert? Warum sind sie unveränderlich und warum lassen sie sich durch keine Berechnung herleiten? Wieso haben wir den Eindruck, dass diese Konstanten auf eine ganz besondere Weise aufeinander abgestimmt zu sein scheinen? Würde etwa die Gravitationskonstante von 6,67430…  10 -11  auch nur in der sechszigsten Nachkommastelle nach oben oder unten abweichen, wäre das Universum eine Sekunde nach dem Urknall entweder so rasch expandiert, dass sich keine Sterne hätten bilden können, oder so langsam, dass es wieder in sich zusammengefallen wäre. Ähnliche Feinabstimmungen zeigen sich auch bei anderen Konstanten. Sie ermöglichen die lange Brenndauer von Sternen oder die Synthese von Kohlenstoff , beides zwingende Voraussetzung für die Entstehung von Leben. Liegt dem Kosmos also ein vor dem Schöpfungsakt festgelegtes geniales Design zugrunde? Diese Frage ist natürlich umstritten. Ein reiner Zufall wäre möglich, ist aber extrem unwahrscheinlich. Denkbar wäre, dass ein Universum auch mit anders abgestimmten Naturkonstanten  existieren könnte und vielleicht ebenfalls Leben hervorgebracht hätte, vielleicht auf der Basis von Silizium. Ein weiterer Erklärungsansatz, das anthropische Prinzip, nimmt eine ganz andere Perspektive ein: Demnach spielen die scheinbaren statistischen Abhängigkeiten letztlich keine Rolle; wäre die Konstellation eine andere gewesen, gäbe es schlichtweg niemanden, der über das Weltall und das Leben nachdenken könnte. Und auch eine planvolle göttliche Schöpfung  bleibt nach wie vor eine mögliche Option. Wäre eine Weltformel, die die rätselhafte Feinabstimmung der Naturgesetze  und alle weiteren kosmologischen Rätsel erklären würde, auch für Laien verständlich? Wahrscheinlich nicht. Unsere Vorstellungskraft könnte ihre Aussagen wohl kaum nachvollziehen, eine Beschreibung wäre allein durch abstrakte, komplizierte Mathematik möglich. Die moderne Physik ist weit entfernt von der Ästhetik, der Einfachheit und der Poesie der Newtonschen Bewegungsgesetze oder der Planckschen und Einsteinschen Energieformeln. Dennoch ist die Geschichte der Physik eine überaus erfolgreiche. Neugierige Menschen haben den wilden Strauch bizarrer Naturphänomene auf vier grundlegende Triebe zurückgeschnitten. Die Wechselwirkungen zwischen Energie und Materie, die diese vier Grundkräfte beschreiben, bedingen letztlich auch die Möglichkeit, dass Atome über den Sinn von Atomen nachdenken können. Doch hier endet die Zuständigkeit der Physik. Naturgesetze können nur darstellen, „wie“ etwas ist. „Warum“ Energie und Materie existieren und wer oder was die Spielregeln für ihre Wechselwirkungen so festgelegt hat, dass daraus ein Bewusstsein entstehen konnte, sind Fragen an Religion und Philosophie .   Der Weg, der von toter Materie zu fragendem Bewusstsein führte, war lang. Die Atome  mussten sich dazu auf eine außerordentlich komplexe Art und Weise miteinander verbinden. Grundlage dieser Verbindungen ist die elektromagnetische Kraft. Die spezielle Physik, die sich mit den Spielregeln der Aggregation der stofflichen Welt befasst, bezeichnen wir als Chemie .              Mit diesem Beitrag endet die Artikelserie zum Themenbereich Physik   Den Blog entdecken   Wer mehr wissen will: Spektrum der Wissenschaft (03 / 2024): Spektrum Kompakt: Die Suche nach der Weltformel   Bildnachweise: Luftbild des CERN Higgs-Teilchen-Simulation Anmerkungen: [i] Die drei dem Standardmodell zugrundeliegenden Quantenfeldtheorien sind: die Quantenelektrodynamik, die den Elektromagnetismus beschreibt; die schwache Wechselwirkung, die die schwache Kernkraft, sowie die Quantenchromdynamik, die die starke Kernkraft erklärt.

  • Der verlässliche Zufall: die Entdeckungsgeschichte der Statistik

    Fortsetzung von "Newton und Leibniz reisen in die Unendlichkeit" Antike Zufälle Bis in die Antike   hinein war alles, was geschah der Wille von Dämonen, Geistern oder Göttern – einen Zufall   gab es nicht. Die Zukunft war vorherbestimmt; Seher wie die römischen Auguren und Haruspices konnten künftige Ereignisse aus dem Flug der Vögel oder aus der Leber von Opfertieren lesen. Erneut waren es die Griechen, die sich als Erste etwas differenzierter mit dem Phänomen Zufall auseinandersetzten. Ein römischer Augur beobachtet den Flug der Vögel Bereits lange vor Laplace war Demokrit  davon überzeugt, dass das, was wir als Zufall wahrnehmen, lediglich menschliches Unvermögen sei, die wahre Ordnung der Welt erkennen zu können. Aristoteles unterschied drei Arten von Ereignissen: sichere, wahrscheinliche und unerkennbare. Am Ende der Antike sorgte jedoch vor allem die Prädestinationslehre   des Kirchenvaters Augustinus  dafür, dass es für solche Gedanken fortan kaum noch Raum gab: Der allwissende Gott kennt den Lauf der Dinge von Anfang an; da er selbst weiß, wie sich jeder einzelne Mensch auf seinem Lebensweg zwischen Gut und Böse entscheiden wird, ist auch das Seelenheil bei der Geburt bereits unweigerlich vorbestimmt. Da der frühneuzeitliche Protestantismus   diesen Gedanken übernahm, war der Zufall für die nächsten 12 Jahrhunderte in der westlichen Welt wieder aus dem Spiel.   Aufmerksame Franzosen Das änderte sich erst, als um das Jahr 1650 einige wohlhabende Herren in einem Pariser Wirtshaus zum Karten- und Würfelspiel zusammenkamen. Der Einsatz sollte an denjenigen gehen, der die meisten einer vorher festgelegten Anzahl von Runden für sich entschied. Es wurde spät, der Wein machte die Köpfe schwer und so beschloss die Gesellschaft den Abend zu beenden noch bevor die vereinbarte Zahl Partien gespielt war. Gab es eine faire Methode, den Einsatz des abgebrochenen Spiels unter den Spielern aufzuteilen? Die Herren wandten sich mit dieser Frage an Blaise Pascal  (1623-1662), den führenden Universalgelehrten Frankreichs. Der anschließende Briefwechsel, den Pascal mit Pierre de Fermat   über die Gewinnteilungsproblematik führte, gilt heute als die Geburtsstunde der Wahrscheinlichkeitsrechnung. Hendrick Ter Brugghen: Die Spieler 1623 Dem neuen Sujet widmeten sich zunächst vor allem Franzosen. Neben Pascal und Fermat zählen Abraham de Moivre, Marie Jean Condorcet, Siméon Denis Poisson, Pierre-Simon Laplace  sowie  Jakob und  Daniel Bernoulli  – letztere Sprösslinge einer Basler Gelehrtenfamilie – zu den Pionieren der Zufallsmathematik. Die von ihnen eingeleitete „ probabilistische Revolution “ hat unseren Blick auf die Welt grundlegend verändert. Der verwegene Anspruch der Zufallsforscher war es, in den gottgewollten Ereignissen und Schicksalen Gesetzmäßigkeiten zu suchen – ein Anliegen, das manchen Zeitgenossen noch immer der Blasphemie gleichkam. Doch mit der Zeit setzte sich die Erkenntnis durch, dass, wie Goethe  es später formulierte, „das Gewebe dieser Welt [.] aus Notwendigkeit und Zufall gebildet“ ist. [i] Heute wissen wir, dass der Zufall eine Grundkonstante der Natur ist. Er begegnet uns, wie wir noch sehen werden, unter anderem in der Thermodynamik , der Quantenphysik , der Evolutionstheorie   und der Genetik . Blaise Pascal   Kombinatorik Die Erforscher des Zufalls standen vor dem gleichen Problem wie Newton  und Leibniz : In der mathematischen Werkzeugkiste fand sich kein passendes Instrument. Erste grundlegende Einsichten ließen sich aus der Analyse gängiger Glücksspiele wie Karten, Würfeln, Münzwurf oder Lotterie gewinnen. Die daraus entstandene mathematische Grundlagendisziplin bezeichnen wir heute als Kombinatorik . Der Kombinatorik liegen eine Anzahl von einfachen Spielregeln zugrunde: Für „ Permutationen “, die Anordnung von Objekten in verschiedenen Reihenfolgen, ergibt sich die Anzahl der Möglichkeiten aus der Fakultät : Um etwa vier verschiedenfarbige Kugeln unterschiedlich aufzureihen, gibt es 4! = 1 * 2   3 * 4 = 24 Möglichkeiten. Bei der „ Kombination “ wird eine Teilmenge entnommen, beispielsweise zwei der vier Kugeln. Sofern die entnommenen Kugeln nicht wieder zurückgelegt werden dürfen, gibt es sechs mögliche Ergebnisse; mit Zurücklegen erhöht sich die Anzahl auf zehn, denn jede der vier Farben kann nun ein weiteres Mal gezogen werden. Bei der „ Variation “ wird zusätzlich auch noch die Reihenfolge der gezogenen Objekte berücksichtigt. In diesem Fall gibt es für „zwei-aus-vier“ zwölf Möglichkeiten ohne Zurücklegen und sechzehn mit Zurücklegen. Mit diesen Grundlagen gewappnet, konnten die Zufallsforscher nun erstmals Wahrscheinlichkeiten für den Eintritt bestimmter Ereignisse berechnen.   Wie man ganz einfach im Lotto gewinnt… Ein einfacher Zufallsgenerator  ist der Würfel . Da bei ihm die Eintrittswahrscheinlichkeit von einem einzelnen Wurf unabhängig ist, beträgt die Chance für eine bestimmte Augenzahl im Ereignisraum des Würfels ein Sechstel. Die Wahrscheinlichkeit, eine Augenzahl kleiner vier zu erhalten, liegt bei 50% (drei Sechstel). Und in jedem 36. Fall (ein Sechstel mal ein Sechstel) haben wir die Aussicht, zweimal hintereinander dieselbe Zahl zu werfen. Bei einer Lotterie, bei der 6 aus 49 Kugeln gezogen werden – hier handelt es sich um das Szenario „Kombination ohne Zurücklegen“ – ist es bereits wesentlich komplizierter. Die Wahrscheinlichkeiten verändern sich mit jeder neuen Ziehung, da die gezogenen Kugeln aus dem Ereignisraum ausscheiden. Die Anzahl der Kombinationsmöglichkeiten beträgt daher: Die Wahrscheinlichkeit für „sechs Richtige“ liegt also bei knapp 1 zu 14 Millionen. Rein statistisch müsste man etwa 270.000 Jahre lang jede Woche spielen, um einmal zu gewinnen. Wohl gemerkt: rein statistisch. Denn eine Gewinngarantie gibt es selbst dann nicht. Wahrscheinlichkeiten lassen sich zwar exakt berechnen, das heißt aber nicht, dass sie auch eintreten müssen.   Das Gesetz der großen Zahlen Kehren wir noch einmal zu dem simplen Würfelspiel zurück. Die Gesetze der Stochastik  – so die offizielle Bezeichnung der Zufallsmathematik – lassen sich auch recht einfach experimentell überprüfen. Bei 600 Würfen wird die absolute Häufigkeit jedes einzelnen Augenwerts wahrscheinlich in der Nähe von 100 liegen. Bei 1200 Würfen werden sie sich voraussichtlich der zu erwartenden Verteilung weiter angenähert haben. Jeder folgende Wurf erhöht die Wahrscheinlichkeit einer weiteren Angleichung. Damit war ein fundamentales Muster gefunden: das Gesetz der großen Zahlen. Als Erster formulierte es Jakob Bernoulli: Die Genauigkeit empirischer Untersuchungen wächst mit der Anzahl der Versuche oder allgemeiner formuliert: Das Wahrscheinlichere verdrängt mit der Zeit das Unwahrscheinlichere. Fand das "Gesetz der großen Zahlen": Jakob Bernoulli Das Gesetz der großen Zahlen unterliegt allerdings einer beschränkten Haftung. Grundsätzlich ist es nicht auszuschließen, dass eine andere als die erwartete Gleichverteilung  der Würfelaugen entsteht. Nichts ist garantiert, nichts muss  nach den Gesetzen der Wahrscheinlichkeitsrechnung geschehen, denn die Gesetze beeinflussen keinesfalls den Zufall selbst. Trotzdem ziehen viele Menschen an dieser Stelle intuitiv einen falschen Schluss. Wenn bei 600 Würfen die Augenzahl „Zwei“ erst 50-mal statt den erwarteten 100-mal eingetreten ist, heißt das nicht, dass die „Zwei“ künftig häufiger auftreten muss. Viele Roulettespieler erwarten, dass nachdem die Kugel 10-mal hintereinander auf „Rot“ gefallen ist, nun endlich „Schwarz“ an der Reihe ist. Aber dem ist nicht so. Würfel und Kugeln haben kein Gedächtnis; der Roulettekugel ist es völlig gleich, ob sie zuletzt auf Rot oder Schwarz lag, das nächste Ereignis hängt nicht davon ab, was zuvor geschah. Ebenso wenig sagen Wahrscheinlichkeiten etwas über Einzelschicksale. Die Chance, Opfer einer Haifischattacke zu werden, lässt sich zwar berechnen, aber niemand ist zu 0,000715 % Opfer des Raubfischs, sondern immer nur zu 100 % oder 0%. Das Gesetz der großen Zahlen, so trivial es uns heute auch erscheinen mag, gehört zu den großen Entdeckungen der Menschheit. Die frühen Stochastiker hatten erkannt, dass sich mit dem blinden Zufall rechnen lässt, wenn sich das zugrundeliegende Ereignis nur oft genug wiederholt. Die einzelnen Launen der Natur bleiben unvorhersehbar, in der Summe aber folgen sie Regeln, die sich mathematisch beschreiben lassen.   Vier Pfarrer denken über Leben und Tod nach Die praktische Bedeutung dieser Erkenntnis war kaum zu überschätzen: Da die Häufung vieler Ereignisse eine hinreichende Sicherheit erzeugte, konnten Risikogemeinschaften wie Versicherungen nun erstmals auf eine statistische Grundlage gestellt werden. Man begann eifrig Daten über das Wetter, über Schiffskatastrophen und Ernteerträge zusammenzutragen. Von besonderem Interesse waren Leben und Tod. Die Autoritäten hierfür waren Pfarrer, die die Kirchenbücher führten und damit die grundlegenden statistischen Daten selbst erzeugten. Der Breslauer Pastor Caspar Neumann  erstellte um 1690 als Erster für seine Heimatstadt eine Geburts- und Sterbestatistik . Johann Peter Süßmilch , ein Berliner Pfarrer, baute Neumanns Werk systematisch aus und erkannte als erster, dass 100 weiblichen Geburten durchschnittlich 105 männliche gegenüberstanden. Titelblatt von Süßmilchs Publikation Zwei schottische Amtskollegen, Robert Wallace  und Alexander Webster , rechneten Mitte des 18. Jahrhunderts das Sterberisiko für ihre eigene Berufsgruppe aus und analysierten, wie viele Witwen und Waisen demnach zu versorgen waren. So konnten die Prämien für einen Anlagefonds bestimmt werden, mit dem sich die Hinterbliebenen Pfarrerswitwen absichern ließen. [ii]  Nach und nach entstanden weitere Solidargemeinschaften, mit denen sich Reeder gegen Schiffsunglücke und Hausbesitzer gegen Feuer schützten. Die Versicherten waren nun vor den finanziellen Folgen großer Schicksalsschläge gefeit und konnten fortan freier agieren. Als Deutschland 1889 als erstes Land der Welt eine gesetzliche Rentenversicherung einführte, war die Stochastik auch in der Politik angekommen.   Was dürfen wir eigentlich erwarten? Um das Jahr 1800 waren die Mathematiker der nächsten wichtigen Erkenntnis auf der Spur. Es begann damit, dass Laplace sich die Frage stellte, welcher Wert eigentlich im Durchschnitt bei einem Zufallsereignis zu erwarten sei.   Dieser „ Erwartungswert “ beträgt beim Würfeln beispielsweise 3,5 und ist das arithmetische Mittel, das bei unendlicher Wiederholung des Experiments entsteht:   Zählt man die Augen von 10.000 Würfen zusammen und teilt sie durch 10.000, wird der Wert mit großer Wahrscheinlichkeit in der Nähe von 3,5 liegen. Im langfristigen Durchschnitt würfelt man also „dreieinhalb“, obwohl der Würfel selbst diese Augenzahl gar nicht kennt. Wirft man nun beispielsweise gleichzeitig drei Würfel, können nach den Gesetzen der Kombinatorik 16 verschiedene Mittelwerte entstehen. Erzielt man drei Sechser, ist der Mittelwert sechs; bei drei Einsern beträgt er eins. Dazwischen gibt es 14 weitere mögliche Mittelwerte: 5,666..., 5,333..., 5, 4,666..., 4,333..., 4, 4,666... usw. Betrachtet man nun die absolute Häufigkeitsverteilung, zeigt sich, dass bestimmte Mittelwerte öfter erzielt werden als andere: Mit zunehmender Anzahl Würfe steigt die Wahrscheinlichkeit, dass die Mittelwerte umso häufiger vorkommen, je näher sie am Erwartungswert von 3,5 liegen. Mit der größten Wahrscheinlichkeit werden also die Durchschnittswerte 3,666...  und 3,333... erzielt.  Entwicklung der Verteilmuster bei steigender Stichprobengröße und steigender Anzahl Experimente Je mehr Würfel gleichzeitig geworfen werden und je größer die Anzahl der Versuche, umso mehr nähert sich die Verteilung der Mittelwerte einer symmetrischen, glockenförmigen Figur:  Normalverteilungskurve Dieses Gebilde kannten die Stochastiker bereits. Der nach England geflohene französische Hugenotte Abraham de Moivre hatte es schon um 1730 beschrieben. Heute bezeichnen wir dieses Muster als Normalverteilungs-, Glocken- oder   auch Gaußkurve . (Gauß fand als Erster die exakte Funktion, die diese Verteilform beschreibt.) Das der Normalverteilungskurve zugrunde liegende Gesetz ist der Zentrale Grenzwertsatz , den Laplace erstmalig bewies. Er besagt, dass die Stichprobenmittelwerte gegen eine Normalverteilung streben, wenn Umfang und Anzahl der Stichproben gegen unendlich gehen.   Die wichtigste Verteilung in der Natur Die Normalverteilung ist die wohl wichtigste Verteilform der Natur. Körpergröße, Intelligenzquotient, Blutdruck, Niederschlagsmengen, aber auch Messfehler, Glücksgefühle und die Rentabilitäten von Investitionsentscheidungen sind normalverteilt. Die symmetrische Form bedeutet, dass positive Abweichungen vom Erwartungswert exakt gleich häufig auftreten wie negative. Die Kurve ist auch Ausdruck dessen, was wir üblicherweise als „normal“ empfinden: Das, was auf vieles zutrifft, übersehen wir gewöhnlich; unsere Aufmerksamkeit erregt nur, was davon abweicht. Wie kommt es zu der verblüffenden Vorherrschaft der Normalverteilung in der Natur? Warum gibt es nicht mehr große Menschen als kleine? Das Geheimnis der Glockenform erschließt sich uns, anhand des Galtonbretts , eine Erfindung des Statistik-Pioniers (und Cousins von Charles Darwin) Francis Galton . Dabei handelt es sich um eine Konstruktion, bei der von oben Bälle auf runde Hölzchen fallen, die symmetrisch in Form eines Dreiecks angeordnet sind.   Das Galtonbrett Die Bälle springen, wenn sie auf die Rundhölzer treffen, mal nach links, mal nach rechts, um dann unten in Silos zu fallen. Mit der Zeit bildet sich in den Silos das Normalverteilungsmuster. So wie Lottokugeln oder ein einzelner Würfel Zufallsmaschinen für Gleichverteilungen sind, ist das Galtonbrett eine Zufallsmaschine für die Normalverteilung. Der Zufall entscheidet in jeder Reihe des Dreiecks mit einer Wahrscheinlichkeit von 50:50 darüber, ob der Ball nach links oder rechts springt. Normalverteilungen entstehen also immer dann, wenn viele kleine, voneinander unabhängige Zufälle ein Ergebnis bestimmen – eine Bedingung, die ganz offenbar in der Natur häufig vorliegt. Mittelwerte beschreiben Normalverteilungen jedoch noch nicht vollständig. Wenn erwachsene Menschen im Mittel 1,70 m groß sind, ist es ein Unterschied, ob die eine Hälfte der Bevölkerung 1,69 m misst und die andere 1,71 m oder 1,50 m und 1,90 m. Die Größe, die angibt, wie weit ein einzelner Messwert im Durchschnitt vom Durchschnitt abweicht, ist die Standardabweichung. [iii]   Darf man Stichproben trauen? Wenn wir die durchschnittliche Körpergröße der Menschen in einer Großstadt in Erfahrung bringen möchten, werden wir meist nicht alle Einwohner einzeln vermessen, sondern uns aus praktischen Gründen auf eine zufällige Stichprobe von   vielleicht 100 oder 500 Personen beschränken. Das bedeutet aber auch, dass wir den wahren Wert bestenfalls abschätzen können, denn in unserer Stichprobe könnten sich zufällig besonders viele große oder besonders viele kleine Menschen finden. Inwieweit darf man Stichproben also überhaupt vertrauen? Um diese Frage zu beantworten, entwickelte der polnische Mathematiker Jerzy Neyman  in den 1930er Jahren ein Verfahren, bei dem er tief in die mathematische Werkzeugkiste griff. Er bediente sich bei so ziemlich allem, was die Mathematik zu bieten hat: Arithmetik , Algebra , Geometrie , Analysis   und Stochastik. Francis Galton Neymans Ansatz, Wahrheit und Wahrscheinlichkeit zu verbinden, beruht auf der Berechnung von Konfidenzintervallen . Seine Methode begegnet uns immer dann, wenn beispielsweise von 95%igen Wahrscheinlichkeiten die Rede ist. Nehmen wir an, dass wir für 100 zufällig ausgewählten Personen eine mittlere Körpergröße von 1,68 m ermitteln, während der tatsächliche Durchschnitt in unserer Stadt 1,70 m beträgt. Nehmen wir weiterhin an, dass die Standardabweichung vom Stichprobenmittel 3 cm beträgt. Das heißt, dass die einzelnen Stichprobenwerte im Durchschnitt 3 cm vom den 1,68 m abweichen. Damit ist es nun möglich eine Aussage darüber zu treffen, mit welcher Wahrscheinlichkeit der (uns unbekannte) wahre Wert von 1,70 m innerhalb einer bestimmten Bandbreite liegt. Das erste Band ist üblicherweise durch die Grenzen der einfachen Standardabweichung „σ“ von +/- 3 cm vom Stichproben-Mittelwert definiert, also der Bereich von 1,65 m bis 1,71 m. Mit Hilfe der Integralrechnung   lässt sich ermitteln, dass die durch diese Grenzen definierte Fläche, ungefähr 68 % der Gesamtfläche unter der Normalverteilungskurve beträgt. Der Mittelwert +/- zweifache Standardabweichung deckt bereits gut 95 % der Fläche ab. Dieser Zusammenhang gilt immer, ganz gleich, wie breit die Gaußkurve ist oder wie steil sie verläuft. Mit einer Wahrscheinlichkeit von 68 % liegt also der tatsächliche Mittelwert in dem Bereich von 1,65 m bis 1,71 m und mit 95 %iger Wahrscheinlichkeit zwischen 1,62 m und 1,74 m.   Prozentuale Anteile der Integrale für ein-, zwei- und dreifache Standardabweichung Das Vertrauen in die Konfidenzintervalle ist heute Grundlage sehr weitreichender Entscheidungen, wie etwa die Zulassung neuer Medikamente oder die Bewertung von Indizien in Strafprozessen. Hier trifft Mathematik auf die ethische Frage, wieviel Rest-Zufall man sich leisten will oder darf: Denn von 20 klinischen Studien, die einem Wirkstoff mit „95 %iger Wahrscheinlichkeit den gewünschten Effekt zuschreiben, liegt eine falsch.   Wie uns Statistiken aufs Glatteis führen Hier kommt ein weiterer Aspekt ins Spiel. Subjektiv empfinden wir 95 % als sehr sicher, während die Aussage 1:20 für uns eher beunruhigend klingt. Beide Perspektiven sind jedoch mathematisch äquivalent. Ähnlich bei der Frage, ob wir uns lieber von einem Chirurgen operieren lassen möchten, dessen Überlebensrate 90 % beträgt, oder von seinem Kollegen, der eine Sterberate von 10 % aufweist. Die meisten Menschen ziehen den ersten Arzt vor, obwohl auch dies mathematisch nicht begründet werden kann. Unsere Fähigkeit, statistische Risiken einzuschätzen, hat offenbar auch etwas damit zu tun, wie die Information präsentiert wird. Der mit dem Nobelpreis ausgezeichnete israelisch-amerikanische Psychologe Daniel Kahneman  hat solche Phänomene untersucht und anhand zahlreicher Beispiele aufgezeigt, dass es um unser statistisches Denken nicht besonders gut bestellt ist. Wir neigen allgemein dazu, aus Zahlen falsche Schlüsse zu ziehen. [iv]  So, wie uns das Gespür für die Bedeutung von Exponentialfunktionen fehlt, liegen wir auch meist bei der Einschätzung von Risiken daneben. Es widerspricht unserer Eingebung, dass die Zahlen eins bis sechs jemals im Lotto gezogen werden könnten, dabei ist die Wahrscheinlichkeit hierfür genauso groß, wie für jede beliebige andere Zahlenkombination. [v] Charles Darwins unorthodoxer Cousin Francis Galton  war eine vielseitige Persönlichkeit. Neben geographischen Forschungsreisen nach Afrika beschäftigte er sich unter anderem mit Meteorologie, Psychologie sowie Intelligenzforschung; zudem gilt er als einer der Begründer der Eugenik. Als Statistiker und Mathematiker ist Galton insbesondere bekannt für seine Pionierarbeit bei der Untersuchung mehrdimensionaler Zusammenhänge. Seine Konzepte von Korrelation  und Regression sind im heutigen Wissenschaftsbetrieb allgegenwärtig . Korrelationen untersuchen, ob zwischen zwei oder mehr Größen ein Zusammenhang besteht und wie sich dieser mithilfe eines Koeffizienten messen lässt. Die Regressionsanalyse ist der Versuch, diesen Zusammenhang so gut wie möglich in Form einer mathematischen Funktion zu beschreiben – etwa mithilfe der Methode der kleinsten Quadrate , die von dem Franzosen Adrien-Marie Legendre  und Gauß  unabhängig voneinander in den ersten Jahren des 19. Jahrhunderts entwickelt wurde. Die Methode erlaubt es, einen Funktionsgraphen zu konstruieren, der den Abstand zu allen beobachteten Messwerten minimiert. Der etwas irreführende Begriff Regressionsanalyse geht unmittelbar auf Galton zurück. Bei einem Experiment hatte er festgestellt, dass die Nachfahren großer Erbsen eher zu einer durchschnittlichen Größe tendieren. Obwohl diese „Regression zur Mitte“ eigentlich nur den Zusammenhang zwischen der Größe zweier Hülsenfrucht-Generationen beschrieb, wurde das biologische Phänomen namensgebend für die bei seiner Entdeckung angewandte statistische Methode.   Korrelation und Kausalität Die Anzahl möglicher Zusammenhänge, die sich so untersuchen lassen, ist schier unendlich. Regressionsanalysen haben beispielsweise gezeigt, dass das Verhältnis von Länge zu Breite steinzeitlicher Faustkeile aus Kenia stark mit den Proportionen des goldenen Schnitts   korreliert. [vi]  Doch was will uns das sagen? Ein Zusammenhang allein ist noch keine Erkenntnis und Korrelation ist nicht automatisch Kausalität. Die Definition des goldenen Schnitts war den Menschen der Altsteinzeit   sicherlich nicht bekannt. Ahnten sie unbewusst eine Ästhetik nach, die sie in der Natur beobachtet hatten? Gibt es eine Verbindung zu einem natürlichen Wachstumsprozess? Hat es etwas mit der Anatomie der menschlichen Hand zu tun? Oder ist das alles einfach nur ein Zufall? Jede dieser Erklärungen ist denkbar.   Regressionsgerade für die Proportionen steinzeitlicher Faustkeile Seit der Jahrtausendwende ist auch die Informationstechnologie solch verschleierten Zusammenhängen auf der Spur. Sie erlaubt es mittlerweile unvorstellbar große unstrukturierte Datenmengen in kurzer Zeit zu durchleuchten. Wie wir wissen spielen seit wenigen Jahren hier die selbstlernenden Algorithmen der künstlichen Intelligenz eine immer größere Rolle, eine Entwicklung, deren Konsequenzen kaum abzusehen ist (ich möchte mich in einem der kommenden Blogs, diesem Thema ausführlich widmen, ein Kapitel, das nicht in meinem Buch  erschienen ist) . Das Gold, das in diesen Datenminen geschürft wird, sind verborgene Zusammenhänge, die Vertriebsstrategen, Verwaltungen, Versicherungen, Genetikern und Geheimdiensten wertvolle Einsichten offenbaren. Polizisten können heute mit 95%iger Wahrscheinlichkeit voraussagen, in welchem Stadtviertel der nächste Einbruch verübt wird und Kreditkartenunternehmen prognostizieren anhand von Kontobewegungen ihrer Kunden mit derselben Zuverlässigkeit, ob sich ein Ehepaar in den nächsten drei Jahren scheiden lässt. [vii]  Ganz offenbar wissen die Daten mehr über uns als wir selbst. Die Zukunft, die früher in den Sternen lag, lässt sich heute in den Informationspuren lesen, die wir tagtäglich im World Wide Web  selbst erzeugen.     Den Blog entdecken   Wer mehr wissen will: Garps – leider falsche – Überlegungen zu Wahrscheinlichkeiten   Galtonbrett in Aktion   Bildnachweise: Galtonbrett Anmerkungen: [i] Goethe (1795), 17. Kapitel. [ii]  Vgl. Ferguson (2010), S. 170 ff. [iii] Hinter den beiden „Durchschnitten“ verbergen sich zwei verschiedene Sachverhalte: Beim ersten Durchschnitt handelt es sich gemäß der Formel zur Berechnung der Standardabweichung um ein quadratisches Mittel, während der zweite Durchschnitt ein arithmetisches Mittel darstellt. [iv]  Vgl. Kahneman (2011), S. 172 ff. [v]  Ein weiteres Beispiel ist das Geburtstagsparadoxon. Es besagt, dass bei einer Versammlung von nur 23 Menschen, bereits eine 50 % Wahrscheinlichkeit besteht, dass zwei oder mehr von ihnen am selben Tag Geburtstag haben. Dies lässt sich leicht anhand der Gegenwahrscheinlichkeit überprüfen, also der Wahrscheinlichkeit, dass zwei Menschen nicht am gleichen Tag Geburtstag haben. Für die erste Person beträgt die Wahrscheinlichkeit, an einem der 365 Tage des Jahres Geburtstag zu haben 100 % oder . Die Wahrscheinlichkeit, dass eine zweite Person an einem anderen Tag Geburtstag feiert beträgt , bei der nächsten  und so weiter. Multipliziert man diese Wahrscheinlichkeiten für 23 Personen, so erhält man als Gegenwahrscheinlichkeit den Wert 49,27 %. Die Chance auf einen gemeinsamen Geburtstag beträgt somit 50,73 %. P= 1- . [vi]  Vgl. Gowlett (1985) S. 71. [vii]  Vgl. Demandowsky (2010).

  • Eine kurze Geschichte der Vermessung der Welt

    Antike Weltvermessung Der Drang der Menschen, die Erde vermessen zu wollen, lässt sich bis in die Antike zurückverfolgen. Bereits damals wurde klar, dass unser Planet eine Kugelgestalt hat, und es ist ein hartnäckiger Mythos, dass gebildete Menschen im Mittelalter   jemals etwas anderes geglaubt haben. Bereits Aristoteles   hat in seinen Schriften „Über den Himmel“ (de caelo) und „Meteorologica“ drei gewichtige Argumente angeführt, warum dem so sein muss: Bei einer Mondfinsternis ist die Projektion des Erdschattens auf dem Trabanten immer eine kreisrunde Fläche. Eine Scheibe hingegen würde in bestimmten Winkeln einen elliptischen oder abgeflachten Schatten werfen. Wenn man nach Süden reist, sieht man am Nachthimmel neue Sterne aufgehen, während die Sterne des Nordens verschwinden. Das ist nur möglich, wenn man sich auf einer gekrümmten Oberfläche bewegt.   Bei Schiffen, die sich vom Betrachter entfernen, verschwindet am Horizont zuerst der Rumpf, während die Segel noch sichtbar sind; auch dies erklärt sich nur durch eine gekrümmte, kugelförmige Oberfläche. Aristoteles war damit der Erste, der die Kugelgestalt der Erde systematisch mit überprüfbaren Beobachtungen begründete. Rund hundert Jahre später sollte Eratosthenes , der langjährige Leiter der Bibliothek von Alexandria , den Erdumfang experimentell mit verblüffender Genauigkeit bestimmen. Wie war ihm das möglich? Eratosthenes nahm an, dass die Stadt Syene, im Süden Ägyptens, und Alexandria auf derselben Nord-Südachse liegen. Ein solcher Längengrad ist auf einer Kugel ein gedachter Halbkreis, der die beiden geographischen Pole der Erde miteinander verbindet. Der Abstand zwischen den beiden von ihm jeweils in Alexandria und Syene festgelegten Messpunkten wurde wahrscheinlich von amtlichen Schrittzählern ermittelt, die auf eine Distanz von 5000 Stadien kamen, einem von den Griechen verwendeten antiken Längenmaß. Eratosthenes - niemand weiß, wie er wirklich aussah Eratosthenes stellte in Syene und in Alexandria jeweils einen Holzstab auf. Am Mittag des Tags der Sommersonnenwende warf der Stab in Syene keinen Schatten, da die Sonne in diesem Moment direkt über ihm im Zenit stand. In Alexandria warf der Stab zum gleichen Zeitpunkt jedoch einen Schatten, der den fünfzigsten Teil eines Vollkreises vom Zenit entfernt war. Die Entfernung zwischen Alexandria und Syene entsprach demnach einem fünfzigstel des Erdumfangs, woraus sich ein gesamter Erdumfang von 50 x 5000 = 250.000 Stadien ergibt. Eratosthenes' Erdvermessung Nun wissen wir heute nicht genau, wie ein Stadion zur Zeit von Eratosthenes normiert war. Wenn wir aber unterstellen, dass die Entfernung zwischen den beiden Stäben genau ausgemessen wurde (sie beträgt Luftlinie 835 km), dann muss ein Stadion 167 Metern entsprochen haben (ein Wert, der einigermaßen mittig im Bereich der vermuteten historischen Stadionlängen liegt). Daraus ergäbe sich ein Erdumfang von 41.750 km, eine Zahl, die dem tatsächlichen Wert von 40.008 km bemerkenswert nahekommt. [i]     Phantastische Gewinne Rund 1700 Jahre später, an der Wende zur Neuzeit, befuhren portugiesische Seefahrer wie Diogo Cão  und Bartolomeu Dias  in den 1480er Jahren die Westküste Afrikas auf der Suche nach einem östlichen Seeweg nach Indien. Von dort kamen die teuren exotischen Gewürze, die arabische Händler bisher auf dem Landweg nach Europa brachten. Indien per Schiff zu erreichen und so die arabischen Zwischenhändler auszuschalten, verhieß phantastische Gewinne. Auf ihren Erkundungsfahrten folgten die Portugiesen der afrikanischen Küstenlinie und orientierten sich dabei vor allem mit Hilfe von Portolankarten , in denen entlang der Küstenlinien Landmarken, Strömungen und Untiefen eingezeichnet waren. 1498 fand so Vasco da Gama  als Erster den Seeweg, der um Afrika herum nach Indien führte. Vasco da Gama - segelte nach Osten Bereits sechs Jahre vor Vasco da Gama versuchte der findige Seefahrer Christoph Kolumbus  zunächst erfolglos, den König von Portugal und später erfolgreich das spanische Königspaar, von seiner Idee zu überzeugen, dass sich Japan, China und Indien aufgrund der Kugelgestalt der Erde viel schneller erreichen ließen, wenn man statt ostwärts um Afrika herum, einfach nach Westen segelt. Seine Berechnungen enthielten allerdings eine Reihe von Fehlern, die sich auf eine fatale Weise addierten: Kolumbus stützte sich auf die Angaben des arabischen Gelehrten al-Farghānī , der im 9. Jahrhundert lebte. Al-Farghānī gab, wahrscheinlich auf der antiken Überlieferung beruhend, den Erdumfang sehr genau an – allerdings in arabischen Meilen, die Kolumbus für die wesentlich kürzeren römischen Meilen hielt. Zudem überschätzte der Genuese die Länge Asiens deutlich und kam so zu den Schluss, dass Japan westwärts nur 4.000 bis 5.000 Kilometer entfernt liegen müsse. Die tatsächliche Entfernung hatte er damit um mindestens 15.000 Kilometer unterschätzt. Läge zwischen Europa und Japan nicht ein ganzer Kontinent, nur 5.300 Kilometer von den Kanaren entfernt, so hätten wir wohl nie wieder etwas von Kolumbus gehört. Mit den Portolanen hangelte man sich noch an den Küstenlinien entlang   Christoph Kolumbus - segelte nach Westen Navigation als Überlebensfrage Die iberischen Seefahrer hatten das  Zeitalter der Entdeckungen  eingeleitet, ein wesentliches Merkmal der nun beginnenden Neuzeit. Nachdem sich zuvor nur wenige Mutige auf das offene Meer gewagt haben (wir wissen von den Fahrten der Wikinger bis nach Grönland und Neufundland, sowie von den Expeditionen des chinesischen Admirals Zheng He zwischen 1405 und 1433, die ihn bis an die ostafrikanische Küste führten), wurde nun die Aussicht auf fantastische Profite   die Triebfeder unzähliger Europäer: Im Osten kaufte man Gewürze, Seide und Porzellan ein, im Westen gab es einen ganzen neuen Kontinent, der nur darauf zu warten schien, ausgebeutet zu werden. Zu den Portugiesen und Spaniern gesellten sich nach und nach Niederländer, Franzosen und Engländer – selbst Schweden gründete 1626 eine Ostindien-Kompanie. Das Navigieren fernab der Küsten auf den gewaltigen Wassermassen von Atlantik, Indischem Ozean und Pazifik war nun zu einem zentralen Problem geworden und oft genug war es für die Seeleute auch eine Überlebensfrage. Wie konnte man die Zielhäfen auf den andern Kontinenten ansteuern, wie die aktuelle Position bestimmen? Wie ließen sich die neuen Küsten und Inseln, Strömungen und gefährlichen Riffe kartographieren? Bereits Eratosthenes hatte ein Koordinatensystem entworfen, mit dem sich beliebige Positionen auf der Erdoberfläche exakt bestimmen ließen. Es besteht einerseits aus parallel verlaufenden Ringen, den Breitengraden, deren mittlerer Kreis, der Äquator, die Erde in eine Nord- und Südhalbkugel teilt, sowie Meridianen  oder Längengraden , gedachten Halbkreisen, die Nord- und Südpol miteinander verbinden. Das erste bekannte neuzeitliche Modell eines solchen Globus mit Breiten- und Längengraden verdanken wir dem Nürnberger Kaufmann Martin Behaim , der im Auftrag des Rats seiner Stadt um 1492 lokale Handwerker zur Herstellung des Modells anwies. Behaims Globus zeigt dieselbe Vorstellung von der Welt, die im gleichen Jahr auch der sich in Indien wähnende Kolumbus hatte: Amerika fehlt und der Erdumfang ist deutlich zu klein bemessen. Martin Behaims Erdapfel von 1492   Breitengrade brauchen nur etwas Astronomie Wie konnten nun Seeleute aber mit Hilfe des Koordinatensystems ihre Position bestimmen und Küstenlinien kartografieren? Eine hinreichend genaue Bestimmung des Breitengrads, auf dem man sich gerade befand, hatten die Portugiesen bereits Ende des 15. Jahrhunderts entwickelt. Die Methode war relativ einfach und beruhte auf der Messung des Standes von Himmelskörpern. Der Äquator war der Breitengrad Null. Hier ist die Erde, wenn man sie seitlich betrachtet, am breitesten. Die Strecke bis zum Nordpol wird in 90 Breitengrade eingeteilt; ebenso die Strecke bis zum Südpol. Der Abstand zwischen zwei der insgesamt 180 Breitengrade beträgt somit ziemlich genau 111 km. Für genauere Bestimmungen gibt es ein feinmaschigeres Gradnetz, das den Abstand zwischen zwei Breitengraden noch einmal in 60 Minuten und die Minuten wiederum in Sekunden einteilt. Diese Konventionen hatte im Prinzip bereits der Grieche Claudius Ptolemäus um das Jahr 150 n. Chr. entwickelt. Misst man nun exakt zur Mittagszeit, wenn die Sonne ihren Höchststand hat, den Winkel, den die Sonne vom Betrachter aus gesehen über dem Horizont bildet, lässt sich die geographische Breite leicht ermitteln. An den beiden Tagundnachtgleichen steht die Sonne am Äquator genau im Zenit, also 90° über dem Horizont. Misst man an einem dieser Tage beispielsweise einen Winkel von 30° über dem Horizont, kann man die Parallele, auf der man sich gerade befindet, leicht errechnen: Breitengrad = 90°−30°= 60°. An anderen Tagen wandert der Zenitpunkt der Sonne allerdings aufgrund der Neigung der Erdrotationsachse von 23,5° zwischen den Wendekreisen . Der nördliche Wendekreis, der Wendekreis des Krebses, ist somit der 23,5°nördliche Breitengrad (Zenitpunkt um den 21. Juni); der südliche Wendekreis des Steinbocks liegt auf 23,5° südlicher Breite (Zenitpunkt um den 21. Dezember). Der Effekt dieser so genannten Sonnendeklination  muss an allen Tagen, die keine Tagundnachtgleichen sind, bei der Berechnung hinzugefügt oder abgezogen werden. Nachts konnte man auf der Nordhalbkugel die Höhe des Polarsterns messen, von dem man wusste, dass er fast exakt im Norden steht. Auf der Südhalbkugel konnte man entsprechend andere Sterne anpeilen, deren Position bekannt war, insbesondere das Kreuz des Südens , das zumindest in etwa die Richtung des Südpols angibt. Englischer Seefahrer mit Jakobsstab 1672 Zu Zeiten der portugiesischen und spanischen Entdecker benutzte man als Instrument zur Höhenwinkelmessung eine einfache Konstruktion, den Jakobsstab . Erst um 1730 wurde er vom deutlich genaueren Sextanten  abgelöst.   Der vermaledeite Längengrad Wesentlich schwieriger war es, den Längengrad zu bestimmen. Denn dieser hängt, nicht wie der Breitengrad, vom Ort ab, sondern von der Zeit . Da die Erde in etwa 24 Stunden eine 360°-Pirouette vollzieht, entspricht 1 Stunde 15 Längengraden. Der Zeitunterschied kann also sehr einfach in einen geographischen Abstand übersetzt werden. Während der Äquator eine naheliegende natürliche Nullbreite darstellt, die Nord und Süd definiert, ist die Bestimmung einer Referenzlinie, die die Erde in eine West- und Osthälfte teilt, rein willkürlich. Üblicherweise nahm man dafür die Lage des führenden Observatoriums verschiedener Länder. Der französische Nullmeridian verlief durch Paris, der spanische durch Madrid, der russische nahe bei Sankt Petersburg und der britische durch London, wo sich die Sternwarte im Stadtteil Greenwich  befand. Im Laufe des 19. Jahrhunderts wurde dieser aufgrund der führenden Stellung der Briten in der Seefahrt zu dem noch heute gültigen internationalen Standard. Anders als die Breitengrade verlaufen die Längengrade nicht parallel Das praktische Problem der Längengradbestimmung bestand ganz einfach darin, dass es keine Uhr gab, die sich auf See mitführen ließ und die zuverlässig zur lokalen Mittagszeit die Referenzzeit des jeweiligen Nullmeridians anzeigen konnte. Feuchtigkeit, salzige Luft, Seegang und Temperaturschwankungen setzten den einfachen Sand- oder Pendeluhren so zu, dass an eine hinreichend genaue Zeitbestimmung keinesfalls zu denken war. Ebenso unmöglich war es Geschwindigkeit und Richtung des Schiffes über längere Zeiträume hinweg zuverlässig zu messen. Man wusste also ziemlich genau wie weit nördlich oder südlich man sich befand, nicht aber wie weit westlich oder östlich. Die Unmöglichkeit der exakten Ortsbestimmung auf See war ein gewaltiges Problem. Weder konnte man die Untiefen exakt in Seekarten einzeichnen, noch war es möglich, Entfernungen und die Lage von Küstenlinien und Inseln hinreichend genau zu bestimmen. Infolgedessen liefen zahlreiche Schiffe auf Riffe oder Sandbänke. Die Navigatoren wussten schlichtweg nicht, wo genau sie sich gerade befanden. Entsprechend waren die See- und Weltkarten in Ost-West-Richtung meist deutlich verzerrt. Der Nürnberger Astronom Johannes Werner  entwickelte im 16. Jahrhundert eine Lösung, bei der der Winkel zwischen Mond und Sternen gemessen wurde, um die Zeit zu bestimmen – die sogenannte Lunardistanzmethode . Praktisch scheiterte sie an der ungenauen Messung und der Unzuverlässigkeit der damaligen Instrumente. Auch die Methode, die Bewegung der Jupitermonde als eine Art himmlische Uhr zu nutzen, die Galileo Galilei rund 100 Jahre später vorschlug, war auf dem schwankenden Deck eines Segelschiffs praktisch nicht durchführbar. Vor diesem Hintergrund lobte das englische Parlament im Jahre 1714 eine Prämie von 20.000 Pfund aus für denjenigen, der das Problem der exakten Längengradbestimmung lösen konnte – ein Betrag, der nach heutiger Kaufkraft etwa 3,5 Millionen Euro entspricht. Sicher kein schlechter Anreiz. Bei der Festlegung der Erfolgskriterien für das Preisgeld hatte das Parlament namhafte Wissenschaftler wie Issac Newton   und Edmond Haley   zu Rate gezogen. Die Höhe des Preisgelds war nach dem Genauigkeitsgrad der Zielerreichung gestaffelt.   Die Uhr, die das Meer bezwang - die unglaubliche Geschichte des John Harrison Letztlich erwiesen sich alle auf „kosmischen“ Uhren“ beruhende Vorschläge gestandener Astronomen als nicht praktikabel. Dann nahm Mitte der 1720er Jahre der gelernte Tischler und autodidaktische Uhrmacher John Harrison  die Herausforderung an. Sein Ansatz war es, eine extrem genaue und zugleich robuste Uhr für die Seefahrt zu bauen. Im Laufe der Jahre gelang es ihm drei entscheidende Verbesserungen einzuführen, um seine mechanischen Uhren seegängig zu machen. Tischler, Uhrmacher, Genie: John Harrison machte Uhren seegängig Er hatte erstens erkannt, dass sich die Metallteile in den Uhren in Abhängigkeit von den Temperaturschwankungen ausdehnen oder zusammenziehen. Dafür konstruierte er spezielle Eisen- und Messingstäbe, deren unterschiedliche Ausdehnung sich gegenseitig aufhob. Zweitens erfand er die so genannte Grashüpfer-Hemmung bei dem der Gang durch ein Zahnrad aus einem speziellen Holz gesteuert wird, das die besondere Eigenschaft besitzt, sich selbst schmieren zu können und so fast reibungsfrei zu laufen – Metallzahnräder hatten das Problem, dass das Schmieröl mit der Zeit verharzte und damit die Reibung erhöhte. Drittens fand er einen Ersatz für das traditionelle Uhrenpendel, das auf einem rollenden und stampfenden Schiff freilich nicht funktionieren konnte: Er verband zwei Unruhen durch eine Feder, eine Konstruktion, die sich von den Schaukelbewegungen nicht mehr beeinflussen ließ. Harrisons erstes Marinechronometer Harrison präsentierte der Kommission seinen Entwurf im Jahr 1730. Eine erste Probefahrt nach Lissabon verlief vielversprechend, erfüllte aber immer noch nicht die scharfen Bedingungen der Ausschreibung, die einen Test bei einer Transatlantikfahrt verlangte. In den folgenden Jahrzehnten arbeitete Harrison laufend an der Verbesserung seiner Ideen, bis er 1759 das bahnbrechende vierte Modell vorstellte. Bei einer Reise nach Jamaika wies diese Version bei der Rückkehr nach fast drei Monaten eine Abweichung von weniger als zwei Minuten auf.     Lobte Harrisons Uhr in den höchsten Tönen: James Cook Der Streit um das Preisgeld Dennoch tat die vom Parlament eingesetzte Kommission das Ergebnis als zufällig ab und weigerte sich, das volle Preisgeld auszuzahlen. In der Prüfkommission dominierten namhafte Astronomen, die der Chronometer-Idee grundsätzlich skeptisch gegenüberstanden. Auch dürfte Standesdünkel eine Rolle gespielt haben – schließlich war Harrison „nur“ ein Handwerker, ohne akademische Weihen. Trotz überragender Ergebnisse erhielt Harrison in den 1760er Jahren nur Teilauszahlungen. Erst 1773, im Alter von 80 Jahren, bekam er auf persönliche Intervention des englischen Königs George III , eine Prämie von 8.750 Pfund, die das Parlament als Anerkennung seiner Verdienste bewilligte – die eigentliche Kommission hatte die Auszahlung bis zum Schluss verweigert.   Setze sich für Harrison ein: George III Welche Form hat die Erde? In seinem Buch „Die Vermessung der Welt“ beschreibt der Romanautor Daniel Kehlmann, wie Alexander von Humboldt  von spanischen Padres im Regenwald von einer französischen Expedition hört, die einige Jahrzehnte zuvor hier vorbeigekommen war, um „aus ästhetischen Gründen vor allem Newtons unschöne These“ zu widerlegen, „dass die Erde sich durch Rotation abplatte“, und somit keine perfekte Kugel sei. Die Geschichte hat mich neugierig gemacht, und ich habe ein bisschen recherchiert. Hingen die Franzosen hier tatsächlich einem platonischen   Ideal an? Kehlmann hat sich ein paar literarische Freiheiten genommen, aber die Geschichte hat einen wahren Kern. Isaac Newton hatte tatsächlich im frühen 18. Jahrhundert besagte These aufgestellt. Dem hielten französische Wissenschaftler wie der sich auf René Descartes berufende Astronom Jacques Cassini  die These entgegen, die Erde habe tendenziell mehr eine Ei-Form und laufe, ganz im Gegenteil zu Newtons These, an den Polen spitz zu. [ii]   Die Frage der exakten geometrischen Form der Erde war für die Kartographie von zentraler Bedeutung. Der französische König Ludwig XV, schickte daher zwei Expeditionen los: Pierre Louis Moreau de Maupertuis wurde beauftragt in Lappland Messungen des Abstands zweier Breitengrade vorzunehmen; eine andere Gruppe um Charles Marie de La Condamine  sollte entsprechende Messungen in Südamerika am Äquator durchführen. Wäre die Erde eine Kugel, so wären die Abstände zwischen den Breitengraden überall gleich, also bei besagten 111 km. Hätte Newton recht und der Äquator wäre vom Erdmittelpunkt weiter entfernt als die Pole, müsste wegen der flacheren Krümmung der Abstand zwischen zwei Breitengraden dort geringer sein als weiter im Norden. Die beiden Franzosen waren zwischen 1736 und 1743 unterwegs und konnten schließlich mit ihren Messungen die These des großen Engländers bestätigen (Anders als in Kehlmanns Roman war La Condamine weder Kritiker der Newton’schen These, noch konnte er freilich seine Vermessungen im Urwald vornehmen – vielmehr musste er hierzu die Anden nahe Quito besteigen).        Charles Marie de La Condamine 1753 Die Erfindung des Meters Franzosen waren es auch, die während der Französischen Revolution   das uns heute vertraute Metrische System mit Meter, Kilogramm und Liter erschufen, das infolge seinen weltweiten Siegeszug antreten konnte. Anders als die bislang etablierten lokalen und regionalen Maßsysteme, die sich wie Zoll, Elle, Fuß oder Yard oftmals aus Körperteilen ableiteten, sind im metrischen System alle Einheiten konsequent dezimale Teile oder Vielfache der Basiseinheit. Der Meter, als Basiseinheit für die Länge, wurde, dem französischen Rationalismus   folgend 1793 als der zehnmillionste Teil der Entfernung zwischen Äquator und Nordpol definiert – selbstverständlich basierend auf dem Meridian-Abschnitt, der durch Paris verlief.   Der geniale Einfall des Herrn Mercator – und sein Preis Gehen wir noch einmal zurück in die Renaissance   und betrachten einen ganz anderen Aspekt der Vermessung der Welt. 1569 gelang nämlich dem aus Flandern eingewanderten Duisburger Gerhard Mercator  ein ganz besonderer Coup. Er erschuf eine Weltkarte, die die gekrümmte dreidimensionale Erdoberfläche auf eine zweidimensionale Karte übertrug. Dazu stülpte er einen Zylinder über die Erdkugel, dessen Mitte die Kugel genau am Äquator berührte. Anschließend übertrug er die Küstenlinien und Ländergrenzen von der Kugel auf den Zylinder. Rollt man den Zylinder auf, hält man eine rechteckige Weltkarte in den Händen – jener Blick auf unseren Planeten , der uns heute am meisten vertraut ist. Seefahrer hatten damit nun praktikable Karten, die es den Navigatoren erlaubten, den Kurs des Schiffes einfach mit einem Lineal einzuzeichnen. Das Ganze hatte allerdings seinen Preis: Durch Mercators Methode vergrößerten sich die Breiten, je näher sie den Polen kamen. Dadurch verzerrten sich die Flächen je weiter sie vom Äquator entfernt waren. Der Vergleich zwischen Afrika und Grönland macht das Problem deutlich: Auf Mercators Karte erscheint die Insel in Norden als fast gleichgroß wie der Kontinent Afrika. In der Realität aber ist Afrika rund 14-mal größer als Grönland. Die Verzerrung ist tatsächlich ziemlich dramatisch.          Mercators Projektion Hier sieht man das Problem, das Mercator uns bescherte... Positionsbestimmung heute         Während ich diese Zeilen schreibe, befinde ich mich übrigens gerade auf 47,61° N und 7,50° E. Das heißt einigermaßen zwischen dem 47. und dem 48. nördlichen Breitengrad und zwischen dem 7. und 8. Längengrad östlich von Greenwich.   Wenn ich jetzt über Handy meinen Standort teile, werden genau diese Koordinaten übermittelt. Die Ortsbestimmung per GPS gibt es heute auf jedem Mobiltelefon. Sie erfolgt mithilfe von Satelliten, die in etwa 20.000 km Höhe die Erde umkreisen. Dabei wird ein Aspekt von Raum und Zeit berücksichtigt, den wir erst seit 120 Jahren kennen. 1905 verhalf uns Albert Einstein   mit seiner speziellen Relativitätstheorie  zu der Erkenntnis, dass die Zeit davon abhängt, wie schnell man sich bewegt; zwölf Jahre später veröffentlichte er seine allgemeine Relativitätstheorie , die besagt, dass auch die Schwerkraft die Zeit beeinflusst. Dies müssen die GPS-Satelliten berücksichtigen: Sie bewegen sich schnell und auf sie wirkt eine deutlich geringere Schwerkraft als auf der Erdoberfläche. Ohne diesen Herren würde unser GPS nicht funktionieren Bedingt durch ihre Geschwindigkeit gehen die Atomuhren   in den Satelliten ca. 7 Mikrosekunden pro Tag langsamer; durch die geringere Erdanziehung hingegen gehen sie etwa 45 Mikrosekunden pro Tag schneller. Würde GPS diesen Saldo von 38 Mikrosekunden nicht berücksichtigen, läge die Positionsbestimmung bereits nach einem Tag schon mehrere Kilometer daneben.        Ein letzter, ganz und gar subjektiver Blick auf die Vermessung der Welt Nicht nur Gerhard Mercator hat dafür gesorgt, dass wir ein ziemlich verzerrtes Bild von der Welt haben. Wir haben auch ganz persönliche durch Erfahrung, Wissen, Kultur, Emotionen   oder Medien geprägte innere Vorstellungen der Geographie, die von der physischen Realität weit entfernt sein können: der Norden ist immer oben, obwohl es auf einer Kugel kein Oben und Unten gibt; wir sind es gewohnt, Europa immer in der Mitte zu sehen. Aber natürlich ist eine Karte bei der Süden oben ist und China und Australien im Zentrum stehen genauso richtig. Die Welt steht Kopf - warum auch nicht? Mein ganz persönlicher Kompass sagt mir, dass für mich der Norden bei Hannover beginnt; für jemand anderen mag dies mit Frankfurt am Main, Benrath, Kassel, Buxtehude, Hamburg oder Kopenhagen verbunden sein; von Goethe wissen wir, dass er gesagt haben soll, dass Italien an der hessischen Bergstraße beginnt – das ist unsere gefühlte Geographie.   Wer mehr wissen will: Aristoteles über die Kugelgestalt der Erde – De caelo II, 14 Kehlmann, Daniel (2006): „Die Vermessung der Welt“, rohwolt Aristoteles in Meteorologica II, 5 The Clock that changed the World - Dokumentation über Harrisons Erfindung (Englisch auf Youtube)   Bildnachweise: Eratosthenes Erdvermessung Martin Behaims Erdapfel von ca. 1492 Mercator Projektion Die Welt auf dem Kopf [i] Eine kleine  Ungenauigkeit ergibt sich auch aus der Tatsache, dass Syene nicht exakt auf demselben Längengrad liegt, wie Alexandria. [ii] Nach Cassini und dessen Vater Domenico wurde ein Mondkrater benannt; Domenico Cassini ist zudem Co-Namensgeber der Cassini-Huygens-Raumsondenmission zum Planeten Saturn.

  • Geschichte der Menschheit: die Zeit der Ismen (Teil 2): 1900 bis 1945

    Fortsetzung von: Geschichte der Menschheit: die Zeit der Ismen (Teil1): 1840 bis 1900 Deutschland wird Großmacht Drei Ismen – Nationalismus , Imperialismus und Militarismus  – gehen zu Beginn des 20. Jahrhunderts eine unheilvolle Allianz ein. In Deutschland geht diese Entwicklung mit einem rasanten Aufstieg einher, der nach der Nationalstaatsgründung die seit dem 18. Jahrhundert bestehende europäische Machtbalance entscheidend verändert. Die einstige kleine Großmacht Preußen ist in dem viel größeren und sich nun rasch industrialisierenden Deutschen Reich aufgegangen. Seit Anfang der 1890er Jahre herrscht eine langanhaltende Hochkonjunktur. Zwischen 1871 und 1914 verdoppelt sich das pro-Kopf BIP auf 3.648 Dollar; die deutsche Bevölkerung zählt nun 65 Millionen Menschen. Die verspätete Nation hat sich mit einer eigentümlichen Mischung aus technischer Fortschrittlichkeit  und politischer Rückständigkeit in der Hierarchie der europäischen Mächte auf den zweiten Platz nach Großbritannien geschoben. Die Bismarck-Jahre sind einerseits von innenpolitischen Spannungen der protestantischen Elite mit Sozialdemokraten und Katholiken geprägt, andererseits von außenpolitischer Zurückhaltung. Nachdem der junge Kaiser Wilhelm II den alten Reichskanzler 1890 aus dem Amt gedrängt hat, kehren sich die Prioritäten um. Nach Innen verfolgt die neue Reichsregierung nun einen Kurs gesellschaftlicher Befriedung, nach Außen betreibt sie jedoch eine aggressive Kolonial- und Flottenpolitik, die insbesondere den einstigen Verbündeten Großbritannien verprellt. Frankreich  schließt gegen das aufstrebende Deutsche Reich ein strategisches Bündnis mit Russland , was dessen Nachbarn Österreich-Ungarn wiederum veranlasst, den Schulterschluss mit Deutschland zu suchen.   Das labile Gleichgewicht kippt im Juli 1914, als serbische Nationalisten den österreichischen Thronfolger in Sarajewo ermorden. Drohgebärden, Missverständnisse und Bündniszwänge lösen eine unheilvolle Kettenreaktion aus. Auch die Tatsache, dass der deutsche Kaiser, der englische König und der russische Zar Cousins sind, verhindert nicht, dass am 1. August 1914 der Erste Weltkrieg  ausbricht. Wilhelm Zwo: Cousin des englischen Königs und des russischen Zaren Weltenbrand Die europäischen Großmächte, die die Welt regieren , möchten nun die Machtverhältnisse auch innerhalb des eigenen Kontinents endgültig geklärt wissen. Da der deutsche Aufmarsch gegen Frankreich die belgische Neutralität verletzt, liefert er Großbritannien einen formellen Grund, auf Seiten Frankreichs und Russlands in den Krieg einzutreten. Dieser Entente stehen die Mittelmächte Deutschland, Österreich-Ungarn und das Osmanische Reich  gegenüber. Italien , das sich zunächst neutral verhält, schlägt sich 1915 auf Seiten der Entente. Die Ermordung des österreichischen Thronfolgers und seiner Frau Die von Deutschland gesuchte schnelle Entscheidung im Westen scheitert. Der technische Fortschritt bei den Verteidigungswaffen, insbesondere der Einsatz von Maschinengewehren und Stacheldraht, führt zu einem Stellungskrieg, bei dem sich die Frontverläufe kaum noch verschieben. Es kommt zu nie dagewesenen Materialschlachten , bei denen Menschenmaterial ebenso Teil der Einsatzgleichung ist, wie schwere Artillerie, Giftgas, Flugzeuge und Panzer. 1917 schöpfen die ausgelaugten Mittelmächte noch einmal Hoffnung. Mit einem geschickten Schachzug schleust die deutsche Regierung Wladimir Iljitsch Lenin  (1870-1924) zusammen mit einigen Vertrauten aus dem Schweizer Exil nach Russland ein. Die Dissidenten – wie alle Revolutionäre Angehörige einer kleinen gebildeten bürgerlichen Elite – entfachen die Oktoberrevolution ; das Zarenreich scheidet damit aus dem weltweiten Ringen aus. Doch noch im selben Jahr besiegelt der Kriegseintritt der USA auf Seiten der Entente das Schicksal Deutschlands und seiner Verbündeten – es ist der Beginn des amerikanischen Zeitalters. Im November 1918 müssen die Mittelmächte kapitulieren. Britische und deutsche Soldaten verbrüdern sich verbotenerweise Weihnachten 1914 Da der Krieg nicht vom Schnellsten gewonnen werden konnte, geht der Sieg an den Stärksten. [i]  Die ökonomischen Kraftverhältnisse sprechen eine eindeutige Sprache: Deutschland und Österreich-Ungarn repräsentieren am Vorabend der Katastrophe weniger als 20% der weltweiten Industrieproduktion; die Vereinigten Staaten, Großbritannien und Frankreich zusammen hingegen mehr als 50%. [ii]  Auf den Schlachtfeldern Europas sind fast   zehn Millionen junge Männer verblutet; dazu kommen mindestens fünf Millionen Zivilisten, die meisten davon Hungertote. [iii] Demokratische Bestrebungen Gemäß der Versailler Verträge muss Deutschland Gebiete an Frankreich, Belgien und Polen abtreten und umfangreiche Reparationszahlungen an die Siegermächte leisten. Die verbündeten Vielvölkerstaaten Österreich-Ungarn und das Osmanische Reich werden zerschlagen; in Südosteuropa entstehen die Ungarische und die Tschechoslowakische Republik sowie das Königreich Jugoslawien; Rest-Österreich wird der gewünschte Anschluss an das Deutsche Reich von den Siegermächten verwehrt. Im Nahen Osten teilen sich Großbritannien und Frankreich die Konkursmasse der Osmanen. Dass sie bei der Grenzziehung keinerlei Rücksicht auf die verschiedenen Ethnien, Kulturen und religiösen Strömungen nehmen, birgt den Keim zahlreicher künftiger Konflikte in der Region. Der Erste Weltkrieg verändert aber nicht nur Staatsgrenzen, sondern auch die westlichen Gesellschaften. Seit der Antike waren selbst Demokratien immer nur eine Herrschaft von Minderheiten. Erst jetzt beginnen sie echte Mehrheiten zu repräsentieren. Während vor dem Großen Krieg weltweit nur Neuseeland (1893) und Finnland (1906) das Frauenwahlrecht eingeführt hatten, bewirkt die Tatsache, dass Millionen Frauen während des Krieges an der Heimatfront Männerarbeit übernommen hatten, nun ein allgemeines Umdenken. In Österreich-Ungarn erhalten Frauen unmittelbar nach Kriegsende das Wahlrecht ; Deutschland folgt 1919, die USA 1920; Großbritannien vollzieht die uneingeschränkte politische Gleichstellung 1928; nur in Frankreich gelingt es einer merkwürdigen Allianz aus katholischer Kirche und Radikal-Sozialistischer Partei das Frauenwahlrecht noch bis 1945 zu verhindern. [iv] Umsturz in Russland In Russland mündet die Revolution in einen Bürgerkrieg, in dem sich schließlich die Kommunisten durchsetzen. Die 1922 aus dem russischen Kolonialreich hervorgegangene Sowjetunion  erhebt erstmals die marxistische Theorie zur Staatsdoktrin. Die erste sozialistische Ordnung ist nicht wie von Karl Marx  vorhergesagt aus einer kapitalistischen Gesellschaft  hervorgegangen, sondern aus einem rückständigen Feudalstaat .  Doch das neue Regime verheißt den lange unterdrückten Volksmassen weder Gleichheit noch Freiheit  – der sozialistische Mensch soll sich stattdessen selbstlos dem Wohl der Allgemeinheit unterwerfen. Josef Stalin  (1878-1953), der 1924 nach Lenins Tod den Machtkampf gegen Leo Trotzki  gewinnt, intensiviert die unter seinem Vorgänger begonnene Politik der Zerstörung traditioneller gesellschaftlicher Strukturen. Millionen Menschen – Intellektuelle, ehemalige Adelige, Angehörige des Offizierskorps aber auch einfache Bauern – die verdächtigt werden, dem Aufbau der neuen Gesellschaft im Wege zu stehen, fallen Säuberungsaktionen zum Opfer. Ökonomisch setzt der Diktator auf eine rasche Industrialisierung des zurückgebliebenen Landes. 1928 werden Fünfjahrespläne eingeführt, die Investitionen, Produktion, Preise und Löhne zentral festlegen. Der Aufbau der Schwerindustrie gelingt. Die Zwangskollektivierung der Landwirtschaft schlägt hingegen grausam fehl: Anfang der 1930er Jahre verhungern in der Sowjetunion schätzungsweise zwischen drei und sieben Millionen Menschen, die meisten davon in der Unionsrepublik Ukraine.   Revolution in Russland Großmachtträume am Mittelmeer Auch Italien  wird zu einem totalitären Staat. Obwohl das Land im Weltkrieg auf Seiten der Siegermächte stand, erhält es nicht alle vorab versprochenen Gebiete, so dass sich viele Italiener um die Früchte des Sieges betrogen fühlen. In bürgerlichen Kreisen fürchtet man sich zudem vor einer kommunistischen Revolution nach russischem Vorbild. Vor diesem Hintergrund kommt 1922 der ehemalige Sozialist Benito Mussolini  an die Macht. Ebenso wie der Sozialismus, möchte auch der von ihm begründete Faschismus einen neuen Menschen schaffen. Das durch Individualismus, Liberalismus und Religion verweichlichte Volk soll von einer „Gesellschaft“ in eine durch solidarische Ideale getragene „ Gemeinschaft “ zurückverwandelt werden. Letztliches Ziel ist es, die Menschenmassen durch diese „anthropologische Revolution“ mit dem totalitären Staat zu verschmelzen. [v]  Außenpolitisch gibt sich Mussolini dem Traum hin, im östlichen Mittelmeer ein neues Römisches Reich  zu errichten. Weimar Deutschland erhält erstmals in seiner Geschichte eine demokratische Verfassung. Die alte autokratische Herrschaftsstruktur ist nun zwar beseitigt, doch die Weimarer Republik wird von den Wenigsten geliebt; von Anfang an kämpfen auch linke und rechte Ideologen um die Macht. Die Zuweisung der alleinigen Kriegsschuld durch die Siegermächte und die damit verbundenen hohen Reparationsforderungen, vor allem aus Frankreich, werden von der Bevölkerung als Unrecht empfunden. Der Staat versucht den Ansprüchen der Siegermächte mit Hilfe der Notenpresse zu entkommen, was dazu führt, dass im Oktober 1922 die Mark nur noch den tausendsten Teil ihres Vorkriegswertes aufweist. Als Deutschland die Lieferquoten für Rohstoffe und Industriegüter nicht mehr im vereinbarten Umfang erfüllt, besetzen französische und belgische Truppen das Ruhrgebiet. Die Scheine, die die deutsche Regierung nun zusätzlich drucken lässt, um den passiven Widerstand der streikenden Ruhrbevölkerung zu finanzieren, führen 1923 zu einem völligen Zusammenbruch des Geldsystems. Mitte November, am Höhepunkt der Hyperinflation , beträgt das Porto für einen Brief 10 Milliarden Mark. Wenn ich einmal reich wär: Inflationsgeld, das ich von meiner Oma bekommen habe; sie sagte mir damals: Ich habe das aufgehoben, weil ich gedacht habe, das glaubt uns hinterher kein Mensch mehr. Nach der Währungsreform von 1924 tritt eine Phase relativer Stabilität und wirtschaftlichen Aufschwungs ein. Doch Ende 1929 wird Deutschland mit voller Wucht von der Weltwirtschaftskrise   getroffen. Vier Jahre später ist jeder Dritte arbeitslos. Die Nationalsozialistische Deutsche Arbeiterpartei, eine rechtsradikale Splittergruppe, die noch im Mai 1928 lediglich 2,6% der Stimmen errang, erhält bei den Reichstagswahlen im März 1933 nun Zuspruch von 43,9% aller Wähler. Der rasante Aufstieg ist nicht nur den schwierigen wirtschaftlichen Umständen geschuldet, sondern auch der Persönlichkeit des Parteivorsitzenden Adolf Hitler . Der aus kleinbürgerlichen Verhältnissen stammende Weltkriegsgefreite ist ein außerordentlich begabter Agitator und Redner, der die erfolgreichen Methoden der italienischen Faschisten übernimmt, insbesondere auch deren Führerkult. Anders als das italienische Vorbild zeichnet sich die Ideologie der NSDAP zudem durch einen fanatischen Antisemitismus  aus. Machtergreifung Als nationalkonservative Kreise im Januar 1933 die Ernennung Hitlers zum Reichskanzler einfädeln, sind sie noch in dem Glauben, den Emporkömmling kontrollieren zu können. Doch Hitler gelingt es, innerhalb von nur vier Monaten sämtliche demokratische Grundrechte auszuhebeln. Die Kommunistische Partei wird verboten; die bürgerlichen Parteien stimmen einem Ermächtigungsgesetz zu, das die Gewaltenteilung faktisch aufhebt. Als die SPD, als einzige noch im Parlament vertretene Oppositionspartei, gegen die Ermächtigung stimmt, wird auch sie verboten; die freien Gewerkschaften werden aufgelöst, die bürgerlichen Parteien kommen diesem Schicksal durch Selbstauflösung zuvor. Als Hitler nach dem Tod des Reichspräsidenten Hindenburg 1934 dessen Amt und damit auch die Kontrolle über die Streitkräfte übernimmt, sind NSDAP und Staat ein und dasselbe. Wie im Faschismus und Kommunismus soll sich auch im Nationalsozialismus ein „neuer Mensch“ der Gemeinschaft vollständig unterwerfen. Andersdenkende werden rücksichtslos terrorisiert. Oppositionelle verschwinden in Gefängnissen und Konzentrationslagern; Juden  werden durch zunehmende Repressalien die materiellen Lebensgrundlagen entzogen. Wenn dieses Vorgehen von der schweigenden Mehrheit toleriert wird, dann nicht zuletzt deshalb, weil die neuen Machthaber bedeutende Erfolge vorweisen können: Die Folgen der Weltwirtschaftskrise werden mithilfe eines keynesianischen Investitionsprogramms  rasch überwunden; die Aufrüstung der Nationalsozialisten setzt sich über die Versailler Verträge hinweg; 1936 wird das entmilitarisierte Rheinland besetzt; im März 1938 erfolgt der Anschluss Österreichs; sechs Monate später – mit Zustimmung Frankreichs und Großbritanniens – die Angliederung des Sudetenlands. Münchner Konferenz: Großbritannien und Frankreich versuchen mit Appeasement den drohenden Konflikt abzuwenden. Links neben Hitler die englischen und französischen Regierungschefs Chamberlain und Daladier; rechts Mussolini. Ende 1938 steht Hitler daher auch bei vielen Deutschen im hohem Ansehen, die den Nationalsozialismus zunächst ablehnten. Erst, als im März 1939 die Wehrmacht auch den Rest der Tschechei besetzt, wird vielen Menschen im In- und Ausland bewusst, dass Hitler Pläne verfolgt, die über die Revision von Versailles und die Eingliederung deutschsprachiger Minderheiten hinausgehen. Der Zweite Weltkrieg: die größte Katastrophe der Menschheit Am 1. September 1939 überfällt Deutschland Polen. Es ist der erste Schritt auf dem Weg zu Hitlers großem Ziel, der überlegenen „arischen Rasse“ Lebensraum im Osten zu sichern. Nach Vorstellung der nationalsozialistischen Führer ist Deutschland zu klein, um seine Bevölkerung dauerhaft ernähren zu können. Zwei Tage später erklären Großbritannien und Frankreich Deutschland den Krieg. Nach Polen fallen Dänemark und Norwegen im Handstreich– ihre Besetzung dient allein dem Zweck, die Versorgung der deutschen Rüstungsindustrie mit schwedischem Erz zu sichern. Im Frühjahr 1940 feiert das Regime seinen größten Triumph, als die Wehrmacht in wenigen Wochen Frankreich und die als Aufmarschgebiet dienenden Benelux-Staaten überrennt. Anders als im Ersten Weltkrieg dominieren diesmal mit Panzern und Flugzeugen hochmobile Angriffswaffen das taktische Geschehen auf den Schlachtfeldern. Deutschland hat mit der Sowjetunion wenige Tage vor Kriegsausbruch einen Nichtangriffspakt unterzeichnet; als letzter Gegner verbleibt somit nur noch Großbritannien. Der Versuch, die Lufthoheit über die Briten zu erringen, um eine Invasion der Insel vorzubereiten, führt zur ersten deutschen Niederlage. Dessen ungeachtet stellen sich im Juni und September 1940 Italien und Japan an die Seite des Aggressors, zwei Mächte, deren imperialistische Großmachtambitionen auf den Balkan, Afrika und Südostasien gerichtet sind. Am 22.Juni 1941 beginnt der Angriff auf die Sowjetunion ; ihre Eroberung ist das eigentliche deutsche Kriegsziel - hier sind die endlosen Weiten, die das deutsche Volk besiedeln soll. Der Feldzug, von Anfang an als Vernichtungskrieg gegen die „bolschewistisch-jüdische Weltverschwörung“ geplant, konfrontiert zwei totalitäre Staaten, deren Ideologien sich vor allem in ihrer jeweiligen Betrachtungsweise historischer Determinismen unterscheiden: Für die Sowjets ist die Geschichte der Kampf zwischen gesellschaftlichen Klassen; für die Nationalsozialisten ein naturgesetzliches Ringen zwischen Rassen. In diesem Kampf der Ideologien schätzt das Oberkommando der Wehrmacht die Sowjetunion im Vergleich zu Frankreich als den vergleichsweise leichteren Gegner ein. Die Führer des deutschen Militärs haben als junge Offiziere im Ersten Weltkrieg die überraschende Schwäche der russischen Armee erlebt; zudem wissen sie, dass die meisten erfahrenen sowjetischen Offiziere den stalinistischen Säuberungen der 1930er Jahre zum Opfer gefallen sind. Der verlustreiche, schlecht geführte Angriff der UdSSR auf das kleine Finnland Ende 1939 scheint diese Annahmen zu belegen. Deutsche Soldaten beim Anlegen eines Friedhofs in der Sowjetunion Doch die Einschätzung erweist sich als zu optimistisch. Der geplante Blitzkrieg  scheitert, als die UdSSR im Dezember mit Hilfe frischer und für den Winter gut ausgerüsteter sibirischer Truppen den deutschen Vormarsch kurz vor Moskau stoppen kann. Richard Sorge , ein Agent an der deutschen Botschaft in Tokio hat die Sowjets über den Beschluss des japanischen Kronrats informiert, statt Sibirien, Südostasien anzugreifen. Hintergrund des japanischen Strategiewechsels ist ein von den USA und Großbritannien im Juli 1941 verhängtes Embargo, infolgedessen das Inselreich rund 90% seiner Ölimporte verliert. Als Japan im Dezember 1941 deshalb statt der Sowjetunion die amerikanische Pazifikflotte attackiert, ist der Ausgang des Krieges bereits besiegelt. Wie im letzten Konflikt haben die Schnellen ihre Chance verspielt; erneut entscheidet nun das ökonomische Kräfteverhältnis. Während Deutschland und seine Verbündeten weiterhin weniger als 20% an der Welt-Industrieproduktion von 1938 repräsentieren, können die USA, die Sowjetunion und Großbritannien gemeinsam rund 55% in die Waagschale werfen. [vi]  Auch dieser Krieg wird noch jahrelang weitergehen, doch am Ende sind Stahl, Treibstoff und Bruttoregistertonnen wichtigere Argumente als der feste Glaube an eine überlegene Ideologie. Auf der Konferenz von Jalta beschließen die Siegermächte bereits Monate vor Kriegsende eine neue Weltordnung Hinter den zurückweichenden Fronten ermorden die deutschen Besatzer planmäßig Millionen Juden, Sinti, Roma und Regimegegner. Im September 1943 kapituliert Italien, im Mai 1945 Deutschland und im August desselben Jahres schließlich Japan, nachdem zwei amerikanische Atombomben wenige Tage zuvor die Großstädte Hiroshima und Nagasaki ausradiert haben. Der Griff der drei „verspäteten Nationen“ nach der Macht ist fehlgeschlagen. Der schrecklichste Krieg der Menschheitsgeschichte hat zwischen 70 und 80 Millionen Tote gefordert, fast zwei Drittel davon sind Zivilisten.   Den Blog entdecken   Wer mehr wissen will: Kennedy, Paul (2000): „Aufstieg und Fall der großen Mächte“, Fischer. Ulrich, Volker (2025): „Deutschland 1923 – Das Jahr am Abgrund“, C.H. Beck. Gentile, Emilio (2015): „Der „neue Mensch“ des Faschismus. Reflexionen über ein totalitäres Experiment“ in: „Der Faschismus in Europa“ Hrsg. von Thomas Schlemmer und Hans Woller, De Gruyeter Oldenburg. Bildnachweise: Münchener Abkommen 1938 Deutscher Soldatenfriedhof in der Sowjetunion Anmerkungen: [i] Vgl. Kennedy (1996) S. 390. [ii]  Vgl. Kennedy (1996) S. 411. [iii] Unmittelbar nach dem Krieg fielen zudem weltweit weitere geschätzte 17 bis 50 Millionen Menschen der Spanischen Grippe zum Opfer. [iv] Dahinter stand auf beiden Seiten die Befürchtung, dass sich durch das Frauenwahlrecht die politischen Mehrheiten zu Ungunsten des eigenen Lagers verschieben könnten. [v] Vgl. Gentile (2015) S.103. [vi]  Vgl. Kennedy (1996) S.496.

  • Geschichte der Menschheit: Die Zeit der Ismen (Teil1): 1840 bis 1900

    Fortsetzung von „Der Aufstieg des Kapitals“   Die Zeit der Ismen Zwischen 1840 und 1945 werden Europa   und Nordamerika ihre militärische, politische, ökonomische und technologische Überlegenheit skrupellos ausspielen und sich dabei fast den ganzen Rest der Welt untertan machen. Zugleich wird der Westen durch nie dagewesene militärische und soziale Konflikte erschüttert. Es ist die Zeit von Nationalismus, Kolonialismus, Imperialismus, Rassismus, Sozialdarwinismus, Militarismus, Kommunismus, Faschismus und  Nationalsozialismus .   Eine neue Fünferkonstellation Das Königreich Preußen , nach Großbritannien , Frankreich , Russland und Österreich-Ungarn die kleinste unter den fünf europäischen Großmächten, nutzt drei kurze Kriege – 1864 gegen Dänemark, 1866 gegen Österreich und 1870-1871 gegen Frankreich – um seine Vormachtstellung innerhalb Deutschlands auszubauen. Der preußische Ministerpräsident Otto von Bismarck  (1815-1898) wird 1871 zum Architekten des ersten deutschen Nationalstaats: Preußens König Wilhelm I wird Deutscher Kaiser, Bismarck selbst Reichskanzler. Der alte Erzrivale Österreich wird nicht Teil des neuen Staatsgebildes. Im selben Jahr vereinigt Guiseppe Garibaldi  (1807-1882) erstmals auch ganz Italien zu einem Königreich. In allen europäischen Staaten erhält der Nationalismus Auftrieb. Die Völker Europas nehmen sich nun mehr und mehr als ethnisch-kulturell definierte Schicksalsgemeinschaften wahr. Auch der einst kosmopolitische europäische Adel, durch vielfache dynastische Beziehungen miteinander verflochten, kann sich dem neuen Gefühl nicht verschließen. Nicht selten degeneriert der Nationalismus zum Chauvinismus: Die großen europäischen Mächte erheben für sich jeweils den Anspruch, zivilisatorisch höher zu stehen als ihre Nachbarn. In Frankreich entsteht 1871 der deutsche Nationalstaat - Otto von Bismarck steht nicht zu Unrecht in der Bildmitte   Europas Griff nach der Welt Miteinander verbunden sind die Europäer jedoch in ihrer Gewissheit, dem Rest der Welt überlegen zu sein. Die offenbare Dominanz ihrer Errungenschaften begründet ein Denken, das in der zweiten Hälfte des 19. Jahrhunderts den Weg zu Kolonialismus und Imperialismus ebnet. Kolonien sind sowohl zollfreie Rohstofflieferanten als auch Absatzmärkte, so dass alle Industrieländer  nun bestrebt sind, sich den größtmöglichen Anteil an der Welt zu sichern. Das größte Kolonialreich schaffen die Briten : Neben Kanada, Australien und Neuseeland, in denen britische Auswanderer die Bevölkerungsmehrheit stellen, gehören dazu große Gebiete im Osten und Süden Afrikas, auf der arabischen Halbinsel, in Südostasien und vor allem Indien. Insgesamt herrschen die Briten über annähernd ein Viertel der Welt. Die Franzosen, als zweitgrößte Kolonialmacht, bringen fast ganz Nordwestafrika sowie Indochina unter ihre Kontrolle. Russland  unterwirft Zentralasien, den Kaukasus und das riesige Sibirien und wird dadurch zum größten Land der Erde. Auch Österreich-Ungarn kolonisiert lieber vor der eigenen Haustür und weitet seinen Einflussbereich in Richtung Balkan aus. Im Spanisch-Amerikanischen Krieg von 1898 berauben die USA mit Kuba, Puerto Rico, Guam und den Philippinen das einst mächtige Spanien seiner letzten nennenswerten Kolonien. Auch kleine Länder wie Belgien und Portugal  sind mit dabei und sichern sich große Teile des afrikanischen Kontinents. Belgisch Kongo etwa ist rund 70-mal so groß wie das „Mutterland“. Deutschland  und Italien , die beiden verspäteten Nationen, kommen auch bei der Verteilung der Welt zu spät. Deutschland erhält vier verstreute Kolonien in Afrika sowie Teile von Neuguinea und einige Mikronesische Inseln; Italien eignet sich Libyen und das Horn von Afrika an. Das Osmanische Reich , die einzige nichteuropäische Kolonialmacht, gehört zu den Verlierern der europäischen Expansion. Russland unterstützt die Aufstände der orthodoxen Bevölkerung auf dem Balkan gegen die türkische Herrschaft. Bis zum Anfang des 20. Jahrhunderts verliert das Osmanische Reich seine ausgedehnten Besitzungen in Südosteuropa und Nordafrika und hält nun nur noch Teile des Nahen Ostens unter seiner Kontrolle.   Krieg um Opium Für die alten Machtzentren China  und Japan  verläuft die Konfrontation mit dem westlichen Expansionsdrang anders als für den Rest der Welt. Als die Briten beginnen, im großen Stil chinesischen Tee zu importieren, die Chinesen aber kein Interesse am Import britischer Güter zeigen und für den Tee in Silber bezahlt werden möchten, kommt es zum Konflikt. Da die Silberproduktion infolge der lateinamerikanischen Unabhängigkeitskriege der 1820er Jahre drastisch zurückgegangen ist, beginnt die britische Ostindien-Kompanie  im großen Stil indisches Opium nach China zu schmuggeln. Opiumraucher im China des 19. Jahrhunderts Mit den Gewinnen aus dem Rauschgifthandel – die Drogen müssen in Silber bezahlt werden – sollen die Teeimporte finanziert und der Abfluss der eigenen Reserven des knappen Metalls in das Reich der Mitte verhindert werden. Ein Szenario, das deutlich macht, wie weit die Verflechtung der Weltwirtschaft seit Beginn der Neuzeit bereits fortgeschritten ist. Als der chinesische Kaiser Daoguang entschlossen gegen den rasch wachsenden Drogenhandel vorgeht, kommt es 1839 zum Opiumkrieg . Großbritannien entsendet eine verhältnismäßig kleine Streitmacht. Britische Raddampfer – sie gehören der Ostindien-Kompanie und nicht etwa der Royal Navy – schießen 1841 bei Kanton eine Flotte chinesischer Kriegsdschunken zusammen, deren Konstruktion sich seit der Zeit Zheng Hes kaum verändert hat. Auch zu Lande sind die nur mit Pfeil und Bogen, bestenfalls mit Kopien portugiesischer Luntenschlossflinten aus dem 16. Jahrhundert ausgestatteten kaiserlichen Truppen hoffnungslos unterlegen. Im Vertrag von Nanking erfährt China 1842 eine Demütigung sondergleichen. Es muss die britischen Kriegskosten erstatten, die Insel Hongkong abtreten, sowie eine Entschädigung für das vernichtete Opium bezahlen. Das Land wird gezwungen, sich dem europäischen Außenhandel zu öffnen und verliert damit faktisch seine staatliche Souveränität. Die Niederlage erschüttert die Machtposition der ohnehin nicht populären Qing-Kaiser. Da grundlegende Reformen ausbleiben kommt es zu Unruhen. Der Taiping-Aufstand , ein von 1851 bis 1864 währender Bürgerkrieg, fordert 20 bis 30 Millionen Tote. Um die Jahrhundertwende wird der Boxeraufstand , die Erhebung eines chinesischen Geheimbunds gegen die Imperialmächte, durch die Intervention sechs europäischer Staaten und der USA niedergeschlagen. Erst 1912 gelingt es dem Revolutionär und Gründer der nationalkonservativen Kuomintang-Partei Sun Yat-sen  (1866-1925), die Herrschaft der Qing-Kaiser zu beenden und die Republik auszurufen. Er legt damit den Grundstein für das moderne China und für eine künftige Weltmacht.   Sonderfall Japan Mit einer nicht minder rabiaten Kanonenbootpolitik  erzwingen ab 1853 die USA die Öffnung Japans und offenbaren so die Schwäche der Tokugawa-Dynastie , die daraufhin nach 250-jähriger Herrschaft abdanken muss. Die schwarzen Schiffe des Commodore Perry erzwingen 1853 die Öffnung Japans Die Reformen, die der neue Kaiser Mutsuhito  umgehend einleitet, führen das Land in eine völlig andere Richtung als China. Das vormals isolierte Inselreich macht sich innerhalb weniger Jahrzehnte westliche Technologien zu eigen, ohne dabei die eigene traditionelle Lebensweise aufzugeben. Japan wird selbst zu einer aggressiven imperialistischen Kolonialmacht, die sich aktiv an der Seite des Westens an der Unterdrückung des Boxeraufstands beteiligt. Die Welt horcht auf, als die Japaner 1905 die Großmacht Russland zu Lande und zu Wasser schlagen und damit ihren Anspruch auf die Mandschurei und Korea absichern. Heroisierende japanische Darstellung des Kriegs gegen Russland Am Ende des 19. Jahrhunderts zeigt der westliche Imperialismus seine ganze Hässlichkeit. Im Kongo , von König Leopold II zu einer Art Privatkolonie eines belgischen Konzerns gemacht, werden unvorstellbare Gräuel verübt, denen Millionen Kongolesen zum Opfer fallen. Erreichend die Einwohner eines Dorfes nicht die geforderte Abgabequote für Kautschuk, werden zur Strafe Geiseln ermordet oder Hände und Füße abgehackt. Gefangene Herero um 1900 In Deutsch-Südwestafrika wird 1904 der Aufstand der Herero  niedergeschlagen; tausende Angehörige des Nomadenvolks werden in die Wüste getrieben und müssen dort verdursten.   Die kolonisierte Welt 1898 Auch Kolonialismus und Rassismus brauchen eine Begründung Der Westen, Wiege der Menschenrechte , tritt diese Rechte außerhalb Europas mit Füßen – ein Widerspruch, der nach einer wissenschaftlichen Auflösung verlangt. Liefern wird sie der Franzose Joseph Arthur de Gobineau , der 1855 seinen „Versuch über die Ungleichheit der Menschenrassen“ veröffentlicht. Kern der These ist eine behauptete intellektuelle Überlegenheit der Weißen über Menschen anderer Hautfarbe. Joseph Arthur de Gobineau Würde sie sich mit den „minderwertigen" Gelben und Schwarzen vermischen, würde dies zum Niedergang der weißen Rasse führen. Doch auch innerhalb der Klasse weißer Herrenmenschen erkennt Gobineau eine Hierarchie, an deren Spitze Menschen mit nordisch-arischem Blut stehen. Darwins  Evolutionstheori e  gibt solchen Ideen ab 1859 weiteren Auftrieb. Bedenkenlos die Unterschiede zwischen biologischer und kultureller Evolution ignorierend, übertragen Wissenschaftler und Kolonialpolitiker die Vorstellung der „Erhaltung von bevorzugten Rassen im Lebenskampf“ auf den Menschen. Die Sozialdarwinisten leiten daraus das „Recht des Stärkeren“ ab, dem Schwächeren seinen Willen aufzuzwingen. Darwins Cousin Francis Galton  und der Deutsche Biologe Ernst Haeckel  verbinden Gobineaus Vermischungstheorie mit einem sozialdarwinistischen Biologismus und werden so zu Wegbereitern der Eugenik , die durch rassenhygienische Maßnahmen privilegiertes Erbgut schützen und verbessern möchte. Kolonialisten, wie der spätere englische Literaturnobelpreisträger Rudyard Kipling  folgen einer anderen Argumentation. Francis Galton 1840 Er deutet den Imperialismus in eine ethische Verantwortung um, eine als „Bürde“ aufzufassende Vormundschaftsrolle, die der weiße Mann auf sich nehmen müsse, um die kindlichen Menschen in den Kolonien zu entwickeln. [i]     Das 19. Jahrhundert – eine atemberaubende Entwicklung Der Rückblick auf das vergangene Jahrhundert offenbart nie dagewesene Veränderungen: 1782 wurde im Kanton Glarus Anna Göldi  als letzte Hexe hingerichtet. 1905 stellt Albert Einstein , ebenfalls in der Schweiz, die spezielle Relativitätstheorie  auf. Während der 123 Jahre, die die beiden Ereignisse trennen, toben Französische Revolution und Napoleonische Kriege , beginnt das Zeitalter der fossilen Brennstoffe , werden Eisenbahn, Dampfschiff, Telekommunikation, Fotographie, Straßenbeleuchtung, Automobil und Flugzeug erfunden, entstehen Menschenmassen und Massenmärkte , werden Zellen , Keime und die Periodizität der Elemente  entdeckt, Evolutions - und Quantentheorien aufgestellt, die Ökonomie mathematisiert, der fürsorgliche Staat aus der Taufe gehoben, die Geistes- und Sozialwissenschaften und eine Vielzahl von Ismen geboren. Fortsetzung: Die Zeit der Ismen 1900-1945   Den Blog entdecken   Wer mehr wissen will: Kennedy, Paul (2000): „Aufstieg und Fall der großen Mächte“, Fischer.   Bildnachweise: Gefangene Herero   [i]  Rudyard Kipling entwickelt diese Idee in seinem 1899 veröffentlichten Gedicht „The White Man's Burden“.

  • Der Liberalismus schlägt zurück!

    Fortsetzung von: „Makroökonomie: Die sichtbare Hand des Staates“   Hayek vs. Keynes – ein Schlagabtausch Keynes prominentester Gegenspieler in dieser Debatte war der Österreicher Friedrich von Hayek  (1899-1992). Hayek, der an der London School of Economics unterrichtete, war in den 1930er und 1940er Jahren die zentrale Figur des Neoliberalismus , einer Strömung, die sich, ganz in der Tradition Lockes, Humes   und Smiths , scharf gegen jeglichen staatlichen Eingriff wandte. Privat schätzten sich Keynes und Hayek sehr; in der Öffentlichkeit aber lieferten sich die beiden einen aufsehenerregenden Schlagabtausch. Friedrich von Hayek, der erste Popstar des Neoliberalismus In seinem 1945 erschienenen viel beachteten Artikel „The Use of Knowledge in Society“ lieferte Hayek eine umfassende theoretische Begründung für seine Einwände. Demnach hat sich die von Smith beschriebene Arbeitsteilung   infolge der Industriellen Revolution   zu einer Wissensteilung weiterentwickelt. Das Wissen der Welt ist aber nicht die Summe aller wissenschaftlichen Theorien und empirischer Untersuchungen, sondern völlig dezentral in der Gesellschaft auf Millionen von Akteure verteilt. Paradoxerweise sind genau aus diesem Grund Märkte so erfolgreich. Niemand muss alle Bedingungen kennen, damit eine komplizierte Werkzeugmaschine oder auch bloß eine Stecknadel entstehen kann. Es ist der Preismechanismus , der dafür sorgt, dass alle Beteiligten ihr Wissen auf andere Marktteilnehmer übertragen. Nur eine dezentral organisierte Wirtschaft kann sicherstellen, dass Menschen entsprechend ihrer Fähigkeiten eingesetzt, überschüssige Lagerbestände sinnvoll verwendet und Maschinen optimal ausgelastet werden. Fehlt ein Baustein – ein Ersatzteil für die Maschine oder das Wissen, wie sie repariert werden muss – wird der Marktpreis entsprechende Anreize dafür liefern, dass jemand das fehlende Teil herstellt oder die Maschine repariert. Wer auch immer das Problem löst, muss nicht verstehen, warum es entstanden ist. Er muss nur verstehen, welche relative Wichtigkeit das Problem für jemand anderen hat. Die andere Seite signalisiert diese Bedeutung über den Gegenwert, den sie für die Problemlösung herzugeben bereit ist. Das ist die eigentliche Aufgabe des Preissystems. [i]   Spontane Ordnung Dass eine dezentral organisierte Wirtschaft tatsächlich funktioniert, ist für Hayek Ausdruck eines übergeordneten Prinzips, das er als „ spontane Ordnung “ bezeichnet. Die Idee ist nicht neu. Bereits der anarchistische Theoretiker Pierre-Joseph Proudhon , für den Anarchie „Ordnung ohne Macht“ bedeutete, hatte behauptet, dass unter völlig freien Menschen eine solche spontane Ordnung ganz von allein entstehen würde. (Anarchisten und radikale Wirtschaftsliberale haben daher mehr gemeinsam, als man denkt.) Aus diesem Grund ist Hayek auch überzeugt, dass eine zentrale Planwirtschaft nicht funktionieren kann: sie lässt keinen Raum für spontane Ordnung. Ihre Verkünder möchten alles planen und kontrollieren. Es ist aber schlichtweg unmöglich, das verteilte Wissen, die Schwarmintelligenz unzähliger Wirtschaftssubjekte, in einer zentralen Instanz zusammenzuführen. Der sozialistische Anspruch, volkswirtschaftliche Produktions- und Nachfragefunktionen   zentral planen zu können ist eine Allmachtsphantasie, eine Anmaßung, die nie Wirklichkeit werden kann. Aus dieser Überzeugung speist sich Hayeks zentrales Argument gegen die keynesianische Theorie: Sobald der Staat lenkend in ein freies Wirtschaftssystem eingreift, sind dem Sozialismus  Tür und Tor geöffnet. Preissignale können dann eben nicht mehr die unverzerrten Informationen liefern, die alles harmonisch zusammenführen. Zentraler Dirigismus bedeutet letztlich immer, dass die falschen Dinge mit falschen Mengen zur falschen Zeit bereitgestellt werden – eine fatale Situation in einer Welt knapper Ressourcen. Sobald der Staat versucht, Mietpreise zu begrenzen, Wechselkurse durch die Zentralbank   zu fixieren oder Immobilienzinsen künstlich zu verbilligen, verhindert er, dass Preise korrekte Knappheitssignale an den Markt senden, die Fehlentwicklungen ganz von allein korrigieren würden: Potentielle Investoren für neuen Mietraum ziehen sich dann aus dem Immobilienmarkt zurück; die Exportwirtschaft verschläft Strukturreformen; Haushalte erbwerben Immobilien, die sie sich nicht leisten können. Mit alldem ist niemandem geholfen – im Gegenteil. Der Staat soll daher seine Rolle strikt darauf beschränken, die Wettbewerbsordnung aufrechtzuerhalten und Kartelle und Monopole zu verhindern. Eine effektive Koordination können allein freie Märkte sicherstellen.   Was verursachte die Große Depression? Die Ursache der Weltwirtschaftskrise   von 1929 liegt für Hayek nicht in starren Lohnkosten, sondern in einer verfehlten Zinspolitik der amerikanischen Zentralbank. Diese hatte während der Goldenen Zwanziger die Leitzinsen durch eine expansive Geldpolitik auf ein unnatürlich niedriges Niveau gesenkt und Unternehmen, Haushalte und Banken dazu verleitet, hohe Risiken einzugehen. In der dadurch angefachten Hochkonjunktur stiegen mit den Verbraucherpreisen bald auch wieder die Zinsen – schließlich erwarteten die Sparer für ihren Konsumverzicht während des Booms eine angemessene Vergütung. Viele der zunächst mit niedrigen Zinsen kalkulierten Investitionsprojekte lohnten sich nun nicht mehr; eine Gefahr, auf die Hayek bereits 1928 hingewiesen hatte. Dass die Große Depression  ein Jahr später die Welt zu lähmen begann, schien ihm der schlagende Beweis für die Richtigkeit seiner Annahme zu sein. Bis 1931 entwickelte Hayek aus seiner These eine umfassende Konjunkturtheorie. Auf den Nobelpreis, der ihm hierfür zugesprochen wurde, musste er allerdings noch 43 Jahre warten. [ii]   Weltwirtschaftskrise: Menschen stehen vor einem Pfandleihhaus Schlange. Für Hayek war der Staat Ursache des Problems, für Keynes war er   die Lösung. Den öffentlichen Schlagabtausch in den 1930er Jahren verlor Hayek allerdings. Seine radikalliberale Position konnte sich nicht durchsetzen. Keynes Theorie wurde hingegen in zahlreichen Industrieländern schon bald fester Bestandteil der praktischen Wirtschaftspolitik. Der „New Deal“ mit dem Franklin Delano Roosevelt ab 1933 die Politik des unglücklich agierenden Krisenpräsidenten Herbert Hoover erfolgreich ablöste, trug bereits unverkennbar keynesianische Züge. Auch das „Gesetz zur Förderung der Stabilität und des Wachstums der Wirtschaft“ von 1967, das am Ende des westdeutschen Wirtschaftswunders einen Absturz verhindern sollte, atmet den Geist des englischen Ökonomen.   Die steile Karriere des Sozialstaats Nach dem Zweiten Weltkrieg  zeigte sich mehr und mehr, dass die meisten Regierungen, anders als von Keynes vorgesehen, ihre Schulden in guten Jahren nicht zurückzahlten, sondern sich weiter verschuldeten, um damit Wohltaten für die Wähler zu finanzieren. So kletterte bis 2017 die Staatsverschuldung in Frankreich und den USA auf 100% des BIP, in Italien auf 130%, in Japan   auf fast 240%. Das Monopol auf wichtige Dienstleistungen und eine wachsende Schar von Bediensteten ließen den Staat zu einem volkswirtschaftlichen Schwergewicht werden, so dass – ebenfalls auf das Jahr 2017 bezogen – die Staatsquote, das heißt der Anteil staatlicher Leistungen am BIP, in den USA auf 38%, in Deutschland auf 45% und in Frankreich auf 56% anschwoll. (Vergleicht man Frankreich und die USA, findet Tocquevilles Betrachtung  des französischen Primats der Gleichheit über die Freiheit  auch fast 200 Jahre später noch eine Bestätigung).   Das Gespenst der Inflation! Hayek hatte 1950 eine Professur an der Universität von Chicago angenommen. Dort lehrte seit bereits vier Jahren auch Milton Friedman  (1912-2006), der als bekanntester Vertreter der neoliberalen Chicagoer Schule  zum einflussreichsten Ökonomen der zweiten Hälfte des 20. Jahrhunderts werden sollte. Friedman wollte sich weder Hayeks Krisentheorie noch der interventionistischen Konjunkturpolitik der Keynesianer anschließen .  Einer seiner wichtigen Einwände gegen Keynes war, dass in einer Rezession die staatlichen Investitionsprogramme erst dann wirken würden, wenn sich die Wirtschaft bereits wieder von allein erholt hat. Die verspäteten Maßnahmen wirken durch den Verzögerungseffekt dann wie Öl auf das Feuer der natürlichen Konjunktur, die infolge überhitzt und so die Inflation  entzündet. Tatsächlich wurden die USA in den 1970er Jahren von einer hohen Inflation geplagt, die bis 1980 auf über 13% angestiegen war. Friedman   sah darin eine große Gefahr für die konjunkturelle Entwicklung. Wenn die Zentralbanken durch eine verfehlte Politik zu viel Geld in Umlauf bringen, verlieren die Preise ihre Fähigkeit, Ressourcen effizient allozieren zu können. Die Verbraucher wissen nun nicht mehr, ob der Preis eines Guts gestiegen ist, weil sich sein Wert angebots- oder nachfragebedingt tatsächlich erhöht hat, oder ob er Folge einer gesteuerten Geldschwemme ist. Noch dramatischer aber ist die gegenteilige Entwicklung: Eine preisliche Abwärtsspirale ruft das Gespenst der Deflation wach. In der Erwartung weiter fallender Preise schieben die Menschen ihre Konsumwünsche auf. Die schwindende Nachfrage aber wird zu einem fatalen Strudel, der den gesamten Wirtschaftskreislauf   nach unten zieht. Milton Friedman, die andere Ikone der Neoliberalen Friedman hatte in den späten 1940er Jahren umfangreiche empirische Forschungen betrieben, die ihn zu dem Schluss kommen ließen, dass die Krise von 1929 weder durch Keynes´ starre Löhne noch durch Hayeks niedrige Leitzinsen, sondern primär durch eine verfehlte Geldpolitik der amerikanischen Zentralbank verursacht wurde. Aus dieser These Friedmans entstand die neoliberale Schule der Monetaristen . Nach deren Überzeugung muss die Zentralbank die Geldmenge so steuern, dass gefährliche inflationäre und deflationäre Entwicklungen vermieden werden. Steigen die Preise zu schnell, muss die Zentralbank die Geldmenge verringern; im Fall einer drohenden Deflation müssen die Währungshüter die Geldmenge hingegen erhöhen. Wünschenswert ist aus Sicht der Monetaristen eine kontrollierte Inflationsrate von 2-3%. Nach ihrer Überzeugung ließe sich damit ein Überhitzen oder Abgleiten in eine Rezession  wirkungsvoller vermeiden als mit keynesianischer Nachfragepolitik. Dahinter verbirgt sich eine bemerkenswerte Weiterentwicklung des neoliberalen Gedankens: Anders als Hayek vertritt Friedman eine pragmatische Position, die dem Staat eine aktive Rolle in der Konjunkturpolitik zugesteht. [iii]     Eine einflussreiche Geldtheorie Dreh- und Angelpunkt des monetaristischen Denkens ist die Quantitätstheorie des Geldes . Ihr liegt die bereits von Aristoteles und Adam Smith beschriebene Vorstellung zugrunde, dass Geld lediglich ein Schleier ist, ein Mittel, das letztlich allein dem Warenaustausch dient. Geldmenge und Gütermenge müssen sich demnach entsprechen. Dass dieser Zusammenhang nicht ganz trivial ist, hatten bereits Quesnay und John Locke erkannt: Geld wechselt innerhalb eines gegebenen Zeitraums mehrfach die Hand. Eine Geldeinheit dient also im Wirtschaftskreislauf dazu, mehrere Güter zu erwerben. Dazu kommt der Einfluss der Inflation: Wenn bei gegebener Gütermenge das Preisniveau steigt, muss zusätzliches Geld in Umlauf gebracht werden. Der Erste, der all diese Faktoren in einen formelmäßigen Zusammenhang brachte, war der amerikanische Ökonom Irving Fisher  (1867-1947). Die Grundformel seiner Quantitätsgleichung besagt, dass die Geldmenge M, multipliziert mit der Umlaufgeschwindigkeit V, der Anzahl der Transaktionen T multipliziert mit dem Preisniveau P entsprechen muss: M ∙ V = T ∙ P. Die Summe aller Zahlungen (M ∙ V) muss also der Summe des Wertes aller Käufe (T ∙ P) entsprechen. Der Geldmengenbedarf lässt sich errechnen, indem man den Wert aller Käufe durch die Anzahl der Transaktionen dividiert. In einer komplexen Volkswirtschaft mit Millionen von Akteuren und Gütern, ist es allerdings faktisch unmöglich, die Transaktionenanzahl auch nur annähernd zu erfassen. Aus praktischen Gründen wird daher die Anzahl der Transaktionen T meist durch die gesamtwirtschaftliche Produktionsmenge Y ersetzt: M ∙ V = Y ∙ P. In unserem simplen Beispiel zum portugiesischen Bruttoinlandsprodukt wäre Y also 100 Fässer Wein . Damit wird vereinfachend unterstellt, dass Geldmenge mal Umlaufgeschwindigkeit dem Wert der gesamtwirtschaftlichen Produktion entspricht. Steigt die Produktion, wie in unserem Beispiel im Folgejahr real um 10% auf 110 Fässer, muss die Zentralbank auch 10% mehr Geld in Umlauf bringen, vorausgesetzt, Umlaufgeschwindigkeit und Preisniveau bleiben gleich. Bis zu diesem Punkt beschreibt die Fishersche Quantitätsgleichung nicht mehr als einen einfachen mathematischen Zusammenhang, eine Identität. Milton Friedman erst machte daraus die monetaristische Quantitätstheorie des Geldes, indem er die Konstanz der Umlaufgeschwindigkeit unterstellte. Steigt die Geldmenge M stärker als das reale Bruttosozialprodukt Y, muss bei gleichbleibender Umlaufgeschwindigkeit V das Preisniveau P steigen, um die Identität der Gleichung aufrechtzuerhalten. Mit anderen Worten: Es entsteht Inflation. Oder, wie Friedman es ausdrückte: „Inflation ist immer und überall ein monetäres Phänomen.“ Wie die Spanier im 16. und 17. Jahrhundert durch ihre importierten Silberschätze erfahren mussten , entsteht durch mehr Geld aber keinesfalls mehr Wohlstand . Dennoch ist die Versuchung für manche Staaten auch heute noch groß, sich ihrer Probleme über die Notenpresse entledigen zu wollen. In vielen Industrieländern sind heute daher die Zentralbanken von den Weisungen ihrer Regierungen mehr oder minder unabhängig und gesetzlich verpflichtet, Geldwert und Kaufkraft ihrer Bürger zu erhalten. [iv] Kurzfristig kann nach Friedmans Ansicht eine geschickte Geldpolitik helfen, aus einem konjunkturellen Tief herauszufinden. Zum einen ist eine mäßige Geldentwertung ein effektives Mittel, die Reallöhne zu senken und so, gleichsam durch die Hintertür, Keynes Problem der rigiden Löhne in den Griff zu bekommen. Bei 3% Inflation entspricht eine Lohnerhöhung von 1% faktisch einer 2%igen Lohnkürzung. Aufgrund der Geldwertillusion  wird diese schleichende Form der Enteignung von den Arbeitnehmern nicht vollumfänglich wahrgenommen. Mit dieser Täuschung können die Zentralbanken zumindest kurzfristig die Wirtschaft stimulieren.   Ein Modell, um die Wirtschaft anzukurbeln Der zweite wichtige Effekt der kontrollierten friedmanschen Inflationspolitik lässt sich anhand des IS-LM Modells  illustrieren: Eine Ausweitung der Geldmenge verschiebt die LM-Kurve nach rechts. Das vergrößerte Angebot lässt kurzfristig die Zinsen fallen, ein Anreiz für mehr Investitionen. Letztlich soll dadurch derselbe Mechanismus in Gang gesetzt werden, auf den auch Keynes abzielte: Vermehrte Investitionen führen zu vermehrten Einstellungen. Das neue Gleichgewicht zwischen Finanz- und Investitionsmärkten erzeugt ein höheres reales Bruttoinlandsprodukt, ohne dass der Staat selbst dafür Geld ausgeben müsste:   Ausweitung der Geldmenge im IS-LM-Modell (links) und kombiniert mit keynesianischer Nachfragepolitik (rechts) Bei einer Kombination von keynesianischer Nachfragepolitik mit monetaristischer Geldpolitik müssten sich die beiden Effekte auf das Volkseinkommen sogar gegenseitig verstärken. Sowohl die IS- als auch die LM-Kurve verschiebt sich nach rechts, die staatliche Ausgabenoffensive führt zu einem noch größeren BIP, ohne wesentliche Auswirkung auf das Zinsniveau.   Der Liberalismus schlägt zurück! Während in den ersten drei Dekaden nach dem Zweiten Weltkrieg Keynesianismus  und Sozialstaat  auf breiter Front auf dem Vormarsch waren, gelang es den Neoliberalen ab den 1980er Jahren verlorenes Terrain wieder gutzumachen – insbesondere, aber nicht nur, in der angelsächsischen Welt. Schlagwörter wie Thatcherismus  und Reagonomics sind direkt mit Hayek und Friedman verbunden, nicht zuletzt, weil Hayek die britische Premierministerin Margaret Thatcher und Friedman den amerikanischen Präsidenten Ronald Reagan bei ihren jeweiligen Reformprogrammen berieten. Tickte anders als der 45. und 47. Präsident der Vereinigten Staaten: Ronald Reagan Beide Initiativen zielten darauf ab mit Steuersenkungen und marktliberalen Korrekturen die im Windschatten des Keynesianismus entstandenen umfangreichen Sozialstaatmodelle wieder abzubauen. Seit der Jahrtausendwende hat die neoliberale Gegenbewegung – späte Genugtuung für David Ricardo  – zudem zahlreiche internationale Freihandelsabkommen initiiert. Ein Rad, das, wie wir wissen, der aktuelle Präsident der Vereinigten Staaten   – im fundamentalen Gegensatz – zu seinem Vorgänger und Parteifreund Reagan gerade zurückdrehen möchte.     Ist es wirklich so einfach? Trotz ihres großen praktischen Einflusses beruhen die beiden großen makroökonomischen Theorien des 20. Jahrhunderts auf erstaunlich einfachen und idealisierenden Annahmen. Können Unternehmer und Haushalte, die für die Zukunft schwarzsehen, mit niedrigeren Zinsen tatsächlich zu Investitionen bewegt werden? Würden Banken in Zeiten, in denen die Sicherheiten ihrer Kunden massiv an Wert verloren haben, noch Kredite vergeben? Ist eine freie Marktpreisbildung für Zinsen überhaupt möglich, wenn die Zentralbanken die Leitzinsen willkürlich festlegen können? Hörte auf Hayek: die Iron Lady Margaret Thatcher Wie realistisch ist die Annahme einer konstanten Umlaufgeschwindigkeit des Geldes? [v]  Können die Zentralbanken die Geldmenge tatsächlich steuern, wenn im wesentlichen Geschäftsbanken, Unternehmen und Haushalte entscheiden welcher Teil davon in den Güterkreislauf gelangt? Von einer umfassenden und allgemein akzeptierten Konjunkturtheorie ist die ökonomische Wissenschaft heute nach wie vor noch ein ganzes Stück entfernt. Die grundlegenden volkswirtschaftlichen Theorien des 20. Jahrhunderts, so erfolgreich ihre praktische Anwendung bisher auch gewesen sein mag, stehen auf recht tönernen Füßen.   Den Blog entdecken   Wer mehr wissen will: Hayek, Friedrich von (1945): „The Use of Knowledge in Society” in: The American Economic Review, Band 35, Nr. 4. Hayek, Friedrich von (1981): „Preise und Produktion“, Philosophia-Verlag. Samuelson, Paul A. ; Nordhaus William D. (2010): „Volkswirtschaftslehre“, Mi-Wirtschaftsbuch. The Use of Knowledge in Society (Erklärvideo auf Youtube) Hayek vs. Keynes: Der Schlagabtausch als Rap auf Youtube [i] Vgl. Hayek (1945) S.526-527. [ii] Hayek hätte wohl auch in der US-Hypotheken-Blase, die zur Finanzkrise von 2007 führte, das Muster der 1920er Jahre wiedererkannt. In beiden Fällen hatten sich Millionen Haushalte in den USA infolge der Niedrigzinspolitik der amerikanischen Zentralbank mit Hypothekenkrediten verschuldet und konnten, als die Zinsen wieder stiegen, ihre Schulden nicht mehr bedienen. [iii]  Friedman selbst fasste dies 1965 in dem bekannten Zitat zusammen: „Wir sind alle Keynesianer“.  [iv] Wirklich unabhängige Zentralbanken finden sich heute tendenziell am ehesten in historisch protestantisch geprägten Ländern. [v]  Tatsächlich haben sich die durch FED und EZB jeweils in Umlauf gebrachten Geldmengen zwischen 2000 und 2020 ungefähr verdreifacht, ohne dass es in den USA oder der EU zu einer nennenswerten Inflation gekommen wäre. Möglich ist dies, weil es zahlreiche Transaktionen gibt – etwa Zahlungen innerhalb des Bankensystems oder der Kauf von Aktien durch die Haushalte – die nicht in die Berechnung der BIP einfließen.

  • Newton und Leibniz reisen in die Unendlichkeit

    Newton und Leibniz reisen in die Unendlichkeit Im 17. Jahrhundert hatte die wissenschaftliche Revolution bereits beachtlich an Fahrt aufgenommen; die Naturphilosophen   drangen immer tiefer in die materielle Ordnung der Welt ein. Schon bald zeigte sich, dass die mathematische Beschreibung rein statischer Zustände hierzu nicht mehr ausreichte. Um das Jahr 1670 stellten sich daher zwei große Geister, Isaac Newton   (1643-1727) und Gottfried Wilhelm Leibniz  (1646-1716), unabhängig voneinander sehr grundsätzliche Fragen. Newton war bei einer recht einfachen Naturbeobachtung, dem Fall eines Apfels, auf ein Phänomen gestoßen, bei dem ihn die bekannten Werkzeuge der Algebra   und Geometrie   im Stich ließen. Der Apfel fällt keinesfalls gleichförmig, sondern zu Beginn langsamer, am Ende seiner Bahn aber schneller. Während des Falls erhöht sich die Geschwindigkeit kontinuierlich: In jedem noch so winzigen Augenblick ist sie grösser, als im vorangegangenen Moment. Wie ließ sich dieses Verhalten mathematisch korrekt beschreiben?nkno Ein Apfel brachte den Stein ins Rollen Newton machte sich daran, das fehlende Rechenwerkzeug, selbst zu bauen. Dabei bediente er sich eines überaus dreisten Taschenspielertricks. Sein Kunstgriff gilt heute als die Geburtsstunde der Analysis , der Mathematik, mit der man all jenen Erscheinungen zu Leibe rückt, bei denen sich die Bedingungen laufend ändern. Die neue Methode war keine bloße Weiterentwicklung von Algebra und Geometrie, sie war eine grundsätzlich neue Art die Welt zu betrachten und ihre Dynamik einzufangen. Algebra und Analysis verhalten sich zueinander wie Foto zu Film. Die Mathematik hatte laufen gelernt. Newtons Geniestreich bestand darin, die Wechselhaftigkeit der Welt mithilfe einer Rechengröße einzufangen, für die es keine Zahl gibt: die Unendlichkeit . Um seinen Gedankengang nachzuvollziehen, müssen wir zunächst das Wesen von Funktionen betrachten. Funktionen sind Abbildungen von Zusammenhängen zwischen variablen Größen. Üblicherweise wird dabei die unabhängige Variable (Ursache) mit x und die abhängige Variable (Wirkung) mit y bezeichnet. Man kann dann sagen y ist eine Funktion, eine Abbildung, von x oder kurz: y = f (x). So lässt sich die Unendlichkeit konstruieren... Was sind eigentlich Funktionen und welchen Beitrag leisten sie zur Welterklärung? Funktionen sind Rechenanweisungen, die algebraisch darstellen, wie das eine vom anderen abhängt, gewissermaßen der Klebstoff, der Zahlenmengen miteinander verbindet. Damit lassen sich Annahmen über die Beschaffenheit der Welt mathematisch beschreiben: Die Umlaufbahnen der Planeten sind abhängig von der Gravitation, die Geschwindigkeit eines Segelschiffs von der Windstärke, der Treibstoffverbrauch eines Autos von seinem Gewicht, das Pflanzenwachstum von der Intensität der Sonnenstrahlen, die Nachfrage vom Preis. [i]   Wer die Welt beschreiben möchte, muss nach Funktionen suchen, die diese Zusammenhänge abbilden. Betrachten wir beispielhaft zwei denkbar einfache Abhängigkeiten: Lineare und exponentielle Funktionen y = x besagt, dass der abhängige Wert dem unabhängigen genau entspricht. Wendet man diese Funktionsvorschrift auf die unendliche Menge der reellen Zahlen  an, und überträgt sie in ein kartesisches Koordinatensystem , erhält man den Funktionsgraphen, eine Gerade, die von links unten nach rechts oben ansteigt. Der Funktionsgraph macht den Zusammenhang geometrisch sichtbar und somit anschaulich. Die Steigung der Funktion ist leicht zu beschreiben: Immer, wenn man, wie auf einer Treppe, eine Einheit nach rechts und eine Einheit nach oben geht, stößt man wieder an die Linie des Funktionsgraphen. Die Steigung, der Quotient aus Höhe und Tiefe der Stufen, beträgt also stets „1“, ganz gleich, welchen Punkt der Geraden wir betrachten. Bei der zweiten Funktion, y = x^2, kommen wir mit der Treppen-Metapher jedoch sofort ins Stolpern, denn die Höhe jeder Treppenstufe verändert sich nun von Schritt zu Schritt. Der Funktionsgraph ist Kurven zeichnen sich dadurch aus, dass ihre Steigung an jedem Punkt eine andere ist. Lineare und exponentielle Funktionen leisten sehr unterschiedliche Beiträge zu unserem Weltverständnis. Unsere Wahrnehmung und Intuition ist von linearem Denken geprägt. Das entspricht unserer Alltagserfahrung und der evolutionären Prägung der letzten Jahrhunderttausende: Wir benötigen einen Tag, um eine bestimmte Strecke zurückzulegen und zwei Tage für die doppelte Strecke. Wenn wir ein Feld an einem Morgen bestellen, brauchen wir drei Vormittage für drei ähnlich große Felder und fünf Rinder fressen fünfmal so viel Heu wie ein Rind. Exponentielle Zusammenhänge hingegen sind Ausdruck von Wachstums- und Zerfallsprozessen, wie sie uns vielfach in der Natur begegnen: Erdbeschleunigung, Radioaktivität, Bakterienkolonien, Kaninchenpopulationen, Weltbevölkerung. Sie finden sich aber auch in kulturellen und technischen Zusammenhängen, etwa bei Infektionsraten, Zinsen oder dem Wachstum von Informationsspeicherkapazitäten auf Computerchips. Sind wir mit exponentiellen Verläufen konfrontiert, ist unsere Intuition dahin. Eine Kugel, die mit doppelter Geschwindigkeit aufschlägt, verdoppelt ihre Wirkung nicht, sondern vervierfacht sie. Die dreifache Geschwindigkeit führt bereits zu einem neunfach verstärkten Effekt. Wir neigen dazu, exponentielles Wachstum zu unterschätzen, insbesondere weil der anfänglich flache Kurvenverlauf von einer linearen Entwicklung kaum zu unterscheiden ist. Doch haben exponentielle Prozesse erst einmal Fahrt aufgenommen, geraten sie sehr schnell außer Kontrolle. Das bekannte Beispiel, das harmlos mit einen Reiskorn auf dem ersten Feld eines Schachbretts beginnt und bei dem sich die Körnerzahl mit jedem neuen Feld verdoppelt, führt dazu, dass sich auf dem letzten Feld eine Reismenge türmt, für deren Abtransport man einen Zug von über 100 Millionen Kilometern Länge bräuchte. Ließe sich ein Blatt Papier 42-mal hintereinander falten, so würde seine Höhe von der Erde bis zum Mond reichen. Die Evolution hat uns das intuitive Verständnis für Wachstumsdynamiken nicht in die Wiege gelegt. Allein die Mathematik kann uns hier auf den Boden der Tatsachen zurückholen. Ein unerhörter Taschenspielertrick Doch zurück zu Newtons Problem. Ihn beschäftigte die Frage, wie sich die laufend ändernde Steigung von Exponentialfunktionen für einen beliebigen Punkt ermitteln lässt.   Seine Idee leuchtet jedem ein, der schon einmal das Meer betrachtet hat: Der Horizont erscheint uns als eine gerade Linie. Der Horizont: Schnurgerade - oder doch nicht? Tatsächlich aber ist er gekrümmt; wir nehmen es nur deshalb nicht wahr, weil wir lediglich einen sehr kleinen Ausschnitt des Erdumfangs sehen. Diesen Gedanken können wir auf die Kurve übertragen: Dazu legen wir eine Gerade so durch einen Kurvenabschnitt, dass sie den Funktionsgraphen in zwei Punkten schneidet. In der Geometrie   spricht man in diesem Fall von einer Sekante .   Taschenspieler am Werk: der Übergang vom Differenzenquotienten zum Differenzialquotienten Der Sekantenabschnitt innerhalb der Kurve lässt sich als Hypotenuse – die längste Seite eines rechtwinkligen Steigungsdreiecks – betrachten. Sie beschreibt die Steigung zwischen den beiden Schnittpunkten. Im Durchschnitt steigt die Gerade genauso stark wie der durch sie begrenzte Kurvenabschnitt, nur, dass die Gerade gleichmäßig ansteigt, während das Kurvensegment zunächst weniger stark, dann aber stärker als die Gerade zunimmt. Nähern wir nun die beiden Schnittpunkte einander an, indem wir etwa den unteren Punkt entlang der Kurve nach oben schieben, wird das Steigungsdreieck zunehmend kleiner. Damit wird es immer schwieriger, einen Unterschied zwischen der Hypotenuse des Steigungsdreiecks und dem durch sie definierten Kurvenabschnitt auszumachen; der Fehler, der durch die Krümmung der Linie entsteht, wird, wie beim Meereshorizont, in dem Maße kleiner, in dem wir den betrachteten Abschnitt verringern . Gleichzeitig wird das Verhältnis der beiden kurzen Dreieckseiten – der so genannte Differenzenquotient  – grösser, denn die Kurve steigt im Verlauf ja immer stärker an. Wenn wir nun den unteren Punkt so weit nach oben schieben, dass er sich mit dem oberen Punkt deckt, verschwindet das Dreieck. Die Sekante ist zu einer Tangente geworden: Die Steigungsgerade schneidet die Kurve jetzt nicht mehr, sondern berührt sie nur noch in einem einzigen Punkt. Trickreiches und streitsüchtiges Genie: Isaac Newton In dem Augenblick, in dem aus der Sekante eine Tangente wird, ist die Länge der beiden kurzen Dreiecksseiten null; mit diesem Übergang wird aus dem Differenzenquotient der „ Differenzialquotient “ – er gibt uns die Steigung der Kurve am Tangentenpunkt an.   Das ist der ganze Trick! Durch Umformung des Differenzialquotienten lässt sich zeigen, dass die Steigung für einen beliebigen Kurvenpunkt als eine neue Funktion – die so genannte Ableitung der ursprünglichen Kurvenfunktion – dargestellt werden kann. Beispielsweise erhält man die Ableitung einer Funktion der Form y = x^n, indem man den Exponenten n der unabhängigen Variablen x um eins verringert und n vor die Variable schreibt. Die erste Ableitung unserer Funktion y = x^2 lautet also y = 2x^1. Wir können nun beliebige Werte entlang der x-Achse einsetzen und für jeden dieser Werte die Steigung am entsprechenden Kurvenpunkt ermitteln. Am Punkt x = 0 ist, wie sich direkt aus dem Funktionsgraphen ablesen lässt, die Steigung null. An der Stelle x = 0,5 beträgt die Steigung 1, an der Stelle 2 beträgt sie 4. Ein neues Werkzeug der Weltbeschreibung Die Differenzialrechnung  war das Werkzeug, das bisher gefehlt hatte. Ihr genialer Kunstgriff ist die Einbindung eines irrealen Konstrukts – der Vorstellung eines unendlich kleinen Dreiecks – um ein höchst reales Problem zu lösen. Auch bei der Differentialrechnung lässt sich die Perspektive umkehren: Dies führt uns zur Integralrechnung, die es uns   beispielsweise erlaubt, die Größe der Fläche unterhalb einer Kurve zu bestimmen. Auf den Kopf gestellte Differentialrechnung: das Prinzip der Integralrechnung Die grundlegende Überlegung ist die gleiche. Betrachten wir dazu die Fläche, die seitlich durch die beiden senkrechten Geraden an den Stellen a und b, unten durch die x-Achse und oben durch die Kurve begrenzt wird: Wäre diese Fläche rechteckig, ließe sie sich rechnerisch leicht bestimmen. Wenn wir die Fläche mit kleinen Rechtecken ausfüllen, erhalten wir immerhin einen Näherungswert. Was die Methode jedoch ungenau macht, sind die weißen Flächen unter der Kurve. In dem Maße, in dem wir nun die Rechtecke weiter verkleinern, verringern wir diese Unschärfe. Die weißen Flächen unter der Kurve schrumpfen und nähern sich zunehmend einer Dreiecksform, die wir schließlich mit dem bereits bekannten Unendlichkeits-Trick verschwinden lassen können. [ii]  Vergegenwärtigen wir uns noch einmal, was wir gerade getan haben: Wir haben unendlich viele, unendlich kleine Flächen addiert und erhalten so eine Zahl, die uns eine reale Fläche unter einer Kurve angibt. Auch nur ein Mensch: Gottfried Wilhelm Leibniz Da Leibniz unabhängig von Newton fast zur gleichen Zeit dieselbe Idee hatte, gerieten die beiden über die Urheberschaft der Infinitesimalrechnung in einen langjährigen, erbitterten Prioritätsstreit, bei dem fast jedes Mittel recht war, um den anderen zu diskreditieren – ganz offenbar sind auch Mathematiker nur Menschen. [iii] Die Wissenschaft hielt jedenfalls am Ende des 17. Jahrhunderts ein neues, mächtiges Werkzeug in der Hand, mit dem sich die zahllosen Windungen, Wellen und Wachstumsprozesse der Natur korrekt beschreiben ließen. Newton konnte nun die Geschwindigkeit des sich beschleunigenden Apfels für jeden Zeitpunkt exakt berechnen und so dem Gesetz der Gravitation auf die Spur kommen. Nicht nur Hegel sinnierte über den Weltgeist, sondern auch Pierre-Simon Laplace Alles unter Kontrolle? Die Möglichkeit, Naturgesetze   mathematisch exakt darstellen zu können, eröffnete neue Perspektiven: Auch künftige Ereignisse ließen sich nun verlässlich prognostizieren. Der mathematische Fortschritt befeuerte ein Euphorie, die Hoffnung, die Welt mithilfe der Mathematik vollständig beschreiben zu können. Der Franzose Pierre-Simon Laplace  spann diesen Gedanken weiter. 1814 ersann er einen fiktiven, allwissenden Weltgeist , der sämtliche Kausalitäten des Universums in Form von Funktionsgleichungen erfassen und simultan verarbeiten kann. Rein theoretisch ließ sich damit die Bewegung aller Materie und damit die Zukunft der Welt bis an ihr Ende vorausberechnen. Der Laplacesche Dämon  – wir würden ihn heute als „Supercomputer“ bezeichnen – wurde zum Leitmotiv eines deterministischen Weltbilds, das neben den Naturphilosophen bald auch das Denken von Militärs, Sozialutopisten und Ökonomen bestimmen würde: Warum sollte nicht auch menschliches Handeln mathematisch beschreibbar und somit prinzipiell berechenbar sein? Einmal mehr verhieß Mathematikbeherrschung Macht. Doch es gab da noch ein kleines Problem: Bislang hatte man die Rechnung ohne den Zufall   gemacht...     Den Blog entdecken   Wer mehr wissen will: Hall, A. Rupert (1980): „Philosophers at war – The quarrel between Newton and Leibniz“, Cambridge University Press. Courant, Richard / Robbins, Herbert (2010): „Was ist Mathematik?“, Springer. Beutelspacher, Albrecht (2010): „Kleines Mathematikum“, C.H. Beck. Enzensberger, Hans Magnus (1998): „Die Mathematik im Jenseits der Kultur - Eine Außenansicht“ in FAZ vom 29.08.1998. Bildnachweise: Konstruktion der Unendlichkeit Anmerkungen [i]  In der Realität gibt es fast immer mehrere Einflussgrößen. Der Treibstoffverbrauch eines Fahrzeugs ist etwa auch von der Geschwindigkeit abhängig. Praktischerweise konzentriert man sich aber auf einen Parameter und unterstellt die anderen als konstant. [ii]  Während bei der Differentialrechnung über die Ableitung die Steigungsfunktion aus der Kurvenfunktion „f“ hergeleitet wird, geht es bei der Integralrechnung umgekehrt darum, die so genannte Stammfunktion zu „F“ zu ermitteln. Die Stammfunktion ist jene Abbildung, die abgeleitet die Ausgangsfunktion „f“ ergibt. Eine Stammfunktion für y = x^2 könnte beispielsweise y = 1/3 x^3 + 7 lauten. Das Integral lässt sich nun ganz einfach bestimmen, indem man die Werte für a und b als untere und obere Grenze in die Stammfunktion einsetzt und dann den Wert für a von dem Wert für b abzieht: . Ist b = 4 und a = 2, erhält man für b 1/3 4^3 = 21,3333... , für a = 1/3 2^3 = 2,6666.... Die Differenz ergibt das bestimmte Integral von 18,66666... . Die Fläche unter der Kurve beträgt also 18,66666...  Flächeneinheiten. [iii] Zur Geschichte dieses Streits siehe Hall (1980).

  • Kants langer Schatten: von Fichtes "Ich" zu Hegels "Weltgeist"

    Fortsetzung von "Kant für Einsteiger" Kants idealistische Erben Kants Werk   – wir haben es im letzten Blog zur Kategorie Philosophie  betrachtet – hatte neue Maßstäbe gesetzt. Eine ganze Generation deutscher Philosophen sollte sich in den drei Jahrzehnten nach seinem Tod am Erbe des kleinen Mannes aus Königsberg abarbeiten. Diese Blütezeit der Philosophie bezeichnen wir heute als den Deutschen Idealismus   mit Johann Gottlieb Fichte , Friedrich Wilhelm Joseph Schelling  und Georg Wilhelm Friedrich Hegel  als prominentesten Vertretern. Wie Kant wollten auch sie Erkenntnis und Moral vor den destruktiven Tendenzen, die im 18. Jahrhundert von den britischen Inseln gekommen waren, bewahren . [i]  Den Idealisten war gemein, dass sie Kants Transzendental-, Moral- und Geschichtsphilosophie als großen Fortschritt anerkannten: Unserer Erkenntnisfähigkeit sind Grenzen gesetzt; menschliches Handeln sollte moralisch begründbaren Prinzipien der Vernunft folgen. Das Dreigestirn des Deutschen Idealismus: Fichte, Schelling und Hegel Auf diesem kantschen Fundament errichteten Fichte, Schelling und Hegel ihre eigenen philosophischen Gedankengebäude . Fichte war überzeugt, dass sein Lehrmeister bei der Analyse des Verstandes nicht bis zu dessen innerstem Wesen dem handelnden, subjektiven „reinen Ich“ vorgedrungen war. [ii]  Die Welt wird durch unser individuelles Bewusstsein   geschaffen; sie ist das subjektive Ergebnis eines persönlichen, schöpferischen Prozesses, der Kants „ Ding an sich “ nicht mehr benötigt. Schelling , inspiriert durch die zahlreichen naturwissenschaftlichen Fortschritte seiner Zeit, erkannte, dass sich die mechanistisch-deterministische Naturerklärung newtonscher Prägung nicht einfach auf biologische Phänomene übertragen lässt . Für Schelling bedient sich die Natur der menschlichen Erkenntnisfähigkeit, um sich ihrer selbst bewusst zu werden. Er sieht die Natur als einen einzigen gigantischen verwobenen Organismus; ein Gedanke, der Schelling zum romantischen Wegbereiter der Ökologie   macht. Fichtes und Schellings Welterklärungstheorien sollten in der (internationalen) Philosophiegeschichte keine allzu breite Wirkung entfalten, doch deutet sich bei ihnen bereits ein erweitertes Verständnis von Seelenleben und Biologie an, zwei Themen, die das 19. Jahrhundert entscheidend prägen werden. Hegels Dialektik Der bekannteste Vertreter des Deutschen Idealismus ist zweifelsohne Hegel ; er gilt bis heute als einer der einflussreichsten, aber auch umstrittensten und am schwersten zugänglichen Philosophen überhaupt. 1770 in Stuttgart geboren, lebte er als Student der Theologie in Tübingen zeitweise in einer Wohngemeinschaft mit Schelling und dem Dichter Friedrich   Hölderlin . In seinem ersten großen Werk, der 1807 erschienenen „ Phänomenologie des Geistes “, führt Hegel bereits seinen zentralen Gedanken aus. Er verdeutlicht ihn am Leben einer Pflanze. Aus dem Samen wird eine Blüte, aus der Blüte eine Frucht. Mit der Frucht als dritter Phase schließt sich der Kreis, denn sie enthält den Samen für einen neuen Zyklus des Werdens und Vergehens. Nach Hegel können wir die Pflanze nur verstehen, wenn wir den gesamten Prozess mit all seinen Stadien betrachten. Was für die Pflanze gilt, gilt für alle Erscheinungen. Entwicklungen vollziehen sich stets in drei Schritten ; das ist das Prinzip, das die Welt regiert – von der Natur über die christliche Trinität bis hin zur Menschheitsgeschichte. Anders als Kant sieht Hegel  Antinomien  als etwas Positives . Die Wahrheit liegt nicht in der Beschreibung von Zuständen, wir müssen die Welt vielmehr als dynamischen Prozess begreifen. Das Einzelne erschließt sich uns nur, wenn wir sehen, wie es mit dem Ganzen verwoben ist. Die Methode, mit der sich dieses Prinzip beschreiben lässt, ist die Dialektik . Hegel ist nicht der erste, der diese Technik verwendet. Seit der Antike   bediente man sich ihr, um durch Rede und Gegenrede auf eine höhere Erkenntnisstufe zu gelangen. Aber erst Hegel macht aus dem Dreischritt von These , Antithese   und ihrer Auflösung, der Synthese , ein grundlegendes Prinzip, einen konstruktiven Kampf der Widersprüche, der, ganz im Sinne Heraklits, die Entwicklung des Universums vorantreibt und alles seiner Bestimmung zuführt. [iii]  So, wie die Frucht den neuen Samen in sich trägt, ist die Synthese bereits wieder die These des nachfolgenden Entwicklungsschritts.   Weltgeist und Zeitgeist In seiner 1817 erschienenen „ Enzyklopädie der philosophischen Wissenschaften im Grundrisse “ und in den während der 1820er Jahre gehaltenen „ Vorlesungen über die Philosophie der Weltgeschichte “ entwickelt Hegel seine Idee weiter: Die Geschichte der Welt ist die Geschichte der dialektischen Selbstentfaltung eines göttlichen Weltgeistes . Der Prozess, durch den diese allumfassende Intelligenz die Vereinigung von Natur und Denken   vorantreibt, verläuft – wie könnte es anders sein – in drei Schritten. Auf der ersten Stufe ist alles Geist; wir befinden uns in der immateriellen Welt der Logik. Auf der nächsten Stufe materialisiert sich der Geist in Raum und Zeit; die These „Geist“ hat ihre Antithese „Materie“ hervorgebracht. Oder, wie die Bibel es ausdrückt: „Das Wort ward Fleisch“. Die Synthese aus Geist und Natur ist der Mensch; mit ihm kommt das Bewusstsein in die Welt. Die Geschichte ist damit bei ihrer letzten Phase angelangt und nähert sich ihrem eigentlichen Ziel: Der Geist kehrt zu sich selbst zurück und gibt sich vollständig zu erkennen. [iv]  Wie bei Schelling, ist der Mensch dabei allein Mittel zum Zweck. Der Weltgeist bedient sich seiner, um den Erkenntnisprozess zu vollziehen. Dabei manifestiert sich der Weltgeist zunächst als der jeweilige „ Zeitgeist “ einer bestimmten geschichtlichen Epoche. So äußert sich etwa der Absolutismus   in der Vorstellung totaler Macht, die ein einziger Souverän ausübt; nicht nur das politische System, auch Architektur, Kunst oder Mode sind Ausdruck dieses Geists. Aus der These „Absolutismus“ entwickelt sich die Antithese „Aufklärung“, die Vorstellung, dass nicht der Monarch, sondern das Volk der Souverän ist. Ihren Kulminationspunkt findet die Gegenthese in der Französischen Revolution . Der Übergang zu einem neuen Zeitgeist wälzt nicht nur das politische System, sondern auch alle anderen Bereiche der Gesellschaft und der Kultur grundlegend um. Da sich der geschichtliche Prozess der Bewusstwerdung in Zyklen des Werdens und Vergehens vollzieht, gibt es auch keine absoluten Wahrheiten. Jede Epoche hat vielmehr ihre eigne Wahrheit, die durch eine neue Wahrheit der Folgeepoche abgelöst wird. Die Bestimmungsgrößen der vorangegangenen Zeit werden durch den Epochenwandel keineswegs vernichtet; sie werden vielmehr mitgenommen und auf eine höhere Ebene gehoben. Die Synthese aus Absolutismus und Aufklärung verkörpert zu Hegels Lebenszeit die Napoleonische Epoche : Einerseits krönt sich der Konsul der Französischen Republik in absolutistischer Manier selbst zum Kaiser; andererseits führt der neue Herrscher aber auch in weiten Teilen Europas ein fortschrittliches, den Geist der Aufklärung atmendes Rechtsystem ein. Manche sind erwählt, den Lauf der Geschichte zu beschleunigen Herausragenden Persönlichkeiten der Geschichte, wie Napoleon Bonaparte , Alexander dem Großen oder Julius Cäsar  kommt die Aufgabe zu, den Prozess voranzutreiben, denn sie haben die Fähigkeit, zu erkennen was „an der Zeit“ ist. Doch wohin strebt dieser Prozess, der das Bewusstsein der Menschheit in Dreierschritten auf immer höhere Ebenen hebt? Für Hegel ist dieses Ziel die individuelle und gesellschaftliche Freiheit . Waren seit der Vorantike nur einzelne oder wenige frei, so ist es die Bestimmung des geschichtlichen Werdens, letztlich allen Menschen den Weg in die Freiheit zu öffnen. Gewährleisten kann diese Freiheit wiederum nur der Staat; indem er für alle verbindliche Normen und Rechtssicherheit schafft, ist er das „an und für sich Vernünftige“ die ultimative Bedingung und Verwirklichung der Freiheit. Hegel begegnet Napoleon 1806 in Jena In dieser letzten Phase wird der Zeitgeist zum Weltgeist; er bedient sich der Philosophen, um seine Gedanken zu verkünden. Nur die Philosophen sind in der Lage, den Geist mit seinem eigenen Medium, dem Denken, wieder zu vereinen. So führt der Prozess des dialektischen Werdens den Geist von der Logik über die Natur zu Bewusstsein und Philosophie. Alles, was sich auf dem Weg dorthin vollzieht, dient dabei einem höheren Zweck. Da der Lauf der Geschichte der Weg des Geistes zu seiner Selbstoffenbarung ist, werden wir Ereignisse, die uns unsinnig, böse oder grausam erscheinen, in der Rückschau einst als notwendig erkennen. Hegel sah sein Werk als den Abschluss der gesamten abendländischen Philosophiegeschichte und in der preußischen Monarchie die Verwirklichung des sittlichen Idealstaats – was ihm den Vorwurf einbrachte, „preußischer Staatsphilosoph“ zu sein. Die Idee eines vorbestimmten Verlaufs der Weltgeschichte, die bereits Augustinus  und Kant propagiert hatten, hatte Hegel zu einem allumfassenden philosophischen Gedankengebäude ausgebaut, das sich in der Folge als außerordentlich wirkmächtig erweisen sollte. Die Junghegelianer entwickeln die Philosophie des Meisters weiter Hegel starb 1831 in Berlin, wahrscheinlich war er Opfer der damals wütenden Choleraepidemie . Seine Schüler spalteten sich nach seinem Tod in eine konservative und eine linke Fraktion. Während erstere bald in der philosophiegeschichtlichen Bedeutungslosigkeit verschwand, sollten die Linken, die so genannten Junghegelianer , einen beachtlichen Einfluss auf die weitere Menschheitsgeschichte haben. Die drei bekanntesten Schüler Hegels waren Ludwig Feuerbach , Karl Marx  und Friedrich Engels . Wollten Kant und Hegel überwinden: Karl Marx und Friedrich Engels Die Junghegelianer sahen im preußischen Obrigkeitsstaat keinesfalls ein Ideal und entwickelten ihrerseits eine Antithese. Die neue Philosophie war gekennzei chnet durch eine radikale Abkehr vom Idealismus , heftige Religionskritik und ein durch und durch materialistisches Weltbild. Ideen sind für Marx und Engels keine geistigen Phänomene, sondern Ausdruck von Besitzverhältnissen. Doch wie bei Hegel ist auch hier der Gang der Weltgeschichte dialektisch vorherbestimmt: Die These des Kapitalismus   und des mit ihm verbündeten autoritären Staats wird an ihren inneren Widersprüchen scheitern und sich selbst zerstören. Über einen notwendigen Zwischenschritt, der Antithese der Diktatur des Proletariats , strebt dann die gesamte Menschheit der Synthese zu, dem Ideal einer klassenlosen Gesellschaft. Kaum eine andere philosophische Lehre dürfte das Leben so vieler Menschen bestimmt haben, wie die verschiedenen Versuche, den historischen Materialismus  im 20. Jahrhundert politisch in die Tat umzusetzen.   Den Blog entdecken     Wer mehr wissen will: Hegel, Georg Wilhelm Friedrich (2014): „Enzyklopädie der philosophischen Wissenschaften im Grundrisse“, Holzinger. Hegel, Georg Wilhelm Friedrich (2013): „Phänomenologie des Geistes“, Holzinger. Hegel, Georg Wilhelm Friedrich (1996): „Vorlesungen über die Philosophie der Weltgeschichte“, Erster Teil, Meiner. Hegel, Georg Wilhelm Friedrich (1979): „Vorlesungen über die Geschichte der Philosophie“, Suhrkamp. Marx, Karl (1979): „Das Kapital“, Dietz.   Russell, Bertrand (2012): „Philosophie des Abendlandes”, Anaconda. Vorländer, Karl (1903) „Geschichte der Philosophie“ Band III: Die Philosophie der Neuzeit, abrufbar unter https://www.textlog.de/6484.html Conradt, Michael (2011): „Hegel: Die Welt ist Geist”, Manuskript zur Radiosendung Anmerkungen [i] Vgl. Russel (2012) S. 712. [ii] Vgl. Vorländer (1903) §47.1. [iii] „Hier sehen wir Land; es ist kein Satz des Heraklit, den ich nicht in meine Logik aufgenommen" [iv] Vgl. Conradt (2011). Hegel (1979). S. 319.

  • Ökologie für Anfänger: Im Dschungel der Wechselwirkungen

    Im Dschungel der Wechselwirkungen Betrachtet man die Erde im Querschnitt, so findet sich fast alles Leben   innerhalb einer hauchdünnen Schicht von nur wenigen hundert Metern Durchmesser. An den extremen Rändern der Biosphäre  – Tiefseegräben und Troposphäre – macht sich das Lebendige bereits äußerst rar. Das Drama der Evolution   spielt auf einer Bühne, dünn wie Blattgold. Und dennoch hat dieser winzige Lebensstreifen das Antlitz der Erde verändert, spätestens seit vor 3,4 Milliarden Jahren   Einzeller damit begannen, die Atmosphäre mit Sauerstoff   anzureichern. Ernst Haeckel prägte als Erster den Begriff "Ökologie" Mit der Entwicklung sich selbst replizierender Moleküle hat sich die Komplexität der Wechselwirkungen  auf unserem Planeten dramatisch vervielfacht. Einer der ersten, der dieses Beziehungsgeflecht systematisch untersuchte, war der Arzt, Zoologe und frühe Darwin -Verfechter Ernst Haeckel , der 1866 für die neue Wissenschaft den Begriff Ökologie  prägte. [i]     Thermodynamische Systeme und Kreisläufe Ein grundlegendes Problem der Ökologie besteht darin, Wechselwirkungen voneinander abzugrenzen. Letztlich ist die Erde ein einziges, großes und offenes Ökosystem , das geordnete Sonnenenergie ein- und ungeordnete Wärme ausatmet; ein unablässiger Energiestrom, dessen Entropie differenz Atmosphäre, Meere, Landschaften und Lebewesen pausenlos in Bewegung hält, ein ständiges Werden und Vergehen, bei dem Bakterien, Pilze, Pflanzen und Tiere Stoffe und Energie   aufsaugen, um sie in immer wiederkehrenden Kreisläufen auf- um- und abzubauen. Ihr Leben und Sterben wirkt auf andere Lebewesen und die unbelebte Natur zurück – ein Netz gegenseitiger Abhängigkeiten, bei dem fast alles auf fast alles andere direkten oder indirekten Einfluss hat.   Ökosysteme Um dieser Komplexität Herr zu werden, lösen die Ökologen das System Erde in kleinere Teilsysteme mit ähnlichen Rahmenbedingungen auf: Regenwälder, Geröllwüsten, Tundren, Korallenriffe oder Moore. Betrachten wir beispielhaft eines der wenigen verbliebenen mitteleuropäischen Moore, in dem sich ein kleiner Tümpel befindet. Auch der Tümpel ist ein Ökosystem. Es ist geprägt durch ein gemäßigt feuchtes Klima mit Jahreszeiten; der sauerstoffarme, leicht saure Moorboden sorgt dafür, dass Pflanzenreste nicht vollständig verrotten; Gräser, Wiesenknöterich, Lichtnelken, Kalmus, Teichrosen und Tausendblatt leben in einer Gemeinschaft, einer Biozönose , zusammen mit Insekten, Schnecken, Fischen, Fröschen und Störchen. Ein Tümpel in Norddeutschland Die Grenzen des kleinen Ökosystems sind fließend. Energie, Baustoffe, neue Tiere und Pflanzen strömen hinein, bleiben, oder verlassen das System wieder. Die Pflanzen entnehmen der Luft Kohlenstoff , dem Boden Wasser, Stickstoff, Schwefel und Phosphor und bauen mit Hilfe der Sonnenenergie ihr Gewebe auf. Um leben und wachsen zu können fressen Schnecken die Pflanzen, verdauen die Baustoffe und befreien damit die gefangene Sonnenenergie wieder. Frösche fressen die Schnecken, nur, um ihrerseits Störchen zum Opfer zu fallen. Mit jedem Schritt werden Energie und Materie an eine höhere Ebene der Nahrungskette weitergereicht.  Viel oder wenig: Was ist die bessere Strategie? Wie effizient sind Nahrungsketten? In dieser Haushaltsgemeinschaft sind Pflanzen Produzenten, Schnecken Primärkonsumenten, Frösche Sekundärkonsumenten und Störche Endkonsumenten – Meister Adebar steht an der Spitze der Nahrungskette  des kleinen Biotops. Aus thermodynamischer Sicht ist der Energiefluss entlang der Nahrungskette alles andere als effizient. Auf der untersten Stufe verwenden die Pflanzen die Hälfte der empfangenen Sonnenenergie für den Erhalt ihrer Lebensfunktionen; der Rest wird in den Aufbau der eigenen Biomasse investiert. Nur diese zweite Hälfte steht den Schnecken zur Verfügung. Doch der Energiebedarf von Konsumenten ist größer als der der Pflanzen – sie bewegen sich und müssen wesentlich komplexere Strukturen mit ATP   versorgen. Tiere können daher nur etwa 10% der gefressenen Energie dem Aufbau der eigenen Körpermasse widmen. Ein armseliger Wirkungsgrad, der sich auf jeder weiteren Stufe der Nahrungskette wiederholt: Von 100 pflanzlich erzeugten Energieeinheiten kommen 50 bei den Schnecken an, 5 bei den Fröschen und nur noch eine halbe bei den Störchen. Pflanzen machen also viel mehr Tiere satt als Fleisch. Der abnehmende Wirkungsgrad der Nahrungskette sorgt zwangsläufig dafür, dass sich die Zahl der Konsumenten und damit das Risiko, selbst als Beute zu enden, nach oben hin zunehmend verringert.   Überlebensstrategien und Gleichgewichte Ihren spezifischen Sterberisiken begegnen die verschiedenen Spezies mit unterschiedlichen Fortpflanzungsstrategien. Tiere, die in der Sprache der Ökologen eine so genannte „ r-Strategie “ verfolgen, sind typischerweise klein, leicht zu erbeuten und am unteren Ende der Nahrungskette angesiedelt – rund um unseren Tümpel etwa Insekten, Schnecken, Mäuse oder Frösche. Diese Nachteile kompensieren r-Strategen durch hohe und schnelle Reproduktionsraten. Da die Eltern in der Regel nicht alt werden, muss der r-Nachwuchs rasch auf eigenen Beinen stehen. Demgegenüber setzen „ K-Strategen “, wie der Storch, auf wenige Nachkommen. Das erlaubt es ihnen, in den Nachwuchs zu investieren. Die Jungen bleiben zwar länger abhängig, haben aber aufgrund elterlicher Fürsorge bessere Überlebenschancen und mehr Zeit zu lernen. Entspricht das Verhältnis von Beutetieren zu Räubern in einem Ökosystem nicht den von der Nahrungskette geforderten Proportionen, treten Selbstregulationsmechanismen in Kraft. Gibt es zu viele Störche, geht die Froschpopulation unseres Teiches zurück. Das wiederum führt mit der Zeit zu einer Verringerung des Storchenbestandes. Die Frösche können sich dann erholen, so dass infolge auch die Zahl der Störche wieder zunimmt. So bildet sich ein dynamisches Gleichgewicht; in einem gesunden Ökosystem wird es keine großen Ausschläge zeigen. [ii]   Der Gang alles Irdischen Die Nahrungskette ist ein kleiner Teil eines großen Kreislaufs. Denn auch die Störche, als Spitzenprädatoren unseres winzigen Ökosystems, gehen am Ende den Weg alles Irdischen. Auf den verlassenen Schlachtfeldern der Selektion   zerlegen Würmer, Insekten, Pilze und Bakterien als Destruenten unauffällig organisches Material durch Fäulnis und Verwesung wieder in seine chemischen Ausgangsstoffe. Destruenten kehren die Aufbaureaktionen der Biomassen um, indem sie Abfällen, Exkrementen und Leichen ihre letzte verbliebene chemische Bindungsenergie entziehen. Ohne ihr destruktives Werk würde sich überall tote organische Materie aufhäufen und das Leben über kurz oder lang ersticken. Die Destruenten bewahren uns vor diesem schrecklichen Schicksal und geben gleichzeitig der unbelebten Natur den geborgten Kohlenstoff, Stickstoff Schwefel und Phosphor wieder zurück (Was geschehen kann, wenn ein Glied im Stoffkreislauf fehlt, zeigte sich im letzten Jahrhundert in Australien. Auf dem isolierten Kontinent gab es keine Destruenten, die in der Lage waren, den Dung der von den Europäern eingeführten Rinder und Schafe zu zersetzen. Das Problem konnte erst durch den Import afrikanischer und europäischer Mistkäfer gelöst werden.)  Der Kohlenstoffkreislauf Neue Generationen von Leben können nun die Elemente   wieder einfangen und das Spiel von vorne beginnen lassen. So wandern die Stoffe im Kreislauf zwischen belebter und unbelebter Natur hin und her.   Das Leben ist auch kooperativ Bei der Betrachtung von Nahrungsketten könnte leicht der Eindruck entstehen, dass Biozönosen vor allem durch unerbittliche Räuber-Beute-Beziehungen geprägt sind. Doch wesentliche Teile der irdischen Biomasse leben durchaus friedlich zusammen. Der konstruktive Gegenentwurf zum Räuber-Beute-Schema ist die Symbiose . Sie kennt keine Verlierer: Pilze und Bakterien bilden gemeinsam Flechten, bei denen die Pilze die Bakterien vor Austrocknung schützen und dafür im Gegenzug mit Nährstoffen versorgt werden. Blütenpflanzen entlohnen Bienen für ihre Bestäubungsdienste mit Pollen. Ameisen dürfen als Schutzmacht der Blattläuse deren Honigtau melken. Und Darmbakterien ist es gestattet, es sich als Gegenleistung für ihren Stoffwechselbeitrag im Verdauungstrakt von Mensch und Tier gemütlich zu machen. Aus Sicht der Evolution ist jede Strategie gut, die den Fortpflanzungserfolg erhöht.   Passt das? Viele Lebewesen scheinen auf den ersten Blick für ihre Umwelt wie geschaffen. Teichrosen, Knöterich, Frösche, Wasserflöhe, Libellen, Schleien und Störche sind hervorragend an das Biotop  Tümpel angepasst – so gut, dass man sich dieses Phänomen vor Lamarck und Darwin nur mit einem intelligenten Schöpfer erklären konnte. Die Passgenauigkeit der verschiedenen Spezies mit ihrem Milieu wird – etwas irreführend – als ökologische Nische  bezeichnet. In den nüchternen Augen der Ökologen sind diese Nischen einfach nur Planstellen, die im Biotop zu vergeben sind: Wer die ausgeschriebenen Bedingungen am besten erfüllt, bekommt die Stelle. Wie bei anderen Auswahlverfahren auch, wird aber kaum ein Kandidat allen Anforderungen zu hundert Prozent gerecht. Jede Art hat ein spezifisches Optimum aus Umweltfaktoren – Wasservorkommen, Temperatur, Schatten, Luftfeuchtigkeit, Nahrungsquellen – das ihrem physiologischen Wohlbefinden und damit ihren Fortpflanzungschancen am besten entspricht. Naturgemäß versuchen alle Arten, diese Nischen zu finden und zu besetzen. Überschneiden sich die Präferenzen mit denen einer anderen Art, entsteht Konkurrenz. Die unterlegene Art muss sich dann in einer Nische jenseits ihres Optimums ansiedeln. Daher leben die meisten Arten tatsächlich nicht unter den Bedingungen, unter denen sie am besten gedeihen würden. Müssen die Frösche etwa Kröten weichen, bleibt ihnen, falls sich kein anderer Tümpel findet, vielleicht nur die Möglichkeit, sich an einem benachbarten Fließgewässer niederzulassen. Das ist bei langsamen Fließgeschwindigkeiten möglich, entspricht aber nicht den optimalen Lebensbedingungen der Frösche. Jede Art hat gegenüber Abweichungen von ihrem idealen Mix an Lebensbedingungen eine mehr oder minder große Toleranz. Wie gut eine bestimmte Spezies diese Abweichung verträgt, lässt sich mit Hilfe von Toleranzkurven  darstellen. Mit ihnen beschreiben Ökologen jene Bereiche von Umweltfaktoren – für unseren Frosch etwa die Fließgeschwindigkeit eines Gewässers – mit denen eine Art jeweils zurechtkommen kann. Das Überschreiten von Toleranzschwellen bedeutet den Tod. Der Tod, den wir als „natürlich“ bezeichnen, das Sterben aus Altersschwäche, kommt in der Natur kaum vor. Jämmerlich zu verdursten, zu verhungern, zu erfrieren, erbarmungslosen Mikroben oder Fressfeinden zum Opfer zu fallen, im Schatten größerer Gewächse zu verenden oder sonst wie im Kampf um die Nische zu unterliegen, ist die Bestimmung der allermeisten Pflanzen und Tiere. So haben Rotkehlchen eine Lebenserwartung von einem Jahr, freilaufende Katzen von drei Jahren. [iv]     Störfaktor Mensch Der Mensch und die mit ihm entstandene kulturelle Evolution  ist ein neuer Spieler in diesem Beziehungsgeflecht, ein Spieler, der die bisherigen rein biologisch-ökologischen Gleichgewichtszustände massiv zu stören vermag. Heute führt der Homo sapiens dem Kohlenstoffkreislauf große Mengen von CO2 zu, die viele Millionen Jahre lang als Kohle-, Erdöl- und Erdgaslager im Boden dem globalen Stoffwechselspiel entzogen waren. Er vermindert damit die Fähigkeit unseres offenen Systems Erde, die empfangene Sonnenenergie wieder abzustrahlen. Die daraus folgende Erwärmung wird zahlreiche Arten über die Ränder ihrer Toleranzkurven bringen. Die Biosphäre wird diesen Eingriff überleben, ihr dynamisches Gleichgewicht aber wird danach ein anderes sein. Wie alle Biotope auf unserem Planeten werden dies auch die Bewohner unseres kleinen Tümpels zu spüren bekommen.     Den Blog entdecken   Wer mehr wissen will:   Bildnachweise: Tümpel   Anmerkungen [i] Das Wort Ökologie leitet sich ebenso wie der Begriff Ökonomie von dem griechischen Wort „oikos“ ab, der Haus- und Wirtschaftsgemeinschaft im alten Griechenland. Ökologie ist also die Lehre vom Haushalt der Natur. [ii] Dieser Zusammenhang wurde mathematisch erstmals und – einmal mehr – unabhängig voneinander durch den österreichischen Mathematiker Alfred Lotka und den italienischen Physiker Vito Volterra in Form nichtlinearer Differentialgleichungen beschrieben. [iv]  Bis heute fehlt eine allgemein anerkannte Theorie, die das biologische Phänomen Tod umfassend erklärt. Dass der Tod zwingend zum Leben gehöre, ist eine gängige, aber falsche Vorstellung. Denn Einzeller – sie repräsentieren immerhin die Hälfte der Biomasse der Erde – sind potentiell unsterblich: Grundsätzlich hindert sie nichts daran, sich endlos weiterzuteilen. Die Zwangsläufigkeit des biologischen Tods ist auf mehrzellige, arbeitsteilige Organismen beschränkt, in denen früher oder später lebenswichtige Gewebeteile ausfallen.

  • Warum wir nicht alles glauben sollten, was wir denken…

    Fortsetzung von "Dimensionen der menschlichen Seele" Das schwere Erbe der Evolution Unsere Gene   erzählen eine Milliarden Jahre alte Geschichte. Unter der dünnen Schicht von Bewusstsein   und Kognition , die die Evolution   erst vor kurzem über unser Großhirn   gelegt hat, befinden sich Mechanismen, die ihre Tauglichkeit bereits über hunderte von Millionen Jahren bewiesen haben. Die alten Funktionen sind trotz der rasanten kulturellen Entwicklung , die uns der Geist bescherte, nach wie vor vorhanden und in vollem Umfang aktiv: Unser Hirnstamm lässt sich von dem eines Krokodils kaum unterscheiden. Wie wir bereits gesehen haben, ersetzt das konservative Räderwerk der Evolution Bewährtes so schnell nicht. Es ist daher auch keineswegs verwunderlich, dass sich die Programme alter Hirnschichten bei jeder passenden und unpassenden Gelegenheit melden und mit den Denkmustern des Neokortex in Konflikt geraten. Oftmals liegen die Ursachen dieser Spannungen im limbischen System , denn hier werden die Emotionen  gemacht. Die zentrale Schaltstelle des Systems ist ein Hirnareal, das aufgrund seiner Seepferdchen-ähnlichen Form als Hippocampus  bezeichnet wird. Der Hippocampus ist in erste Linie ein Arbeitsspeicher, der jene Reize herausfiltert, die ins Langzeitgedächtnis überführt werden sollen, also im wahrsten Sinne „ merkwürdig “ sind. Zusammen mit der benachbarten Amygdala , dem Mandelkern, entstehen hier aber auch jene Emotionen, die wir als Angst, Wut oder Freude empfinden. [i]    Wichtige Bereiche des menschlichen Gehirns Emotionen sind angeboren und interkulturell In seinem 1872 erschienenen Buch „Der Ausdruck der Gemütsbewegungen bei dem Menschen und den Tieren“ beschreibt Charles Darwin , wie Mimik und Gestik Emotionen verraten. Darwin war überzeugt, dass zahlreiche emotionale Expressionen in allen menschlichen Kulturen gleich sind und somit angeboren sein müssen. 100 Jahre später belegte der amerikanische Psychologe Paul Ekman  diese These durch umfangreiche interkulturelle Studien. Er wies nach, dass insgesamt sieben Emotionen – Wut, Ekel, Verachtung, Trauer, Angst, Freude und Überraschung – von allen Menschen, ganz gleich, ob sie in einer pazifischen Stammesgesellschaft leben oder in den Häuserschluchten von Manhattan, gleichermaßen durch den Gesichtsausdruck kommuniziert und verstanden werden. [ii] Emotionen sind tatsächlich angeboren und nicht in einem bestimmten kulturellen Umfeld erlernt worden. Da wir Gemütsbewegungen nicht vor anderen verbergen können, ermöglichen sie sozialen Gehirnen die Gefühle der Mitmenschen zu lesen. Das limbische System teilt Umweltreize nach einem sehr einfachen Schwarz-Weiß-Raster in die beiden Kategorien gut oder schlecht für den Reproduktionserfolg ein. Auffallend ist, dass die sieben Basisemotionen vor allem um negative Gefühle kreisen. Das liegt daran, dass Schlechtes und Überraschendes aus Sicht der Evolution einen höheren Informationswert besitzt. Wer bei Gefahr die falschen Programme abspulte, zählt nicht zu unseren Vorfahren. Es gilt das Motto: Ein Baum, der fällt, ist lauter als ein Wald, der wächst. [iii]  Potentielle Bedrohungen aktivieren sofort Schutzmechanismen. Bei Wut werden Adrenalin und Kortisol ausgeschüttet, Botenstoffe, die Blutdruck und Herzfrequenz erhöhen und uns so in Kampfbereitschaft versetzen. Ekel schützt uns vor verdorbener Nahrung, Verachtung vor falschen Freunden. Überrascht sind wir, wenn wir eine plötzlich eintretende neue Situation noch nicht als gut oder schlecht bewerten können. Der Arbeitsspeicher des Hippocampus wird dann sofort geleert, um Kapazitäten für die Klärung der neuen Lage bereitzustellen.   Unsere innere Alarmanlage Ist Gefahr im Verzug, wird die Amygdala aktiv. Das Alarmzentrum des limbischen Systems enthält eine Risikodatenbank, die mit sehr einfachen, aber schnellen Algorithmen verknüpft ist. Um die eingehenden Reize noch rascher verarbeiten zu können, werden die Datensätze weiter reduziert: Das Farbsehen wird ausgeschaltet, die Bildauflösung zu einem unscharfen schwarz-weiß-Bild vereinfacht. Die Emotionen Wut und Angst müssen möglichst schnell eine Kampf-oder-Flucht-Reaktion   vorbereiten. Es bleibt keine Zeit, das Bewusstsein einzuschalten – der Grund, warum wir die groben schwarz-weiß Pixel gar nicht erst wahrnehmen. Emotionen lassen sich auch leicht auf andere übertragen. Insbesondere Angst ist ansteckend: Fangen Menschen in unserer Nähe plötzlich an zu rennen, rennen auch wir, ohne uns lange zu fragen warum. Wenn in der ostafrikanischen Savanne ein Rudel Löwen auftauchte, war dies ein sinnvolles Muster; in den Straßen oder Stadien unserer modernen Zivilisation aber kann dieses Verhalten tödliche Massenpaniken auslösen. [iv]  Dieses Schema ist tief in uns eingebrannt und lässt sich von der Ratio nicht übersteuern – die älteren Programme der Evolution sitzen an einem viel längeren Hebel. Emotionen sind zugleich unsere besten Freunde und unsere schlimmsten Feinde.   Drei Hormone, die uns glücklich machen Immerhin hat die Natur auch der Freude eine Berechtigung eingeräumt. Freude ist eine überaus vielschichtige Emotion. Wenn unsere Vorfahren durch die Savanne streiften und unverhofft auf einen Baum mit süßen Früchten stießen, half der Ausstoß des Neurotransmitters   Dopamin , sich die Stelle besser merken zu können – verhieß das „merkwürdige“ Ereignis doch die Zufuhr überlebenswichtiger Kohlenhydrate . Verwaltet wird das gute Gefühl im Nucleus accumbens , dem Belohnungszentrum im vorderen Bereich des limbischen Systems. Hier befinden sich zahlreiche Dopaminrezeptoren, die uns zu Glücksgefühlen verhelfen. Das Belohnungszentrum hat allerdings auch eine dunkle Seite: Alkohol, Drogen oder der Kick, den uns Risiken wie Fallschirmspringen oder Glücksspiele verschaffen, führen ebenfalls zur Ausschüttung von Dopamin. Der Nucleus accumbens spielt somit auch bei der Entwicklung von Süchten eine Rolle: Das Gehirn lässt uns dann Situationen suchen, die die Produktion der Dopamin-Droge anregen. Zu den Glückshormonen zählen weiterhin die Endorphine . Sie werden durch die Hypophyse , die Hirnanhangsdrüse sowie den benachbarten Hypothalamus ausgeschüttet und sind chemisch mit Opiaten verwandt. Endorphine spielen insbesondere bei der Schmerzunterdrückung und der Entstehung euphorischer Gefühle eine Rolle und verstärken zudem die Wirkung von Dopamin. Das dritte Hormon, das uns gute Gefühle beschert, ist Oxytocin , oftmals auch als „Kuschelhormon“ bezeichnet. Es erzeugt die Empfindungen, die wir mit Liebe, Treue, Vertrauen oder der Mutter-Kind-Bindung verbinden.   Optische Täuschungen zeigen uns nicht die Realität, sondern die Wirklichkeit In den neuronalen Netzen älterer Gehirnschichten verfangen wir uns nicht nur emotional. Auch ganz gewöhnliche sensorische Reize unterliegen evolutionären Deutungen. Anstatt der Realität (das, was ist), vermitteln sie uns die Wirklichkeit, (das, was auf uns wirkt). Ein prominentes Beispiel hierfür sind optische Täuschungen . Sie verschaffen uns tiefe Einsichten in die Prinzipien, nach denen das Gehirn die Wirklichkeit konstruiert. Das linke Bild zeigt die bekannte Müller-Lyer-Illusion. Obwohl beide Linien in der Realität gleich lang sind, können wir uns mit dem Verstand nicht dagegen wehren, dass wir die rechte Linie als länger wahrnehmen. Bei der rechts zu sehenden Schachbrett-Illusion empfinden wir die Schattierung von Feld B heller, als die des Feldes A.  Müller-Lyer- und Schachbrettillusion Die beiden folgenden Graphiken machen deutlich, dass uns die vermeintlichen Täuschungen tatsächlich wichtige Wirklichkeiten vermitteln:  Auflösung der Müller-Lyer- und Schachbrettillusion Beim ersten Bild ist die rechte Linie nun die Ecke eines Raumes, die linke Linie Teil eines weiter vorne befindlichen Eckfensters. Die Erfahrung hat uns gelehrt, dass wenn zwei Objekte unterschiedlich weit entfernt sind, uns aber gleichgroß erscheinen, das weiter entfernte Objekt das größere ist. Deshalb empfinden wir die rechte Linie als länger. Auf dem Schachbrett machen die beiden hinzugefügten grauen Balken deutlich, dass Feld A und Feld B in Wahrheit die exakt selbe Graustufe haben. Das Gehirn hat hier einen Konflikt zu lösen: Es muss sich entscheiden, ob es die Farbschattierung genau wiedergeben soll, oder ob es wichtiger ist, auch bei ungünstigen Lichtverhältnissen (hier repräsentiert durch den Schatten des Zylinders) weiterhin Muster erkennen zu können. Das Gehirn spricht sich in diesem Fall eindeutig für die Mustererkennung aus. Sie hat den höheren evolutionären Informationswert. Bei den folgenden Abbildungen sehen wir links die Kanizsa-Täuschung , zwei sich überlagernde Dreiecke. Rechts erkennen wir auf dem Bild von Henri Rousseau sofort einen Löwen. Kanizsas Dreieck und der hungrige Löwe von Henri Rousseau Tatsächlich zeigt das linke Bild lediglich drei Kreissegmente und drei Winkel. Und Rousseau zeigt uns keinen Löwen, sondern lediglich dessen Kopf. Solche Prinzipien, die unsere visuelle Wahrnehmung organisieren, wurden erstmals 1878 durch Hermann von Helmholtz  beschrieben und insbesondere von Max Wertheimer  und Wolfgang Köhler  zur Gestaltpsychologie  beziehungsweise Gestalttheorie erweitert. Von Helmholtz erkannte, dass wesentliche Teile dessen, was wir „sehen“, nicht durch unseren optischen Apparat entsteht, sondern vielmehr automatische Ergänzungen unseres Gehirns sind. Wir verarbeiten Reize also nicht unmittelbar zu Wahrnehmungen, sondern komplettieren sie vielmehr mit Hilfe von einfachen, erlernten Regeln wie: „Sonnenlicht kommt immer von oben und ist im Normalfall die hellste Lichtquelle“. Bei der Kanizsa-Illusion geht das Gehirn davon aus, dass die schwarzen Objekte aller Wahrscheinlichkeit nach Kreisscheiben sind, die, da wir sie nicht vollständig sehen können, teilweise durch einen dreieckigen Gegenstand verdeckt sein müssen. Nach dem gleichen Prinzip ergänzt unser Gehirn den Kopf des Löwen automatisch zu dem vollständigen Raubtier. Gestaltprinzipien erlauben es uns, den Alltag zu bewältigen, ohne die Welt tatsächlich vollständig verstehen zu müssen. Auch die so genannte Farbkonsistenz ist ein Verzerrung: Wir sehen einen Briefkasten immer nur einfach als gelb obwohl das Gelb sich in Abhängigkeit vom Lauf der Sonne oder der Bewölkung laufend verändert Verzerrtes Denken Wahrnehmen und Denken sind aus neurophysiologischer Sicht recht ähnliche Prozesse. Wir sollten uns daher auch nicht der Illusion hingeben, dass wir besser denken als wahrnehmen können. Deutlich wird dies bei kognitiven Verzerrungen , umgangssprachlich auch als „Denkfallen“ bekannt. Betrachten wir drei Beispiele. Das erste sind „ Schockrisiken “. Wir fürchten uns vor Ereignissen, bei denen zahlreiche Menschen plötzlich am selben Ort sterben können – etwa Flugzeugabstürze, Epidemien oder Terroranschläge. Diese Furcht steckt tief in uns. Wir messen daher solchen Vorkommnissen unwillkürlich eine höhere statistische Relevanz zu, als ihnen tatsächlich zukommt. Das Risiko bei einem Autounfall zu sterben ist wesentlich höher, als das eines Flugzeugabsturzes – allein die Anfahrt zum Flughafen ist viel gefährlicher als der Flug selbst. [v]  Dennoch erhalten Flugzeugunglücke eine ungleich größere mediale Beachtung. Hinter der verzerrten Risiko-Wahrnehmung steckt einmal mehr ein evolutionärer Mechanismus: Schockrisiken können auf einen Schlag den Genpool einer gesamten Sippe auslöschen – etwa, wenn der Affenclan durch ein Löwenrudel angegriffen wird. Die Evolution hat, ganz im Sinne des egoistischen Gens , in uns ein Programm installiert, das uns lehrt, Situationen zu meiden, in denen solche Vernichtungsszenarien drohen. Unser verzerrtes Denken hat einen handfesten biologischen Ursprung. Eine andere kognitive Verzerrung ist zeitinkonsistentes Verhalten . Wir wissen, dass Rauchen, Trinken und Bewegungsarmut auf Dauer erhebliche Gesundheitsrisiken bergen. Ebenso wissen wir, dass der CO 2 -Ausstoss über kurz oder lang das ökologische Gleichgewicht unseres Planeten verändern wird und wir dadurch nachkommenden Generationen ein schweres Erbe aufbürden. Dennoch ändern die Wenigsten von uns ihr Verhalten konsequent. Auch bei diesem paradoxen Muster sitzen die evolutionären Programme am längeren Hebel: In den vergangenen Jahrmillionen war die größte Sorge unserer Vorfahren das tägliche Überleben. Der Spatz in der Hand ist uns von jeher lieber als die Taube auf dem Dach. Denken in langfristigen, erst recht in generationenübergreifenden Horizonten, ist unserm Wesen fremd.   Fatale Gruppenzwänge Verzerrungen können, wie das dritte Beispiel zeigt, nicht nur individuell, sondern auch auf einer kollektiven Ebene wirken. Für den Menschen, als überaus sozialem Tier, hat die Gewissheit, allein nicht überleben zu können, unser evolutionäres Unterbewusstsein   nachhaltig geprägt: Nichts ist schlimmer, als von der Gruppe ausgeschlossen zu werden. Das Leben in der Gemeinschaft aber hat zwei Seiten: Einerseits gegenseitige Rücksichtnahme, die Suche nach Konsens, Einfühlungsvermögen, Mitleid und das Befolgen moralischer Regeln, die das Zusammenleben erleichtern oder vielleicht überhaupt erst möglich machen. Andererseits Gruppendruck, Konformitätszwang und das Einfügen in Rollen und Hierarchien. Unser Stammhirn funktioniert genauso, wie das eines Krokodils Dass im Konfliktfall nicht immer der Gemeinsinn die Oberhand behält, hat der amerikanische Psychologe Stanley Milgram  Anfang der 1960er Jahre in einem der bekanntesten Verhaltensexperimente eindrucksvoll nachgewiesen. Den Teilnehmern wurde vorgetäuscht, dass sie an einem wissenschaftlichen Experiment teilnähmen. Angebliches Ziel war es, zu überprüfen, ob sich die Lernfähigkeit verbessern lässt, wenn der Lehrer dem Schüler bei einer falschen Antwort einen Stromschlag verabreicht. Den Teilnehmern, allesamt brave Durchschnittsbürger, die nicht wussten, dass sie selbst die Versuchskaninchen waren, wurde die Rolle des Lehrers zugewiesen. Der wissenschaftliche Versuchsleiter, in Wahrheit ein Schauspieler mit einem weißen Kittel, gab ihnen die Anweisung, die Stromspannung nach jeder falschen Antwort zu erhöhen. Die Teilnehmer konnten die „Schüler“ – ebenfalls Schauspieler – nicht sehen, wohl aber hören. Obwohl die Schüler ab 200 Volt Spannung schreckliche Schmerzensschreie ausstießen und ab 300 Volt gar nicht mehr reagierten, folgten knapp zwei Drittel der Teilnehmer den freundlichen, aber bestimmten Anweisungen des Versuchsleiters und erhöhten die Spannung bis zur maximalen und potentiell tödlichen Grenze von 450 Volt. Eine deutliche Mehrheit befolgte die Anweisungen einer formal höhergestellten Person auch dann, wenn sie den eigenen ethischen Überzeugungen widersprachen. Mitläufereffekt, Duckmäusertum und opportunistisches Verhalten sind Ausdruck der evolutionären Urangst, sich gegen Gruppenmitglieder zu stellen, die in der Hierarchie besser platziert sind. Versuchsaufbau des Milgram-Experiments: V = Versuchsleiter; L = Lehrer; S = Schüler Der ewige Kampf der Hirnschichten Unser mentales Sein setzt sich aus verschiedenen rivalisierenden Instanzen zusammen, die teils biologischen, teils kulturellen Ursprungs sind. Wir haben es nicht immer selbst in der Hand, welchen Einflüssen wir folgen oder nachgeben. Fest steht aber, dass wir keineswegs nur triebhaft handeln, denn Menschen können sich über biologische Programme hinwegsetzen: Wir sind mitunter nicht nur willens, für andere Menschen zu sterben (was sich noch mit evolutionärem Altruismus erklären ließe), sondern auch für unsere Überzeugungen. Aus Sicht der evolutionären Psychologie ist auch das Bewusstsein nur eines unter zahllosen Experimenten, die den Überlebens- und Reproduktionserfolg erhöhen sollen. Wie erfolgreich wir mit dieser Strategie sein werden, wird sich erst langfristig zeigen – immerhin hat es sich bisher als überaus dienlich erwiesen. Das liegt nicht zuletzt daran, dass bewusstes Erleben auch Möglichkeiten der Kommunikation gestattet, die die der Tiere bei weitem übertreffen. Mit der Sprache   haben die Menschen einen Weg gefunden, ihre Gedanken mit denen anderer Gehirne ihrer Spezies direkt auszutauschen. Mit diesem Beitrag endet die Artikelserie zum Thema "Bewusstsein"   Den Blog entdecken   Wer mehr wissen will: Gigerenzer, Gerd (2013): „Risiko“, C. Bertelsmann. Kandel, Eric (2006): „Auf der Suche nach dem Gedächtnis“, Pantheon. Kandel, Eric (2014): „Das Zeitalter der Erkenntnis“, Pantheon Kahneman, Daniel (2011): „Schnelles Denken, langsames Denken“, Siedler.   Bildnachweise: Milgram-Experiment Anmerkungen: [i] Einige Bestandteile des limbischen Systems wie Hippocampus und Amygdala existieren genau genommen anatomisch zweimal, jeweils in der linken und der rechten Gehirnhälfte. [ii]  Daneben gibt es noch weitere Emotionen, die allerdings nicht eindeutig in allen Kulturen aus der Gesichtsmuskulatur abzulesen sind. Ekman nennt hierfür Belustigung, Zufriedenheit, Verlegenheit, Aufregung, Erleichterung, Schuld, Stolz, Lust, Genugtuung und Scham. [iii]  Ein Prinzip von dem auch Zeitungen und Nachrichtensender leben. [iv]   Solche Urängste werden sowohl von Terroristen als auch von Marketingexperten ausgenutzt. So ist der Kassenbereich in Supermärkten im Gegensatz zum Warenbereich meist schlechter beleuchtet. Die angeborene Furcht vor der Dunkelheit soll die Kunden bewegen, sich lieber länger im hellen Teil des Supermarkts aufzuhalten um dort hoffentlich mehr zu kaufen. [v]  Als infolge der Angriffe vom 11. September 2001 die Anzahl der Flüge in den Vereinigten Staaten massiv einbrach, nahm der Autoverkehr stark zu. In den 12 Monaten danach starben in den USA etwa 1.600 Menschen mehr als gewöhnlich durch Verkehrsunfälle – etwa die Hälfte der unmittelbaren Anschlagsopfer. Vgl. Gigerenzer (2013) S. 21.

  • Anatomie der Atome: die Entdeckungsgeschichte der Quantenphysik. Teil 2: Von Helgoland nach Hiroshima

    Fortsetzung von „Anatomie der Atome: die Entdeckungsgeschichte der Quantenphysik Teil 1: Merkwürdige Phänomene   Was die Welt im Innersten zusammenhält An dieser Stelle setzten Heisenbergs Überlegungen ein, die er auf Helgoland anstellte: Wie ließ sich das Verhalten massebehafteter Quanten  beschreiben? Was bedeutet es, wenn Elektronen  und Protonen  Welleneigenschaften besitzen? Die Antwort auf diese Fragen gilt als Geburtsstunde der Quantenmechanik , der Physik der kleinsten Teilchen. Die Regeln des newtonschen Universums sind hier nicht mehr gültig. In der klassischen Mechanik ist es möglich, den Ort und Impuls eines bewegten Objekts gleichzeitig zu bestimmen: Fährt ein Auto in eine Radarfalle, lässt sich genau sagen, wo das geschah und welche Geschwindigkeit und Masse das Fahrzeug hatte. In der Quantenwelt aber gilt dies nicht mehr. Der Wellencharakter macht eine exakte simultane Orts- und Impulsbestimmung der Elektronen unmöglich. Heisenberg fasste diese Erkenntnis 1927 in einer einfachen Formel zusammen, der Unschärferelation t [i] : ∆x ∙ ∆p ~ h Dabei steht ∆ x  für die Ungenauigkeit der Ortsbestimmung, ∆ p für die Ungenauigkeit der Impulsmessung. Das Produkt aus den beiden diffusen Größen entspricht in etwa dem Planckschen Wirkungsquantum h. [ii]   Will man den Ort genauer bestimmen, indem man die Unschärfe  verringert, ergibt sich durch die multiplikative Verknüpfung unweigerlich eine Einbuße der Genauigkeit der Impulsmessung.   Je genauer wir also bei der einen Größe hinschauen, umso weniger können wir über die andere wissen. Werner Heisenberg Warum ist das so? Zur Beobachtung sehr kleiner Teilchen benötigen wir extrem kurzwelliges Licht . Kurzwelliges Licht aber ist sehr energiereich. Trifft ein Beobachtungs-Photon auf das Elektron, wirft es den leichten Ladungsträger aus der Bahn. Die Lichtmessung sagt uns zwar, wo das Elektron war, aber nicht, welchen Impuls es hatte, bevor es von dem Photon getroffen wurde. Versuchen wir nun den Impuls genauer zu bestimmen, indem wir mit langwelligerem, weniger energiereichen Licht messen, wird es zunehmend schwieriger, den Ort des Teilchens zu bestimmen. Die Unmöglichkeit einer simultanen Ermittlung von Ort und Impuls ist aber nicht nur ein Problem des Messvorgangs; es ist die Natur der Elementarteilchen, unscharf zu sein, eben, weil sie zugleich Welle und Materie sind. Das Produkt aus den beiden Ungewissheiten kann dabei den Wert der Planckschen Konstante „h“ nie unterschreiten. Letztlich lässt sich also der Zustand eines Quantums nicht exakt bestimmen. Wir stoßen hier an eine grundlegende Erkenntnisgrenze. Heisenberg dachte darüber nach, wie sich solche nichtdeterminierten Zustände wissenschaftlich beschre i ben lassen. Letztlich kam hierfür allein die Stochastik , die Mathematik des Zufalls, infrage. Mit ihrer Hilfe lassen sich Wahrscheinlichkeiten berechnen, ein Elektron innerhalb eines definierten Raumbereichs anzutreffen. Ob es sich zu einem bestimmten Zeitpunkt dort auch tatsächlich aufhält, können wir allerdings nicht wissen. Regiert der Zufall das Universum? Diese Einsicht ist durchaus von philosophischer Tragweite, denn man kann sie so interpretieren, dass die Welt letztlich vom Zufall regiert wird. Die unterste Ebene des Seins spielt demnach nicht Billard, sondern Roulette! Wo Zustände von Energien und Massebausteinen nicht eindeutig bestimmbar sind, gibt es auch keine deterministischen Spielregeln. Damit wäre aber auch der Laplacesche  Dämon   ein für alle Mal ausgetrieben: Wo der Zufall regiert und es keine objektiv beschreibbare Wirklichkeit  gibt, kann keine Vergangenheit rekonstruiert, keine Gegenwart bestimmt und keine Zukunft vorhergesagt werden. [iii] Urheber der Idee einer vollkommen determinierbaren Welt: Pierre-Simon Laplace Ebenfalls Mitte der 1920er Jahre war der österreichische Physiker Wolfgang Pauli  zu einer weiteren grundlegenden Erkenntnis gekommen: Anders als masselose Teilchen, können sich Elektronen, Protonen und Neutronen nicht beliebig nahekommen. Das nach seinem Entdecker benannte Pauli-Prinzip besagt, dass sich aufgrund gewisser Quanteneigenschaften in einen definierten Raumbereich immer nur eine bestimmte Höchstzahl von Elektronen aufhalten kann. Damit hatte nun auch das grundlegende Ordnungsprinzip der Chemie   eine quantenmechanische Fundierung erhalten. Nach und nach wurde klar, dass es gerade die unscharfen Quantenzustände sind, die die Welt im Innersten zusammenhalten. Wellen breiten sich in alle Richtungen aus und schwingen zwischen Kern und Rand des Atoms wie die Saiten einer Gitarre. Sie spannen die Räume der dinglichen Welt auf, verhindern, dass die negativ geladenen Elektronen in den positiv geladenen Kern stürzen und verleihen der Materie so ihre Stabilität. Sie sind der Grund, warum wir nicht einfach durch eine Tischplatte hindurchgreifen können, obwohl Atome fast ausschließlich aus Nichts bestehen. Erst bei einer Temperatur von -273° Celsius würden die Teilchen ihre Schwingungen einstellen – ein Zustand, der nach dem Dritten Hauptsatz der Thermodynamik   nicht erreicht werden kann. Zahllose Experimente haben die Quantenphysik heute zu der am besten fundierten naturwissenschaftlichen Theorie überhaupt gemacht. Die Technologien, die auf ihr basieren – Transistoren, Supraleiter, Laser, Photovoltaik oder bildgebende Verfahren der Medizintechnik – haben unseren Alltag in den letzten 100 Jahren radikal verändert.   Der immer noch unbekannte Atomkern In der makroskopischen Welt hingegen überlagern sich die Teilchen. Ihre Wechselwirkungen beeinflussen sich gegenseitig, sodass aus der Summe zahlloser Zufälle die für uns fassbare Welt mit ihren berechenbaren Eigenschaften entsteht. Nur deshalb können die Photonen eines Lichtblitzes die Position eines Autos in einer Radarfalle bestimmen und nur deshalb verhalten sich die Kugeln auf dem Billardtisch gemäß der Newtonschen Bewegungsgesetze . 1932 entdeckte der Rutherford -Schüler, James Chadwick , im Atomkern einen weiteren Masseträger, der sich als elektrisch neutral herausstellte. Rutherford hatte die Existenz des Neutrons  bereits vorhergesagt. Der Physikergemeinde rief dies schmerzhaft in Erinnerung, dass man von den Vorgängen in der Atomhülle weitaus bessere Vorstellungen hatte als vom Atomkern selbst. Welche Rolle spielten die Neutronen? Warum platzte der mit positiven Protonen gefüllte Kern nicht einfach auseinander? Und woher kamen jene rätselhafte Strahlungskräfte, die Becquerel und die Curies beobachtet hatten? All dies legte nahe, dass außer Elektromagnetismus und Gravitation  noch mindestens zwei weitere Kräfte im Atomkern beheimatet sein mussten. Die erste Kraft musste so stark sein, dass sie die mächtige elektromagnetische Abstoßungskraft gleich geladener Teilchen überspielen konnte. Die zweite musste für die Strahlungsaktivität der schweren Elemente   verantwortlich sein. Warum Atome nicht in den Himmel wachsen können In den 1930er Jahren konkretisierten sich nach und nach die Vorstellungen vom atomaren Kräftespiel. Wie jedes physikalische System streben auch Atomkerne stets nach einem Stabilität verheißenden Zustand niedrigerer Energie. Ein Turm aus Bauklötzchen wird, je höher, umso wackeliger, bis er irgendwann in sich zusammenstürzt. Physikalisch bedeutet dies nichts weiter, als dass die Energie, die in den Aufbau des Systems gesteckt wurde, auf einen Schlag wieder freigesetzt wird. Der Trümmerhaufen mag nicht schön anzusehen sein, aber er stellt ein stabileres System niedrigerer Energie dar und damit einen für die Natur erstrebenswerten Zustand. So manches in der Welt steht auf tönernen Füssen... Im Atomkern verhält es sich grundsätzlich genauso. Die Grundkraft , die die Protonen zusammenhält und der man naheliegenderweise die Bezeichnung „ starke Kernkraft “ gegeben hatte, liegt mit der abstoßenden elektromagnetischen Kraft im Streit. Dabei steigt mit zunehmender Protonenzahl die Stabilität zunächst an. Helium ist mit zwei Protonen stabiler als Wasserstoff, Lithium mit drei positiven Ladungsträgern wiederum stabiler als Helium. Die wachsende Protonenzahl führt dazu, dass die Bindungsenergie pro Nukleon zunächst steigt, was mit höherer Stabilität einhergeht. Allerdings ist die Reichweite der starken Kernkraft extrem begrenzt. Für die elektromagnetische Gegenkraft gilt dies nicht, daher wächst deren Wirkung mit zunehmender Kerngröße überproportional an. Bis zum Eisen  mit seinen 26 Protonen nimmt der Stabilitätssaldo noch insgesamt zu. Eisen ist somit das stabilste aller Elemente. Bei schwereren Elementen überwiegt der elektromagnetische Kraftzuwachs, so dass die Gesamtstabilität des Systems wieder schrittweise abnimmt. Ab dem Element Blei, mit seinen 82 Protonen, macht sich, wie bei einem zu hohen Bauklötzchenturm, die zunehmende Instabilität bemerkbar. Es kann sein, dass der Kern zerfällt. Jenseits des Urans mit 92 Protonen ist die Stabilität dann ganz dahin. So sorgt das Wechselspiel zwischen starker Kernkraft und Elektromagnetismus dafür, dass die atomaren Türme nicht in den Himmel wachsen und sich zu immer größeren Einheiten zusammenschließen. Die Reichweite der starken Kernkraft ist extrem kurz, sie wirkt nur innerhalb des Atomkerns selbst. Zudem verfügt sie – ganz im Gegenteil zu Gravitation und Elektromagnetismus  – über die besondere Eigenschaft, mit zunehmendem Abstand stärker zu werden. Den Neutronen kommt dabei die Aufgabe eines Abstandshalters zu, der die Wirkung der starken Kraft zwischen den Protonen optimiert. Ein Gleichgewicht von Neutronen und Protonen bedeutet maximale Stabilität. Bei Isotopen , also Atomen, bei denen die Neutronenzahl von der der Protonen abweicht, sinkt sie wieder ab. Bei einem (_ 6^14)C Atom befinden sich 14 Nukleonen im Kern eines Kohlenstoffatoms (Die Nukleonenzahl entspricht der Summe der Protonen und Neutronen). Die tiefgestellte Zahl verrät uns, dass 6 der Nukleonen Protonen sind. Ihnen stehen somit 8 Neutronen gegenüber; das Kohlenstoffisotop ist daher instabil und hat Tendenz zu zerfallen. [iv] Die vier Grundkräfte, die das Universum regieren Radioaktivität! Damit wurde nun auch die von Becquerel und den Curies entdeckte Strahlung verständlich. Für besonders schwere und somit labile Atome ist sie Mittel zum Zweck, um Stabilität zurückzugewinnen. Die erste Möglichkeit, dies zu erreichen, ist der Alphazerfall . Bei ihm verlassen je zwei Protonen und Neutronen den Kern – in der Summe nichts anderes als ein Heliumatom. Da die Anzahl der Protonen die chemische Identität des Atoms bestimmt, entsteht durch die Alphastrahlung ein neues, leichteres Element. So wird beispielsweise Uran (_92^238)U zu Thorium (_90 ^234)Th. Was zahlreiche Alchemisten jahrhundertelang vergeblich versuchten, nämlich ein Element in ein anderes Element zu verwandeln, geschieht hier auf natürliche Weise. Beim Betazerfall , der zweiten Form von Strahlungsaktivität, werden destabilisierende Neutronen in stabilisierende Protonen und Elektronen umgewandelt. In diesem Fall entsteht ein schwereres Element. [v]  So wird etwa aus dem Cäsium-Isotop (_55^137)Cs das stabilere Barium (_56^137)Ba. Der italienische Kernphysiker Enrico Fermi  entdeckte 1934, dass hinter dem Beta-Zerfall , eine vierte Grundkraft steckt: die schwache Kernkraft. Sie bewirkt die wundersame Verwandlung des Neutrons und stellt sicher, dass die Veränderungen im Atomkern langsam und kontrolliert ablaufen. Die eigentliche Betastrahlung wird durch das im Kern neu entstandene Elektron verursacht, welches das Atom mit nahezu Lichtgeschwindigkeit verlässt. Ähnlich einer Kanonenkugel verursacht es dabei einen Rückstoß, der den ganzen Atomkern in heftige Schwingungen versetzt. Wenn der Kern danach wieder in seinen stabileren Grundzustand zurückkehrt, kann er dabei abermals Energie emittieren, diesmal aber in Form von extrem kurzwelligen und somit hochenergetischen Photonen. Diese Photonen sind nichts anderes als die gefährliche Gammastrahlung . Vor allem diese dritte Form von Radioaktivität führt, wenn sie von lebenden Organismen aufgenommen wird, zu schwersten Schäden. Gammastrahlung enthält so viel Energie, dass sie ohne weiteres die chemischen Bindungen lebender Gewebestrukturen aufzubrechen vermag.   Alpha-, Beta- und Gammastrahlung Die radioaktiven Zerfallsprozesse selbst vollziehen sich rein zufällig. Die Raten folgen zwar statistisch dem Muster einer exponentiellen Abnahme, doch die einzelnen Teilchen selbst verfügen über keinerlei Eigenschaften, anhand derer sich der Zeitpunkt ihres Auseinanderbrechens erkennen ließe. Die wichtigste Messgröße des Zerfalls ist die Halbwertszeit , der Zeitraum, innerhalb dessen sich die Menge der strahlenden Atome halbiert. Je nach Element reicht er von Bruchteilen einer Sekunde bis zu Jahrmillionen. Einsteins Idee hört auf, bloß eine Theorie zu sein Die Fortschritte, die man im Verlauf der 1930er Jahre beim Verständnis der Elementarteilchen-Wechselwirkungen erzielt hatte, warfen erneut die Frage auf, ob sich die ungeheuren Energiemengen, die gemäß Einstein in der Materie schlummern, nicht in irgendeiner Form freisetzen ließen. 1938 beschoss Otto Hahn  (ein weiterer aus der langen Reihe namhafter Rutherford-Schüler) Urankerne mit Neutronen. Eigentlich wollte er damit künstlich noch schwerere Elemente erzeugen – stattdessen zerplatzte der Kern. Hahns Kollegin Lise Meitner  lieferte wenige Wochen später hierzu die theoretische Erklärung: Ein gezielter Neutronenbeschuss kann im zerbrechenden Kern eine Kettenreaktion weiterer Spaltungen in Gang setzen. Lise Meitner Diese Entdeckung war einer der tiefsten Einschnitte in der Geschichte der Menschheit. Die Relativitätstheorie hatte aufgehört, ein abstraktes Gedankenspiel für Astronomen zu sein. Standen den Menschen bisher nur Energien zur Verfügung, die direkt oder indirekt auf den beiden Grundkräften Gravitation und Elektromagnetismus beruhten, gab es nun erstmals die Möglichkeit, die stärkste und unbändigste Kraft im Universum gezielt für den Menschen freizusetzen. In ihrer langsamen, kontrollierten Form nutzen wir sie heute in Kernkraftwerken. Schnell und unkontrolliert aber führt der Spaltungsprozess zu der verheerenden Wirkung einer Atombombe. In beiden Fällen ist die Masse der gespaltenen Materie nur geringfügig kleiner als vor der Spaltung. Nach E = mc2 aber repräsentiert der winzige Unterschied von weniger als einem Prozent eine gewaltige Energiemenge. Am 6. August 1945 ließ sie in der japanischen Stadt Hiroshima mehr als 70.000 Menschen verglühen. Wenn es möglich war, durch Spaltung sehr schwerer Atomkerne Energie freizusetzen, musste die Fusion sehr leichter Elemente einen ähnlichen Effekt erzeugen. Arthur Eddington, der Leiter der Sonnenfinsternis-Expedition von 1919 , war einer der frühesten Verfechter der These, dass es dieser Fusionsprozess ist, der die Sterne zum Leuchten bringt. Ihr spektraler Fingerabdruck legte nahe, dass Sonnen ganz überwiegend aus Wasserstoff bestehen, der in ihrem Inneren zu Helium verschmilzt – Sterne waren gleichsam sich selbst befeuernde Öfen. Ende der 1930er Jahre gelang es schließlich Hans Bethe  und Carl Friedrich von Weizsäcker , die solaren Fusionsprozesse zu entschlüsseln. Auch hierbei spielt die schwache Kernkraft die entscheidende Rolle. Sie moderiert den Fusionsvorgang, sodass er kontrolliert und nicht als ungehemmte Kettenreaktion abläuft. Deshalb verglühen Sonnen langsam und können so viele Milliarden Jahre lang brennen – eine entscheidende Voraussetzung für die Entstehung von Leben. Gibt es einen schöneren Ort um eine Wasserstoffbombe zu zünden? Bethe brachte die Entschlüsselung der Fusionsmechanismen den Nobelpreis ein. Politiker und Militärs brachte es auf die Idee, auch diesen Prozess in seiner ungehemmten Variante militärisch nutzbar zu machen. Anfang November 1952 explodierte die erste Wasserstoffbombe  über einem bis dahin friedlichen Atoll der Marshall-Inseln in der Mitte des Pazifiks. Die Sprengkraft der Fusionsbombe überstieg die der Spaltungsbombe von Hiroshima fast um das Tausendfache.     Den Blog entdecken   Wer mehr wissen will: Zeilinger, Anton (2005): „Einsteins Schleier – Die neue Welt der Quantenphysik“, Goldmann. Bodanis, David (2001): „E = mc2 A Biography of the World´s Most Famous Equation”, Pan.   Bildnachweise: Südseeinsel   Anmerkungen:   [ii]  Diese Darstellung eine Vereinfachung. Die absolute Untergrenze wurde später mit Δx⋅Δp≥ h/4π​ bestimmt. [iii] Diese Aussage spiegelt die Kopenhagener Interpretation wider, ist aber nicht die einzige mögliche Interpretation der Quantenmechanik. Manche Physiker sehen in der Quantenmechanik keine „Herrschaft des Zufalls“, sondern eine Wahrscheinlichkeitsaussage über Messgrößen, nicht über „die Welt an sich. [iv] Dieser Zerfallsprozess ist die Grundlage der Altersdatierung organischer Materialien mithilfe der Radiokarbonmethode. [v] Dieses Beispiel entspricht dem Beta-Minus-Zerfall . Beim Beta-Plus-Zerfall (Proton → Neutron) entsteht ein leichteres Element.

bottom of page