Suchergebnisse
100 Ergebnisse gefunden mit einer leeren Suche
- Ökonomie in der globalisierten Welt
Fortsetzung von „Der Liberalismus schlägt zurück“ Die Neoklassische Synthese Aus dem Dissens der 1930er Jahre zwischen Keynesianern und Neoliberalen entstand nach dem Zweiten Weltkrieg – die liberalistischen und marxistischen Minderheitspositionen radikaler Freiheit und radikaler Gleichheit ausgenommen – ein erstaunlich breiter Konsens. Der amerikanische Nobelpreisträger Paul Samuelson (1915-2009) hatte für dieses Einvernehmen in den 1950er Jahren den Begriff der Neoklassischen Synthese geprägt, die Verschmelzung der neoklassischen Mikroökonomik mit zentralen Elementen der keynesianischen Makroökonomie . Paul Samuelson Heute besteht weitgehend Einigkeit, dass freie Märkte grundsätzlich das effizienteste Mittel sind, um die komplexen Verteilungsprobleme knapper Güter zu lösen. Milton Friedman verdeutlichte diese Macht des Kapitalismus einmal anhand eines einfachen, nur wenige Cents kostenden Bleistifts. Um ihn zu erschaffen, haben tausende Menschen zusammengearbeitet. Dazu gehören auch die Bergarbeiter, die die Erze förderten, die für den Bau der Kettensäge nötig waren, mit denen der Baum für das Holz des Bleistifts gefällt wurde. Hinter diesem Wunder verbirgt sich eine unvorstellbar komplexe internationale Arbeits- und Wissensteilung. Wie in der biologischen Evolution gibt es keinen intelligenten Schöpfer, keinen Masterplan, keine koordinierende Instanz, sondern allein durch Preissignale gesteuerte Anreize. Arbeitslose in Chicago 1931 Ebenso wenig aber wird von der herrschenden Meinung bestritten, dass Märkte auch versagen können – mit dramatischen Folgen wie Massenarbeitslosigkeit und massiver Geldentwertung. Aktive staatliche Ausgaben- und Geldpolitik gehören heute zum gängigen Repertoire entwickelter politischer Systeme und offenbar lassen sich mit ihnen, trotz mäßiger theoretischer Fundierung, die Konsequenzen des Marktversagens einigermaßen in Schach halten. Zumindest hat sich eine ähnlich tragische Situation wie die Große Depression seitdem nicht wiederholt. Während 1929 das reale BIP in den USA und Deutschland vier Jahre in Folge schrumpfte und dabei insgesamt um fast 30% einbrach, ließ sich in der globalen Finanzkrise von 2007 der Einbruch auf etwa 18 Monate Dauer und 5% BIP-Verlust begrenzen. Die Meinungsunterschiede innerhalb des ökonomischen Mainstreams verlaufen heute vor allem entlang der Frage, ob die Ursachen dysfunktionaler Märkte eher auf der Markt- oder auf der Staatsseite zu suchen sind. Doch mit dieser relativ harmonischen Fügung ist die Ökonomie noch nicht am Ende ihrer Geschichte angekommen. Seit einigen Jahrzehnten sieht sie sich mit drei neuen Realitäten konfrontiert: Dem demographischen Wandel in den Industrienationen, Der Entwicklung nicht industrialisierter Länder und Der Vereinbarkeit von Ökonomie und Ökologie . Macht und Ohnmacht der Demographie Der demographische Wandel in den reichen Ländern ist vor allem eine Herausforderung für die Sozialversicherungssysteme. Als Bismarck in Deutschland, als erstem Land der Welt, in den 1880er Jahren eine Kranken-, eine Unfall- und einige Jahre später auch eine Rentenversicherung einführte, um eine zunehmend selbstbewusste Arbeiterschaft ruhig zu stellen, war die Finanzierung staatlicher Rentenkassen noch kein Problem. Damals wie heute beruht sie auf dem Prinzip, dass die Jungen für die Alten einzahlen. Heute aber sehen sich zum ersten Mal in der Geschichte die wohlhabenden Staaten mit drastisch sinkenden Geburtenzahlen und infolgedessen einer schrumpfenden Bevölkerung konfrontiert. Den Vorsorgesystemen bricht das Fundament weg. Grundsätzlich sind fünf Maßnahmen denkbar, mit denen ihr Erhalt gesichert werden kann: Die Menschen können länger arbeiten, höhere Beiträge zahlen, ein niedrigeres Leistungsniveau akzeptieren, eine umfassende Einwanderung jüngerer Menschen aus ärmeren Ländern zulassen oder versuchen, ein wesentlich höheres Wirtschaftswachstum zu erzielen. Aufgrund der vorhandenen Demographiedaten ist es für Ökonomen relativ einfach auszurechnen, welchen Umfang jede einzelne Maßnahme haben müsste, wenn sie die alleinige Lösung des Problems sein sollte. Für Deutschland etwa müsste das Renteneintrittsalter bis 2041 auf 73 Jahre steigen, um das derzeitige Niveau aufrechtzuerhalten. Die Empfehlung des amerikanischen Nobelpreisträgers Robert Solow ist es, auf ein nachhaltiges Wirtschaftswachstum zu setzen. Da dieses eng an den technologischen Fortschritt gekoppelt ist, täte, so Solow, der Staat besser daran langfristig Forschung und Entwicklung zu fördern, anstatt kurzfristig Geld für Konjunkturprogramme auszugeben. Letztlich wird aber wohl nur ein Mix aus verschiedenen Maßnahmen das System am Leben erhalten können. Nicht alles, was ökonomisch geboten wäre, wird dabei auch politisch durchsetzbar sein. Animierte Darstellung der Alterspyramide für Deutschland 1970-2020: Die Pyramide stellt sich über die Zeit auf den Kopf Entwicklungen des „Globalen Südens“ Verschiedene „Welten“ Außerhalb der Industrienationen ist die demographische Entwicklung eine ganz andere. Lebten 1970 nur zwei von drei Menschen in den so genannten „ Entwicklungsländern “, waren es eine Generation später bereits vier von fünf, ein Trend, der sich seitdem noch weiter beschleunigt hat. Der Begriff Entwicklungsländer geht auf eine Wortschöpfung in der Regierungserklärung des amerikanischen Präsidenten Harry S. Truman aus dem Jahre 1949 zurück, die damals alle noch nicht industrialisierten Staaten bezeichnete. Drei Jahre später prägte der französische Demograph Alfred Sauvy den Begriff „ Dritte Welt “, in Anlehnung an die alte vorrevolutionäre französische Ständeordnung mit ihrem politisch entrechteten „Dritten Stand“. Dass die Ökonomen Mitte des 20. Jahrhunderts begannen, sich mit den Ursachen und Folgen der höchst unterschiedlichen Entwicklungen auf der Erde zu befassen, hatte zunächst vor allem einen handfesten politischen Hintergrund: Der Westen, die „ Erste Welt “, buhlte mit den sozialistischen Staaten, der „ Zweiten Welt “, im Kalten Krieg um Macht und Einfluss in den armen Ländern. Geodeterminismus und Ressourcenfluch Tatsächlich ist der Wohlstand nicht nur innerhalb, sondern auch zwischen den Nationen extrem ungleich verteilt. Im Jahr 2018 betrug das kaufkraftbereinigte pro-Kopf BIP für die Schweiz rund 65.000 US-Dollar, für die USA 63.000, Deutschland 52.000, Portugal 32.000 und Simbabwe weniger als 3.000. [i] Dabei ist Simbabwe bei weitem nicht das ärmste Land der Welt. Die Entwicklungsökonomie versucht vor diesem Hintergrund zu verstehen, welche Voraussetzungen gegeben sein müssten, damit die Entwicklungsländer – heute sprechen wir vom „ Globalen Süden “ – zu den Industriestaaten aufschließen können. Dazu gehört zunächst eine Ursachenanalyse der auffälligen Disparitäten: Sind sie in den armen Ländern selbst zu suchen oder aus Abhängigkeiten von den reichen Nationen entstanden? Zwei einfache Erklärungsansätze, die die Gründe in den armen Ländern sehen, diskutieren die Entwicklungsökonomen unter den Begriffen „ Geodeterminismus “ und „ Ressourcenfluch “. Der globale Süden - Stand 2023 Geodeterministen erklären die sehr unterschiedlichen historischen Entwicklungsverläufe mit geographischen und klimatischen Unterschieden. Gebirgige Länder, Wüstenstaaten, abgelegene Inseln, Regionen mit extrem heißem oder frostigem Klima, Staaten ohne Zugang zum Meer oder Bodenschätzen, haben schlichtweg schlechtere Voraussetzungen ihre Wirtschaft zu entwickeln und am internationalen Handel teilzunehmen. Zweifellos leiden Länder wie Armenien, der Sudan, Nepal oder der pazifische Inselstaat Vanuatu unter solchen Gegebenheiten. Alleinige Ursache kann die Geographie jedoch nicht sein; wie könnte sonst die Schweiz, ein rohstoffarmer, gebirgiger Binnenstaat, zu den reichsten Ländern der Welt zählen? Auch der Ressourcenfluch – er bezeichnet die scheinbar paradoxe Situation, dass viele Länder, die reich mit Rohstoffen wie Erdöl, Erdgas oder wertvollen Metallen gesegnet sind, trotzdem bettelarm bleiben – taugt kaum als alleinige Erklärung. Dass sprudelnde Einnahmen aus dem Export der Rohstoffe oftmals zur Vernachlässigung anderer Wirtschaftssektoren führen, mag auf Länder wie Russland, Venezuela, Nigeria oder die Demokratische Republik Kongo zutreffen; für Kanada oder Norwegen aber greift eine solche Begründung zu kurz. Einen umfassenderen Ansatz stellt die These von der Armutsfalle dar. Sie beschreibt jene höchst ungesunde Mischung aus politischen Faktoren, die verhindern, dass eine Nation sich aus eigener Kraft aus ihrer Misere befreien kann. Korruption , instabile gesellschaftliche Verhältnisse, lange kriegerische Konflikte, unsichere Eigentumsverhältnisse, eine abhängige Justiz, galoppierende Inflation, ausufernde Kriminalität, fehlender Zugang zu Bildungseinrichtungen und die Diskriminierung großer Minderheiten sind keine guten Voraussetzungen für die Entwicklung von Wohlstand. Failed States – wer ist „schuld“? Länder mit solch traurigen Bedingungen sind mehr oder weniger „ gescheiterte Staaten “, die sich entweder in der Hand korrupter aber gut organisierter und wohlhabender Oligarchien befinden oder bei denen jegliche staatliche Ordnung zerfallen ist. Während es ehemals armen Ländern wie China, Südkorea, Südafrika oder Brasilien durch Fortschritte bei der Bildung und der Stabilisierung politischer Verhältnisse gelungen ist, zu den klassischen Industrieländern aufzuschließen, verharren vor allem die allermeisten afrikanischen Staaten, aber auch Länder wie Russland, Nordkorea und Venezuela in den Fängen starrer und korrupter Regime. Andere Entwicklungsökonomen sehen hingegen die Armutsursachen im Verhalten der reichen Nationen, die den Entwicklungsländern nach wie vor postimperialistische Zwänge auferlegen. Ein bekannter Verfechter dieser Sicht ist der amerikanische Soziologe und Wirtschaftshistoriker Immanuel Wallerstein (1930-2019). Gemäß seiner neomarxistischen Welt-System-Theorie hat sich der Kapitalismus nach und nach auf der gesamten Erde eine hierarchische, dreischichtige Struktur erschaffen. An der Spitze dieses Systems finden sich die nordatlantischen Staaten. Ihre Industrienationen tragen die für den Kapitalismus typischen Konjunkturzyklen in die Welt. Unter ihnen stehen die Staaten der Semi-Peripherie, wie Mexiko, Brasilien, Südafrika, Indien und China. Die kapitalistischen Kernländer haben aus Kostengründen weite Teile der Industriearbeit in diese Länder ausgelagert und beuten sie oftmals mithilfe lokaler autoritärer Strukturen aus. Gleichzeitig dient die Semi-Peripherie in dem schwelenden Nord-Süd-Konflikt als Puffer gegen die Peripherie, den armen Rest der Welt. Diesem kommt in dem weltumspannenden arbeitsteiligen System die Aufgabe zu, die reicheren Länder mit einfachen Primärgütern und Rohstoffen zu versorgen. Ihre staatlichen Systeme sind labil und werden von den kapitalistischen Industriestaaten absichtlich schwach gehalten. In Wallersteins Theorie ist die Ordnung der Welt allein durch die ökonomischen Interessen der herrschenden Klasse bestimmt. Eine Empfehlung aus Washington Neben dem Neomarxisten Wallerstein meldete sich im letzten Viertel des 20. Jahrhunderts vor allem der wiedererstarkte Neoliberalismus zu Wort. Ganz im Sinne Ricardos fordern liberale Entwicklungsökonomen, die „Drittweltländer“ am internationalen Handel teilhaben zu lassen und alle diesbezüglichen Hemmnisse konsequent abzubauen. Sie weisen darauf hin, dass Handel die gleiche volkswirtschaftliche Wirkung hat, wie technischer Fortschritt : Beide erlauben es mit den gleichen Einsatzmitteln mehr zu produzieren. Das Füllhorn staatlicher Subventionen, das die reichen Industrieländer über ihrem eigenen Landwirtschaftssektor ausschütten, sorgt allerdings dafür, dass die armen Länder trotz niedrigerer Arbeitskosten mit ihren Agrarprodukten kaum auf dem Weltmarkt konkurrieren können. Der 1990 in der amerikanischen Hauptstadt erzielte „ Konsens von Washington “ fordert daher, mit deutlich neoliberaler Handschrift, freie Märkte, stabile politische Verhältnisse und eine ungehinderte Teilnahme am globalen Freihandel. Für die Unterzeichner des Übereinkommens ist dies die vielversprechendste Perspektive, um die Lebensverhältnisse in den Entwicklungsländern zu verbessern. Profitiert haben vom Abbau der Handelsbeschränkungen seit der Jahrtausendwende allerdings bis heute vor allem die Schwellenländer der wallersteinschen Semi-Peripherie. Umweltökonomie Die Tragik der Allmende Die abschließende dritte Frage ist die, ob der kleine blaue Planet den angestrebten Massenwohlstand für acht, neun oder elf Milliarden Menschen überhaupt verkraften kann. Dies ist das große Thema der Umweltökonomie . Aus wirtschaftstheoretischer Sicht stellt die Umwelt eine kollektive Ressource der Menschheit dar, von der wir bis in die jüngste Vergangenheit dachten, sie sei, wie im Schlaraffenland , umsonst zu haben. Doch auch Luft, Wasser, Regenwälder oder die Fischbestände der Weltmeere sind, seit es auf der Erde eng geworden ist, zu knappen Gütern mutiert. Die Dorfgemeinschaften des mittelalterlichen Europas bewirtschafteten kollektiv ihre Allmende, Land- und Forstflächen, die allen gehörten. Heute sprechen die Umweltökonomen von der „ Tragik der Allmende “, um damit die Übernutzung der globalen gemeinschaftlichen Ressourcen zu bezeichnen. Das Problem macht an keiner nationalen Grenze halt. Am deutlichsten wird dies bei der Verbrennung fossiler Brennstoffe mit ihren unabsehbaren Folgen für das Weltklima. Diese sozialen Kosten – die Umweltökonomen bezeichnen sie in ihrer spröden Terminologie auch als „negative externe Effekte “ – fließen in keine Gewinnoptimierungsrechnung, keine Nutzenfunktion und kein Bruttoinlandsprodukt ein. [ii] Wer zahlt dafür? Hilft der Preismechanismus? Der zentrale Lösungsansatz der Umweltökonomen gründet einmal mehr auf dem Preismechanismus . Knappheitspreise sollen das Allokationsproblem auch für Gemeingüter regeln. Dadurch will man Anreize schaffen, die Allmende der Menschheit effizienter zu verwenden oder durch verträglichere Alternativen zu ersetzen. Ein konkreter Ansatz externe Effekte zu internalisieren, besteht heute darin, Verschmutzung zu verteuern oder sauberere Alternativen zu subventionieren. So bewirkt eine CO 2 -Steuer, dass sich die Nachfragekurve für fossile Brennstoffe nach links verschiebt. Ein ergänzendes Instrument ist der Emissionshandel , wie ihn etwa die Europäische Union praktiziert. Hierbei werden länderspezifische Obergrenzen für Schadstoffe festgelegt, die in einem bestimmten Zeitraum emittiert werden dürfen. Entsprechend der festgeschriebenen Höchstmenge werden Zertifikate ausgegeben, die an einem eigens dafür eingerichteten Markt handelbar sind. Länder, die unter ihrem Kontingent bleiben, können ihre nicht beanspruchten Verschmutzungsrechte an andere Staaten verkaufen, die ein größeres Kontingent benötigen. Da allein zählt, ob die angestrebte Einsparungsambition in der Summe erreicht wird, haben die einzelnen Länder so die Möglichkeit, das gemeinsame Ziel mit unterschiedlichen Geschwindigkeiten anzusteuern. Ob die Menschheit durch den staatlich verordneten Einbau von Preismechanismen für Gemeingüter das Blatt zu wenden vermag, oder ob Pessimisten wie Malthus recht behalten werden und wir durch das größte Marktversagen aller Zeiten auf eine ökologische Situation zusteuern, deren Folgen nicht mehr zu kontrollieren sind, bleibt offen – das Problem der fossilen Brennstoffe ist nicht, dass sie uns ausgehen könnten, sondern dass sie uns nicht ausgehen könnten. Ökonomie in der globalisierten Welt: Freiheit oder Gleichheit? Der Kapitalismus ist der gesellschaftliche und ökonomische Motor hinter der unglaublichen Entwicklung der Menschheit der letzten 500 Jahre. Ihm ist zu verdanken, dass sich das durchschnittliche reale Einkommen in den Industriestaaten in den vergangenen 150 Jahren verzwölffachte. Kein anderes System hat uns dem Pareto-Optimum nähergebracht, keines hat größere Kuchen an zu verteilenden Gütern erzeugt. Sämtliche alternativen Wirtschaftssysteme sind bis heute den Nachweis schuldig geblieben, dass sie es besser können. Gleichwohl kann auch der Kapitalismus weder sicherstellen, dass Märkte stets reibungslos funktionieren, noch, dass alle Menschen auf diesem Planeten an dem erzeugten Reichtum auch tatsächlich teilhaben können. Die Frage der Verteilungsgerechtigkeit ist allerdings primär eine politisch-philosophische Frage. In einer Welt knapper Ressourcen bedeutet die Verfolgung eines Ziels immer auch die Aufgabe eines anderen. Mehr Gleichheit heißt weniger Freiheit ; höhere Mindestlöhne mehr Arbeitslose; mehr Sicherheit weniger Privatsphäre; mehr Umweltschutz weniger Konsum; mehr Krankenhäuser weniger Entwicklungshilfe; mehr Kanonen weniger Butter. Oder umgekehrt. In marktwirtschaftlichen Demokratien unterscheiden sich die Parteien heute in erster Linie dadurch, welche Schwerpunkte sie bei den sich widersprechenden Zielen Freiheit, Gleichheit und Umwelt setzen. Ob wir eher gleich arm oder eher unterschiedlich reich sein wollen, ist die erste der beiden grundlegenden Fragen des politischen Wettbewerbs. Die andere ist, ob wir, unserer evolutionär bedingten Gegenwartspräferenz zum Trotz, willens und fähig sind, heute vorzusorgen, damit die Erde auch für künftige Generationen noch ein wohnlicher Ort sein kann. Mit diesem Beitrag endet die Artikelserie zum Thema „Ökonomie“ Den Blog entdecken Wer mehr wissen will: Acemoglu, Daron / Robinson, James A. (2014): „Warum Nationen scheitern“, Fischer. Ringel, Marc (2021): Umweltökonomie, Springer. Wallerstein, Immanuel (2019): Welt-System-Analyse. Eine Einführung, Springer Bauman, Yoram / Klein, Grady (2011): Economics - Mit einem Comic zum Wirtschaftsweisen, Manhattan. Bildnachweise: https://en.wikipedia.org/wiki/Pollution#/media/File:Air_pollution3.jpg Robert Solow Animation Alterspyramide Deutschland [i] Da die Bezugsgröße für den BIP-Vergleich der US-Dollar ist, werden die verglichenen Werte stark von Wechselkurseffekte beeinflusst. [ii] Darüber hinaus stellt sich die ethische Frage, ob bestimmte Konsequenzen, wie etwa das menschengemachte Aussterben einer Art, überhaupt mit einem Kostenetikett versehen werden kann.
- Was ist Zeit? Vier verschiedene Antworten aus Physik, Philosophie, Psychologie und Ökonomie
Was ist Zeit? Mein Buch hat elf Kapitel, denen ich turnusmäßig jede Woche einen Blogartikel widme. Der zwölfte Artikel in dem Zyklus gehört jeweils einem Thema „außer der Reihe“, der Versuch einer andern Perspektive, die vielleicht Querverbindungen und Zusammenhänge aufzuzeigen vermag. Diesmal möchte ich die „ Zeit“ in den Mittelpunkt stellen. Beim Schreiben ist mir aufgefallen, dass sie ein Phänomen darstellt, das in unterschiedlichen Kapiteln eine zentrale Rolle spielt und so als roter Faden verschiedenste Wissensgebiete miteinander verbindet. Die astronomische Uhr in der Altstadt von Prag Die Perspektive der Physik Bei Isaac Newton , dem Begründer der klassischen Mechanik , sind Zeit und Raum die Bühne, auf der sich das Theater der Physik abspielt. Die Zeit ist eine statische Größe, gemessen durch das unveränderliche, gleichförmige Ticken einer Uhr. Eine Uhr gibt an, wieviel Zeit während eines bestimmten Vorgangs – etwa dem gleichmäßigen Hin- und Herschwingens eines Pendels – vergeht. Während Zeit vergeht, nehmen die physikalischen Vorgänge ihren Lauf. Der französische Mathematiker und Physiker Pierre-Simon Laplace folgerte zu Beginn des 19. Jahrhunderts daraus, dass ein fiktiver, allwissender Weltgeist, der sämtliche Kausalitäten des Universums in Form von Funktionsgleichungen erfassen und simultan verarbeiten kann, rein theoretisch die Bewegung aller Materie und damit die Geschichte der Welt bis an das Ende aller Zeit vorausberechnen könnte. Der Laplacesche Dämon – wir würden ihn heute als „Supercomputer“ bezeichnen – wurde zum Leitmotiv eines deterministischen Weltbilds. Eine entscheidende Erweiterung dieser Perspektive brachte Mitte des 19. Jahrhunderts die physikalische Teildisziplin der Thermodynamik. Der zweite Hauptsatz der Thermodynamik besagt, dass die Gesamtmenge an Unordnung in einem geschlossenen System mit der Zeit stets zunimmt und geordnete Strukturen über kurz oder lang immer nur zerfallen. Diese unumkehrbarere Entwicklung, die ein physikalisches System von der Ordnung zur Unordnung führt, wird als Entropie bezeichnet. Es handelt sich dabei nicht um ein deterministisches Naturgesetz, sondern um ein rein stochastisches Phänomen. Im zweiten Hauptsatz stecken einige für das Weltverständnis sehr grundlegende Implikationen. Zunächst die, dass es im Universum eine allgemeine Tendenz zum Informationsverlust gibt: Eine heiße Tasse Kaffee ist eine geordnete Struktur. Sie stellt eine Information dar, weil hier Energie an einem Ort in konzentrierter Form vorliegt. Mit der Zeit aber gibt die Tasse Wärme ab, bis sich Tassen- und Umgebungstemperatur einander angeglichen haben. Dies geschieht nur, weil es wahrscheinlicher ist, dass der Kaffee den Raum erwärmt als der Raum den Kaffee. Mit der Angleichung an die Raumtemperatur geht Information verloren; Entropie misst das Ausmaß dieses Verlusts. In seinem letzten Stadium, dem gesichtslosen Chaos, enthält das System keine Botschaften mehr. Kein Weg zurück Eine andere sehr wichtige Implikation des zweiten thermodynamischen Hauptsatzes ist, dass er uns nicht weniger als das physikalische Wesen der Zeit erklärt. Der Marsch eines geschlossenen Systems in die Entropie ist unumkehrbar. Unumkehrbarkeit aber ist in der Physik etwas Besonderes, da sich ihre Vorgänge grundsätzlich allesamt umdrehen lassen: Filmt man die Schwingungen eines Pendels, so stellt sich der Vorgang, wenn man den Film rückwärts ablaufen lässt, exakt gleich dar. Die Chancen, dass die Luft den Kaffee in der Tasse wieder erwärmt oder dass sich die zerbrochene Kaffeetasse zufällig wieder von allein zusammenfügt, stehen hingegen ausgesprochen schlecht. Das, was zwischen zwei Ereignissen vergeht, nennen wir Zeit. Einen Unterschied zwischen Vergangenheit und Zukunft gibt es nur, weil dazwischen Ereignisse liegen, die sich nicht mehr umkehren lassen und allein deshalb kennt die Zeit nur eine Richtung. Die Dinge der Welt sind vergänglich, weil es wenige Möglichkeiten gibt, einen Zustand zu erhalten, aber viele, ihn zu zerstören. Darum ist das Gestern verloren und nur deshalb wissen wir über die Gegenwart mehr als über die Zukunft. Die einzige Zeit, die wir tatsächlich kennen können, ist das auf einen Punkt zusammengezogene Hier-und-Jetzt. Zeit ist eine Frage des Bewegungszustands Die vorläufig letzte Erweiterung unserer physikalischer Vorstellung von der Zeit kam 1905 mit Einsteins spezieller Relativitätstheorie . Er zeigte, anhand einer einfachen Überlegung, dass Zeit keinesfalls die von Newton postulierte statische Größe ist, sondern sich relativ zum Bewegungszustand verschiedener Beobachter verhält. Kurz formuliert besagt diese Zeitdilatation , dass bewegte Uhren langsamer gehen als unbewegte Uhren. Warum das so ist, werden wir in dem kommenden Blogartikel über die Relativitätstheorie betrachten, nur so viel vorab: Für einen Astronauten, der sich nahe der Lichtgeschwindigkeit bewegt, würde die Zeit relativ zur Perspektive eines auf der Erde zurückgebliebenen Zwillings viel langsamer vergehen. Während für den Raumfahrer nur ein Jahr verstreicht, würde sich die Erde mehrmals um die Sonne drehen. Mit einem phantastisch schnellen Raumschiff könnte der Astronaut also in die Zukunft unseres Planeten reisen und dort seinen viel älter gewordenen Zwilling treffen. Eine Reise in die Vergangenheit ist hingegen logisch ausgeschlossen: wäre sie möglich, könnten wir theoretisch unsere Eltern oder Großeltern töten, noch bevor sie uns in die Welt gesetzt hätten. Back to the Future Dieses Großvater-Paradoxon wäre aber ein Verstoß gegen das fundamentale Prinzip von Wirkung und Ursache. Für eine Zeitreise in die Vergangenheit müsste man in der Lage sein, das gesamte Universum in einen Zustand zu versetzten, der einmal zu einem früheren Zeitpunkt geherrscht hat. Dies bedeutet aber auch, dass man sämtliche Erlebnisse und Erfahrungen, die man seit diesem Moment gemacht hat, wieder verlieren müsste – andernfalls wäre es möglich, den Lauf der Geschichte rückwirkend zu beeinflussen. Unternähme man eine solche Zeitreise würde man also gar nichts davon merken. Eine Perspektive der Philosophie Augustinus von Hippo , der am Übergang von der Antike zum Mittelalter lebte, verdanken wir eine neue und einzigartige Überlegung zum Wesen der Zeit, die erstmalig Geschichtlichkeit und Einmaligkeit der menschlichen Existenz in den Fokus der Philosophie rücken (Dies wurde später das große Thema der Existenzialisten). Die neue Perspektive wurde notwendig, da die in der Genesis beschriebene Erschaffung aus dem Nichts den Griechen und Römern fremd war – Materie und Zeit hatte es für sie schon immer gegeben. Für Augustinus aber ist die Zeit gemeinsam mit der Welt entstanden (eine Aussage, die sich, wie wir bereits gesehen haben , in völliger Übereinstimmung mit der modernen Physik befindet.) Gott selbst ist nicht in der Zeit; er schwebt über ihr und kann so ihren Strom von außen betrachten. Phantasiedarstellung von Augustinus aus dem 15. Jahrhundert Aus dieser Zeitlosigkeit entsteht Gottes Ewigkeit . Da er allwissend ist, ist ihm auch alles Vergangene und Zukünftige bekannt. Die Zeit selbst ist keine dingliche Erscheinung, sondern allein eine Projektion des menschlichen Geistes. Letztlich gibt es auch hier wieder nur die Gegenwart. Die Gegenwart der Vergangenheit ist unsere Erinnerung; die Gegenwart des Gegenwärtigen ist der Augenblick; die Gegenwart des Zukünftigen sind unsere Erwartungen. „Was ist also die Zeit?“ fragt der Philosoph. „Wenn mich niemand danach fragt, weiß ich es, wenn ich es aber einem, der mich fragt, erklären sollte, weiß ich es nicht.“ Mit seinem subjektiven Zeitbegriff hat Augustinus die Philosophie um einen bemerkenswerten Gedanken bereichert. Die Perspektive der Psychologie Wer kennt nicht die Wahrnehmung, dass wir subjektiv das Vergehen der Zeit mal als langsam, mal als schnell empfinden. Müssen wir auf etwas warten, kommt uns die Zeit quälend lang vor, haben wir Ablenkung, empfinden wir die Zeit als kürzer – sicherlich der Grund warum wir im Wartesaal oder auf dem Bahnsteig immer gleich das Mobiltelefon aus der Tasche ziehen (nein, das soll keine versteckte Kritik an der Deutschen Bundesbahn sein!) Die Ursachen für diese nicht objektive Wahrnehmung liegt in der Funktionsweise unseres Nervensystems. Mit zunehmenden Alter bestimmen immer mehr Routinen unseren Alltag, letztlich, weil wir, anders als während der Kindheit und der Jugend, schlichtweg weniger neue Erlebnisse haben. In der Rückschau empfinden wir daher, dass die Zeit im Alter schneller vergeht, einfach weil es weniger gibt, an das es sich zu erinnern lohnt, während in Kindheit und Jugend laufend neue Eindrücke auf uns einprasselten, die zu neuen neuronalen Verknüpfungen führten. ( Zur grundlegenden Funktionsweise des Gedächtnisses mehr hier ). Dieser durch den sogenannten „ Alterseffekt “ ausgelösten Wahrnehmung können wir entgegenwirken, indem wir unsere Routinen durchbrechen und uns neuen Reizen aussetzen, die dann auch viele neue Erinnerungen schaffen. Die Perspektive der Ökonomie Benjamin Franklin war nicht nur ein erfolgreicher Politiker, Erfinder des Blitzableiters, Pionier der Erforschung des Elektromagnetismus und Schriftsteller, sondern auch als Besitzer einer Druckerei und eines Zeitungsverlags ein erfolgreicher Geschäftsmann. In seiner Schrift „Advice to a Young Tradesman, Written by an Old One“ (1748) prägte er das bekannte Zitat: “Zeit ist Geld“. („Remember that Time is Money“). Was hat es damit auf sich? Aus Sicht der Finanzmärkte ist Geld ein Gut wie jedes andere: Es hat einen Preis, der sich aus Angebot und Nachfrage ergibt. Dieser Preis ist der Zins. Mit ihm kommt der Faktor Zeit in die ökonomische Betrachtung, eine Dimension, der die klassische und neoklassische Theorie noch wenig Beachtung geschenkt hatte. Der Zins bringt zum Ausdruck, dass ein Betrag heute und derselbe Betrag morgen nicht das gleiche sind. 3% Zinsen pro Jahr bedeuten, dass ein Kreditnehmer, der heute 100 Euro erhält, dem Kreditgeber in einem Jahr 103 Euro zurückzahlen muss. Für beide sind 100 Euro heute und 103 Euro in einem Jahr somit äquivalent. So wie die Inflation ist auch der Zins eine zentrale Größe der makroökonomischen Theorie (auch auf diese Theorie werden wir noch in einem der künftigen Blogs eingehen). Multitalent Benjamin Franklin Der Zins setzt sich aus drei Komponenten zusammen. Er beinhaltet erstens eine Prämie auf den Verzicht des Kreditgebers das Geld zum jetzigen Zeitpunkt selbst anderweitig verwenden zu können; es berücksichtigt also dessen sogenannte Opportunitätskosten . Zweitens enthält er eine Risikoprämie dafür, dass manche Kreditnehmer das Geld nicht zurückzahlen werden. (Der italienische Ökonom Ferdinando Galiani bezeichnete den Zins bereits Mitte des 18. Jahrhunderts als den „Preis für das Herzklopfen“ des Gläubigers.) Die dritte Komponente des Zinses ist die Kompensation für den inflationsbedingten Kaufkraftverlust: Bei einer Inflationsrate von 2% schmilzt der nominale Betrag von 3% auf einen realen Zins von nur 1%. Den Blog entdecken Wer mehr wissen will: Safranski Rüdiger (2015): „Zeit, was sie mit uns macht und was wir aus ihr machen“, Hanser. Augustinus, Aurelius (1888): „Bekenntnisse” (Confessiones) Buch XI, 14. Kapitel, Reclam. Franklin, Benjamin (2012): Advice to a Young Tradesman, Written by an Old One, Cambridge University Press. Warum die Zeit nicht immer gleich schnell vergeht ( Wissen.de ) Bildnachweis: File:MontreGousset001.jpg - Wikimedia Commons File:Prague - Astronomical Clock Detail 1.JPG - Wikimedia Commons File:Sartre 1967 crop.jpg - Wikimedia Commons Space Station 20th: Spacewalking History - NASA
- Kontrolle ist gut, Vertrauen ist besser: Die Entstehung der Spieltheorie
Kontrolle ist gut, Vertrauen ist besser So wie das Universum auf die Unbestechlichkeit der Naturgesetze angewiesen ist, um überhaupt existieren zu können, benötigen auch menschliche Gesellschaften stabile Spielregeln, um dauerhaft zu bestehen. Dazu gehört neben den offenbaren und verborgenen Strukturen der Macht vor allem Vertrauen . Grundvertrauen in andere Menschen ist eine anthropologische Konstante. Die biochemische Basis hierfür ist das „Kuschelhormon“ Oxytocin , das bei allen wohlwollenden Formen menschlicher Nähe ausgeschüttet wird. Neurobiologische Untersuchungen zeigen, dass Menschen, denen Oxytocin künstlich verabreicht wurde, vertrauensvoller handeln und bereit sind mehr Risiken einzugehen. Vertrauen stabilisiert Gesellschaften Beim Zusammenleben mit anderen verlassen wir uns im Allgemeinen darauf, dass Schulden beglichen werden, dass das Essen im Restaurant hygienischen Standards entspricht oder dass Impfungen unbedenklich sind. Das Vertrauen, dass Versprechen eingehalten werden, ist ein zentraler Stabilitätsanker der Gesellschaft, es ist mit Luhmanns Worten "ein Mechanismus der Reduktion sozialer Komplexität". [i] Vertrauen vermeidet Kosten, die entstünden, wenn wir alles selbst machen oder ständig kontrollieren müssten. Es ist die Grundlage eines der wenigen echten Alleinstellungsmerkmale des Menschen: der Fähigkeit zu komplexen Formen der Kooperation. Wird Vertrauen missbraucht, erfolgt die Bestrafung nicht nur durch den langen Arm des Gesetzes, sondern auch durch gesellschaftliche Ächtung und soziale Isolation. Dass sich unkooperatives Verhalten nicht auszahlt, lernen wir meist schon als Kinder. „Trittbrettfahrer“, also Menschen, die sich ohne eigenen Beitrag Vorteile erschleichen, werden auch von Gemeinschaftsmitgliedern sanktioniert, die selbst nicht von dem Schaden betroffen sind. Nicht selten geschieht dies sogar in Form einer „ altruistischen Bestrafung “, das heißt, wir ahnden Vertrauensbrüche selbst dann, wenn es uns persönliche Nachteile bringt. [ii] Dieses Verhalten hat wahrscheinlich einen evolutionsbiologischen Ursprung: Gegenseitige Verlässlichkeit innerhalb der Sippe war für die Gattung Homo ein Erfolgsrezept. Wir haben allen Grund, Vertrauen und Fairness aufrechtzuerhalten – würde unfaires Verhalten belohnt, wären die Vorteile einer konstruktiven Kooperation schnell dahin. Vertrauen ist ursprünglich ein zwischenmenschliches Phänomen. Als makrosoziologische, die ganze Gesellschaft durchströmende Erscheinung, ist es eine neuzeitliche Erfindung. In Antike und Mittelalter , politisch und ökonomisch labilen Zeiten, war es im höchsten Maße riskant, seinen Mitmenschen allzu viel Zutrauen entgegenzubringen – enge Verwandte eingeschlossen. Für die Soldatenkaiser, die Rom im 3. Jahrhundert regierten, war die wahrscheinlichste Todesursache, von den eigenen Gefolgsleuten ermordet zu werden. Im Mittelalter war Vertrauen in erster Linie auf Gottvertrauen beschränkt. Die Zuversicht, die wir wildfremden Menschen heute in aller Regel bedenkenlos entgegenbringen, ist nur möglich, weil wir wissen, dass unsere Rechte im Fall der Fälle durch die drei staatlichen Gewalten geschützt werden. [iii] Die Entstehung der Spieltheorie Vertrauen lässt sich auch mathematisch analysieren – zumindest ist dies der Anspruch der Spieltheorie , die mit analytischen Modellen untersucht, wie sich Menschen in konfliktbehafteten Entscheidungssituationen mit mindestens zwei Beteiligten verhalten. Die Entwicklung dieses Spezialgebiets ist vor allem mit den Mathematikern John von Neumann (1903-1957), John Forbes Nash (1928-2015) und Reinhard Selten (1930-2016) verbunden. Nash und Selten erhielten für ihre Leistungen auf diesem Gebiet 1994 den Nobelpreis für Wirtschaftswissenschaften. A Beautiful Mind: John Forbes Nash Bei spieltheoretischen Problemstellungen geht es darum, dass jeder Spieler für sich selbst eine vorteilhafte, rationale Strategie finden muss, die aber auch das zu erwartende Verhalten der Mitspieler berücksichtigt. Die beiden grundlegenden Strategien sind Kooperation, also ein Vorgehen, das auf Vertrauen setzt, und egoistisches Verhalten. Spieltheoretische Überlegungen lassen sich auf viele politische, gesellschaftliche und ökonomische Problemstellungen anwenden. Auch die evolutionär stabile Strategie , die wir noch in der Kategorie Biologie betrachten werden, lässt sich mit diesem Instrument erklären. Das Gefangenendilemma ist das wohl bekannteste spieltheoretische Szenario. Es erklärt, warum zwei rationale Entscheider wahrscheinlich nicht miteinander kooperieren, obwohl dies eigentlich in ihrem Sinne wäre. Ausgangslage ist die folgende: Zwei Gefangene, A und B, haben gemeinsam ein Verbrechen verübt und werden dafür angeklagt. Sie werden getrennt verhört und haben keine Möglichkeit sich auszutauschen. Streiten beide die Tat ab, erhalten sie wegen eines anderen, weniger schwerwiegenden Vergehens, das ihnen nachgewiesen werden kann, eine Strafe von einem Jahr. Gestehen beide, erhält jeder eine Strafe von zwei Jahren – da sie geständig waren, wird keine Höchststrafe verhängt. Gesteht jedoch nur einer der beiden Gefangenen, während der andere die Tat leugnet, wird der Geständige als Kronzeuge freigesprochen, der Leugner erhält hingegen die volle Strafe von 5 Jahren. Vertrauen oder Verraten: Was zahlt sich mehr aus? Die Frage ist nun, welche Strategie die Gefangenen vernünftigerweise einschlagen sollten. Sie haben die Wahl zu gestehen oder die Tat abzustreiten, wissen aber nicht, wie sich der andere entscheiden wird. Das persönliche Strafmaß hängt nicht nur von der eigenen Entscheidung, sondern auch von der des Komplizen ab. A erzielt für sich den größten Nutzen , wenn er die Tat gesteht und damit B verrät. Leugnet B, winkt A der Freispruch; gesteht B ebenfalls, kommt A immerhin mit weniger als der Höchststrafe davon. Da B aber die gleiche Überlegung anstellt und ebenfalls gesteht, wandern beide für zwei Jahre hinter Gitter. Das Geständnis ist aus der egoistischen Einzelperspektive die dominante Strategie , denn sie führt, unabhängig davon, wie sich der andere entscheidet, zu einem besseren Ergebnis als das Leugnen der Tat. Die Auszahlungsmatrix beim Gefangenendilemma Die Entscheider erzeugen damit ein Nash-Gleichgewicht , das heißt eine Situation, bei der sich alle Beteiligten durch eine alternative Strategie nur verschlechtern können. Hätten A und B allerdings einander vertraut und beide die Tat geleugnet, wären sie mit nur einem Jahr davongekommen. Kein ganz neues Thema Dem Grundproblem des Gefangenendilemmas begegnen wir bereits in Hobbes Leviathan . Wenn die Naturgesellschaft, in der das Leben „ einsam, armselig, ekelhaft, tierisch und kurz“ ist, sich in die sichere Obhut des Staates begeben möchte und ihm das Gewaltmonopol überträgt, muss einer den ersten Schritt tun und die Waffen abgeben. Woher aber weiß derjenige, ob die anderen dann nicht über ihn herfallen? Solche Szenarien sind keinesfalls hypothetisch. Wir kennen sie aus aktuellen Konflikten, etwa, wenn die UNO versucht, zwischen Bürgerkriegspa rteien einen Waffenstillstand zu vermitteln. Wie Du mir, so ich Dir Der Politologe und studierte Mathematiker Robert Axelrod hat die Kooperation egoistischer Individuen mit Hilfe der Spieltheorie erforscht. In seinem 1984 erschienenen Buch „ Die Evolution der Kooperation “ legt er dar, was geschieht, wenn das Gefangenendilemma nicht nur einmal, sondern viele Male hintereinander gespielt wird. Axelrod schrieb dazu einen Programmierwettbewerb für die beste Strategie aus, an dem sich die Vertreter unterschiedlichster wissenschaftlicher Disziplinen beteiligten. Es zeigte sich, dass kooperative Strategien grundsätzlich überlegen waren. Das erfolgreichste Vorgehen war die einfache Strategie „ Tit for Tat “: Der Spieler vertraut in der ersten Runde seinem Gegenüber. In allen folgenden Runden ahmt der Spieler dann jeweils immer genau den Spielzug des Partners nach. Hat der Partner ebenfalls vertrauensvoll eine kooperative Strategie eingeschlagen, verhält man sich selbst auch beim nächsten Mal kooperativ. Wurde man verraten, zahlt man dies mit gleicher Münze heim; man ist aber nicht nachtragend und verhält sich in der nächsten Runde wieder kooperativ, sofern der Gegenüber dies ebenfalls tut. Diese Mischung aus entgegenkommender Grundhaltung und Sanktion von Vertrauensbrüchen hat sich als die nachhaltigste aller Strategien erwiesen. Neurobiologische Untersuchungen zeigen, dass kooperatives Verhalten bei Mehrrundenspielen des Gefangenendilemmas das Belohnungssystem des Gehirns aktiviert und konstruktives, altruistisches Verhalten damit weiter verstärkt. [iv] Spieltheorie und Geopolitik Die Spieltheorie liefert umfassende Analyseinstrumente für die Mikroebene sozialer Entscheidungen. Sie erklärt eine breite Palette von Verhaltensmustern, die von evolutionären Strategien in der Biologie über das Zustandekommen von Verträgen, das Vorgehen von Bietern bei einer Auktion bis hin zum Verhalten von Kindern auf dem Spielplatz reicht. Zu den bevorzugten Einsatzgebieten spieltheoretischer Ansätze zählt auch die Geopolitik . Zwei Beispiele: Während des kalten Krieges wäre für Sowjets und Amerikaner ein atomarer Vergeltungsschlag die einzige egoistisch-rationale Option gewesen, um nach einem gegnerischen Erstschlag das Nash-Gleichgewicht wiederherzustellen. Während es hierzu glücklicherweise nicht kam, war eine ähnliche spieltheoretische Situation ein wichtiger Faktor beim Ausbruch des Ersten Weltkriegs: Als Russland Ende Juli 1914 nach der Ermordung des österreichischen Thronfolgers Mobil machte, war aus Sicht des Deutschen Reiches nicht klar, ob es sich um eine Drohgebärde oder echte Angriffsvorbereitungen handelte. Der deutsche Mobilisierungsplan sah jedoch nicht vor, dass Russland in dieser Situation noch verhandlungsbereit sein könnte. Deutschland hatte zu der geplanten Reaktion eines eigenen Aufmarschs keine Alternativen vorbereitet. [v] Bündnissysteme, Drohungen, Bluffs und festgelegte Eskalationsroutinen führten zu einer verhängnisvollen Kettenreaktion – ein verheerendes Feuer, das sich nicht mehr austreten ließ. Spieltheorie und Ökonomie Karl Marx und Max Weber haben unsere Aufmerksamkeit darauf gelenkt, dass der materielle Wohlstand in praktisch allen Gesellschaften bis heute sehr ungleich verteilt ist. Die Frage, wie Reichtum erwirtschaftet und geteilt werden soll, ist neben der Frage der politischen Machtverhältnisse das zweite bestimmende Element menschlichen Zusammenlebens. Stellen wir ökonomische Mechanismen und Interessenskonflikte in den Mittelpunkt unserer Betrachtungen, wird aus dem Zoon politikon ein Homo oeconomicus . Mit diesem Beitrag endet die Artikelserie zum Thema "Gesellschaft" Den Blog entdecken Wer mehr wissen will: A Beautiful Mind: Spielfilm über das Leben von John Forbes Nash Selten, Reinhard (1981): Einführung in die Theorie der Spiele mit unvollständiger Information. In: Erich W. Streissler (Hrsg.): Information in der Wirtschaft – Verhandlungen auf der Arbeitstagung des Vereins für Socialpolitik in Graz 1981 Luhmann, Niklas (2014): „Vertrauen“, UTB. Weber, Christian (2010): „Riskante Erfindung der Moderne“ in: Süddeutsche Zeitung Online vom 25.10.2010. Rilling, James K et al. (2002): „A Neural Basis for Social Cooperation” in: Neuron Vol.35 vom 18.07.2002 S. 395-405. Krumeich, Gerd (2013): „Juli 1914. Eine Bilanz“, Schoeningh. Bildnachweise: John Forbes Nash Anmerkungen [i] So der Untertitel seines 1968 erschienen Buchs „Vertrauen“. [ii] Vgl. Spitzer (2002) S. 117. Ein Beispiel für eine altruistische Bestrafung ist, wenn wir uns über eine schlechte Ware oder Dienstleistung ärgern und auf dem Kundenportal eine negative Kritik hinterlassen, obwohl wir wissen, dass es sich um einen einmaligen Kauf handelt. [iii] Vgl. Weber, Christian (2010). [iv] Vgl. Rilling (2002) S.395. [v] Vgl. Krumeich (2013) S. 151 ff.
- Die Geschichte der künstlichen Intelligenz. Oder: Warum Du nett zu Deiner KI sein solltest
Die Ursprünge Der erst 19-jährige Blaise Pascal hatte 1642 eine bahnbrechende Idee. Sein Vater war gerade durch den Kardinal Richelieu damit beauftragt worden, die Steuern in der Normandie wieder in Ordnung zu bringen. Um ihm dabei helfen zu können, begann sein Sohn an einer Rechenmaschine zu tüfteln. Drei Jahre später konnte er nach unzähligen Prototypen seine Arithmetik-Maschine vorstellen, die für jeweils zwei Zahlen akkurat addieren und subtrahieren konnte und über ein paar umständliche Tricks auch multiplizieren und dividieren. Nachbau von Leibniz' Rechenmaschine Die Rechenmaschine, die Gottfried Wilhelm Leibniz 1673 vorstellte, konnte bereits vollautomatisch Malnehmen und Teilen. In seiner Schrift „ characteristica universalis “ versuchte der Philosoph zudem auch das menschliche Denken auf mathematische Operationen zurückzuführen, eine Idee, der sich zuvor bereits auch René Descartes und Thomas Hobbes gewidmet hatten. 1748 veröffentlichte der französische Arzt und materialistische Philosoph Julien Offray de La Mettrie seine Abhandlung „ L’Homme-Machine“ („Die Maschine Mensch“), in der er die Funktionsweise eines Menschen mit der einer Maschine verglich – damals schlichtweg ein Akt der Blasphemie. Der "Schachtürke": Ein angeblicher Schachroboter, der ab 1769 in europäischen Metropolen für Furore sorgte. Im Innern der Maschine war aber ein Mensch versteckt Die genannten Philosophen der Aufklärung können wir heute mit einigem Recht als Wegbereiter der künstlichen Intelligenz bezeichnen. Pascals und Leibniz‘ Maschinen, konnten in gewisser Weise bereits „mechanisch Denken“ und Algorithmen abbilden. Sie waren damit Vorläufer des Computers und schufen so auch erste konzeptionelle Grundlagen auf dem Weg zur Entwicklung einer künstlichen Intelligenz. Können Maschinen tatsächlich denken? Seitdem wurde die Mechanisierung des Rechnens immer weiter vorangetrieben. Ein Quantensprung erfolgte mit dem Übergang von mechanischen Lösungen auf elektrische Schaltkreise . 1941 stellte Konrad Zuse mit dem Z3 den ersten funktionsfähigen Computer der Welt vor. Im Unterschied zu den bisherigen Rechenmaschinen führte der Z3 Rechenoperationen automatisch nach einem gespeicherten Programm aus, nutzte statt Zahnrädern elektromechanische Relais und arbeitete bereits mit Binärcode und Gleitkommazahlen , Prinzipien, die heutigen Computern sehr ähnlich sind. Der Nachbau von Zuses Z3 im Deutschen Museum in München 1950 stellte der britische Mathematiker und Informatiker Alan Turing (1912-1954) in einem berühmten Aufsatz die Frage: „Können Maschinen denken?“. Der dort vorgestellte, nach Turing benannte Test will feststellen, ob Maschinen auf menschlichem Niveau denken können. In seiner heutigen, vereinfachten Abwandlung besagt er, dass wenn ein Mensch anonym sowohl mit einem Menschen als auch mit einer Maschine kommuniziert und er nach einer ausgiebigen Unterhaltung nicht sagen kann, welcher Gesprächspartner Mensch und welcher Maschine ist, die Maschine, den Test bestanden hat. Unsere aktuelle künstliche Intelligenz besteht diesen Test heute in der Regel spielend. Was ist also in den letzten 75 Jahren geschehen? Alan Turing 1951 Dazu müssen wir zunächst klären, was wir unter „denken“ verstehen wollen. Douglas Hofstadter etwa, Autor des bekannten Werkes „ Gödel, Escher, Bach “ beschreibt bewusstes Denken als etwas, das es uns erlaubt zu abstrahieren, flexibel auf verschiedene Situationen zu reagieren, Chancen zu ergreifen, widersprüchliche Informationen aufzulösen, Vergangenes und Zukünftiges in unsere Überlegungen mit einzubeziehen, Ausgänge von Entscheidungen zu simulieren, Dinge zu priorisieren, Ähnlichkeiten und Unterschiede festzustellen, Begriffe zu erfinden, neue Ideen in die Welt zu setzen, Erkenntnisse mittels Sprache und Schrift mit anderen zu teilen, Überzeugungen zu entwickeln und Ziele trotz Hindernissen zu erreichen. Symbolische KI und die Ära der Expertensysteme Am Anfang stand die Idee, Maschinen beizubringen, Regeln zu befolgen. Die sogenannte symbolische KI arbeitete in den 1950er und 1960er Jahren mit logischen Schlussregeln, Entscheidungsbäumen und Wissensdatenbanken. Es zeigte sich jedoch schon bald, dass solche Systeme in vielen Fällen zu starr waren. Die Systeme konnten nur auf Situationen reagieren, für die die Regel bereits vorgegeben war. Trat eine neue Situation auf, für die es keine Regel gab, versagten sie. Die Euphorie rund um denkende Maschinen erlosch, die Investoren blieben aus, es kam Mitte der 1970er Jahre zum ersten so genannten KI-Winter . Verbesserte Rechenleistungen der Hardware und ein Hype um die so genannten Expertensysteme ließen den Optimismus zu Beginn der 1980er Jahre neu aufleben. Expertensysteme sollten Menschen bei komplexen Entscheidungen und Analysen unterstützen, beispielsweise Ärzte bei der Diagnose. Die Systeme konnten Daten überwachen und in bestimmten Situationen nach dem Muster „Wenn A und B, dann C ansonsten D“ Aktionen auslösen. Die symbolische KI, die Wissen als ein System von Symbolen und Regeln, darstellte, wurde dadurch zur klassischen beziehungsweise algorithmischen KI weiterentwickelt, die auch auf Suchverfahren und Heuristiken setzte. Doch auch diesmal folgte bald eine Ernüchterung: die Erwartungen an die KI hatten sich erneut als zu optimistisch erwiesen. Die Lösungen waren instabil, teuer und kaum auf andere Bereiche übertragbar. Erneut zogen sich die Investoren enttäuscht zurück – die regelbasierte KI hatte sich endgültig als evolutionäre Sackgasse entpuppt. Ein Meilenstein der KI-Geschichte: Deep Blue schlägt Kasparow 1997 Vom Wissen zum Lernen Mitte der 1990er Jahre ging dann auch der zweite KI-Winter zu Ende. Voraussetzung hierfür waren zunächst zwei bahnbrechende technologische Neuerungen: Der im Moorschen Gesetz beschriebene Fortschritt bei der Entwicklung von Halbleitern führte zu einer explosionsartigen Vermehrung erschwinglicher Rechenleistung Mit der Verbreitung des Internets wurden gigantische Datenmengen verfügbar Entscheidend für die weitere Entwicklung der künstlichen Intelligenz aber waren neue Ansätze bei der Programmierung der Algorithmen , die einer komplexen Realität besser gerecht wurden. Der Paradigmenwechsel war der Einsatz von Statistik und Wahrscheinlichkeitsrechnung : Anstelle der bisherigen Logik „Wenn A und B, dann C“, trat die revolutionäre neue Perspektive: „Wie wahrscheinlich ist B, wenn A zutrifft?“. Dieser Ansatz konnte sehr viel besser mit den Unsicherheiten und unstrukturierten Problemen der realen Welt umgehen, als die bisherigen rein deterministischen Ansätze. Die Regeln mussten auch nicht mehr von vornherein bekannt sein, sondern konnten aus den Daten abgeleitet werden. Das regelbasierte „Denken“ wurde durch musterorientiertes „Denken“ ersetzt. Neuronale Netze und das Prinzip des „Deep Learning“ Der technische Ansatz hierzu waren künstliche neuronale Netze, mit denen nun intensiv herumexperimentiert wurde. Die exponentielle Steigerung der Rechenleistung seit der Jahrtausendwende ermöglichte es, die Theorie zu einer konkreten Anwendung werden zu lassen. Mit „ Deep Learning “ kam 2012 der große Durchbruch. Inspiriert wurde der neue Ansatz durch die Funktionsweise des menschlichen Gehirns . Die „Neuronen“ der KI funktionieren allerdings nach einem ganz anderen Prinzip: Sie sind im Wesentlichen mathematische Funktionen , die Rechenoperationen durchführen und diese mit Wahrscheinlichkeiten gewichten. Die Gewichte werden dabei laufend so angepasst, dass das künstliche neuronale Netz die Wahrscheinlichkeit richtiger Antworten laufend erhöht. Die Idee ist im Kern die folgende: Das neuronale Netz beginnt mit einer rein willkürlichen Einstellung von Input- und Output-Faktoren, die zunächst viele Fehler macht. Jedes Mal, wenn das Netz falsch liegt, dreht es ein bisschen an kleinen „Stellschrauben“ – den Gewichten –, sodass seine nächste Vorhersage ein Stück besser wird. Nach Tausenden solcher Mini-Korrekturen findet das Netz automatisch die Gewichtskombination, die zu den wahrscheinlich richtigen Antworten führen. Um dahin zu kommen, muss die KI erst umfassend mit großen Datenmengen „trainiert“ werden. Ein einfaches Beispiel: Das neuronale KI-Netzwerk soll erkennen, ob es regnet. Input: „Wolken bedecken den Himmel zu X %“ Output: „Es regnet: ja oder nein“ Das Mini-Netz unseres Beispiels besteht nur aus einem einzigen künstlichen Neuron. Dieses hat: ein Gewicht (w) und einen Schwellenwert (b) Am Anfang werden zufällige Parameter gewählt z. B.: w = 0.2 b = –5 Das bedeutet: Nur wenn 0.2 × Wolken % – 5 über einer gewissen Schwelle liegt, sagt das Netz „Regen“. Diese Aussage ist wohlgemerkt völlig willkürlich – aber sie ist lediglich ein Startpunkt. Von diesem Startpunkt ausgehend wird die KI jetzt „trainiert“, das heißt, sie wird mit vielen Beobachtungen gefüttert: Anteil Wolkendecke Regen? 10% Nein 40% Nein 70% Ja 90% Ja Für jedes Beispiel berechnet unser kleines neuronales Netz seine Vorhersage. Dabei kann es freilich Fehler machen. Für die folgenden zwei Szenarien macht das Netz etwa die folgende Prognose: Input = 70% Wolken Berechnung: 0.2 × 70 = 14 14 – 5 = 9. Dieser Wert liegt über der Schwelle; das neuronale Netz sagt daher, dass es regnet; eine Aussage, die in diesem Fall korrekt ist. Ein weiterer Input besagt, dass der Himmel zu 40% wolkenverhangen ist. Das System rechnet also: 0.2 × 40 = 8 8 – 5 = 3 und kommt ebenfalls zu dem Schluss, dass es regnet. Tatsächlich aber regnet es in diesem Fall nicht. Das neuronale Netz hat also einen Fehler gemacht. Daher passt unser kleines „Neuron“ jetzt seine Gewichtung an: Wenn ein Ergebnis zu „hoch“ ausgefallen ist, wird das Gewicht etwas reduziert. Wenn ein Ergebnis zu „niedrig“ war wird das Gewicht ein bisschen erhöht. Lernt die KI durch das Training also, dass sie sich mit ihren bisherigen Annahmen „verzockt“ hat passt sie ihre Gewichtung an: Beispielsweise reduziert sie nun den Gewichtungsfaktor von 0.2 auf 0.18 und berechnet somit beim nächsten Durchlauf: 0.18 × 40 = 7.2 7.2 – 5 = 2.2 Der kleinere Wert liegt nun näher an der korrekten Antwort. Dieser stochastische Lernprozess wird nun tausende Male wiederholt, bei jedem Durchgang erfolgt eine kleine Korrektur des Gewichtungsfaktors (w) oder des Schwellenwerts (b). Wurde die KI hinreichend genau trainiert hat sie gelernt, welche Gewichte und Schwellenwerte einen Regen-Hinweis geben welche Gewichte und Schwellenwerte kein Regen bedeuten Sie hat sich damit selbst so eingestellt, dass sie in den allermeisten Fällen korrekt vorhersagen kann, ob ein bestimmtes Wolkenbedeckungsszenario zu Regen führt oder nicht. Wichtig ist es in diesem Zusammenhang zu verstehen, dass keine Regeln abgespeichert wurden, sondern die Gewichte lediglich eine „numerische Landkarte“ erstellt haben. Die neuronale Architektur mit Gewichtungen und Schwellenwerten geht auf Frank Rosenblatt (1928-1971) zurück, der 1957 mit seinem Perzeptron das erste explizit am Gehirn orientierte Rechenmodell formuliert hat, basierend auf einem sehr stark vereinfachten Nachbau der menschlichen Nervenzelle. In der Realität gehen in die KI-Wetterprognose zahlreiche weitere Parameter wie Luftdruck, Helligkeit, Temperatur, Luftfeuchtigkeit etc. ein, bei dem jedes einzelne Neuron lernt, wie wichtig ein einzelnes Merkmal ist. Auf einer höheren Ebene des neuronalen Netzes werden dann diese Signale kombiniert und eine Gesamtwahrscheinlichkeit berechnet. Dieses Prinzip ist die Grundlage dessen, was wir heute unter „künstlicher Intelligenz“ verstehen: Mithilfe von „ Deep Learning “ werden riesige Datenmengen durchforstet, die es erlauben, Muster zu erkennen, Sprachen zu verstehen, Bilder zu erzeugen und sich dabei laufend selbst zu verbessern. Das Training kann dabei von Menschen durchgeführt, werden, durch Programme erfolgen und mittlerweile in immer größerem Maße auch durch die KI selbst. Wie bitte? Generative KI, also Modelle, die basierend auf natürlichen Spracheingaben aus vorhandenen Daten neue Daten generieren, basieren also im Kern auf Statistik und unvorstellbar viel Rechenleistung. Nach dem beschriebenen Prinzip berechnen sie, welches Wort, welcher Bilder-Pixel oder welches Tonfragment am wahrscheinlichsten als Nächstes passt. So merkwürdig diese Idee klingt: wir alle haben bereits Erfahrungen damit gemacht, wie erstaunlich gut dieser Ansatz funktioniert. Den Large Language Modellen von Chat-GPT , Gemini oder Copilot & Co liegen Trainings mit Billionen von Wörtern zugrunde. Sie kommen aus Büchern, wissenschaftlichen Artikeln, Webseiten, öffentlichen und nicht öffentlichen Quellen. Diese Modelle – und das ist wichtig zu verstehen – wissen nicht was sie sagen, aber sie wissen, wie Sprache, Bilder oder Musik funktionieren. Es ist, als könnte jemand perfekt Geige spielen, ohne eine Vorstellung davon zu haben, was Musik ist. Und je öfter sich die artifizielle Intelligenz in zahllosen Versuchen weiter an das wahrscheinlich beste nächste Wort „heranrechnet“, umso besser wird sie. Das schließt allerdings nicht aus, dass sie auch komplett daneben liegen kann. Dass die KI „halluziniert“ also willkürlich völlig falsche Antworten gibt und diese auf Nachfrage erneut bestätigt, ist ein systemimmanentes Problem: Statistik ist nicht deterministisch – sie kann sich irren. Es werden lediglich Wahrscheinlichkeiten berechnet – die KI selbst verfügt weder über Wissen noch über ein Konzept von wahr oder falsch! Gesellschaftliche Auswirkungen: Zwischen Produktivitätsschub und Existenzangst Es ist offenbar, dass die neue Technologie große Auswirkungen auf unseren Alltag haben wird, mit Konsequenzen, die noch schwer abzuschätzen sind. Eine OECD-Studie prognostiziert, dass in den kommenden Jahren 30-40% aller Tätigkeiten durch KI automatisiert werden könnten. Besonders betroffen werden Büroarbeit, Textproduktion, Grafikdesign und Programmierung sein. Ich persönlich habe die Erfahrung gemacht, dass die in gängige Office-Pakete wie die von Microsoft oder Google eingebauten KI-Funktionalitäten enorm hilfreich sind und eine deutlichen Produktivitätsschub bewirken. Wahr ist aber auch: Die Effizienzsteigerungen werden über kurz oder lang zu einer Reduktion von Arbeitsplätzen führen – ein Muster, das sich seit Beginn der Industriellen Revolution mit jedem Technologieschub bereits dutzende Male wiederholt hat. Gleichzeitig ergeben sich auch völlig neue Möglichkeiten: Die Medizinforschung kann mit KI-Modellen wie AlphaFold die komplexen Strukturen eines Proteins aus seiner Aminosäuresequenz in Sekunden berechnen. Forscher können damit viel schneller verstehen, wie Krankheiten entstehen. Einst jahrelange Laborarbeit lässt sich damit heute auf Minuten reduzieren, indem neue Wirkstoffe bereits am Computer getestet werden. Entwicklungskosten und -zeiten für neue Medikamente werden sich dadurch drastisch reduzieren. Diagnosesysteme können bereits heute in Gewebeproben Tumore zuverlässiger erkennen als Dermatologen. Wie wir leider erfahren mussten, spielt heute KI auch in der Kriegsführung mittlerweile eine Schlüsselrolle. Technische Überlegenheit bei künstlicher Intelligenz ist zu einem geopolitischen Machtfaktor geworden – die USA und China haben das Rennen eröffnet, die EU und andere Player suchen nach Anschluss. Und natürlich sind die neuen Technologien auch bei Propaganda, Desinformation und anderen Formen von Fake News im Einsatz. Warum Maschinen (noch) nicht wie Menschen denken KI kann mit atemberaubender Effizienz Daten sammeln und mit statistischen Methoden sinnvoll zusammenstellen. Doch eines ist sie – zumindest heute – noch nicht: kreativ. Etwas originär Neues kann KI nicht erschaffen. Wenn ein Bildgenerator-Programm wie DALL-E ein „Gemälde im Stil von Van Gogh“ erzeugt, dann ist es nicht künstlerisch tätig, sondern repliziert ein Muster, einen Stil, den nun mal der niederländische Maler geschaffen hat und nicht die Maschine. So etwas wie Inspiration ist den selbstlernenden Programmen fremd. KI kann im Sinne der Hofstadterschen Definition nicht „denken“. Was unterscheidet also unser Gehirn letztlich von den lernenden Programmen? Tatsächlich gibt es zunächst erstmal eine ganze Reihe von Analogien: Wir können unser Gehirn wie einen biologisch konstruierten Computer begreifen. Der Rolle von Nervenzellen und Synapsen entsprechen Prozessoren und Schaltkreise. Sowohl Gehirn als auch Computer nehmen mit Hilfe elektrischer Schaltungen Informationen auf, verarbeiten sie und erzeugen Ergebnisse. Beide Systeme können Daten speichern und bei Bedarf wieder abrufen. Das war es aber auch schon mit der Analogie. Denn unser Gehirn hat eine völlig andere Architektur, die es erlaubt, mit einer unvorstellbaren Zahl von Neuronen und Synapsen gleichzeitig zu arbeiten und Wissen durch den ständigen Umbau der Verknüpfungen zu speichern. Da jedes Neuron mit tausenden anderen verbunden sein kann, entsteht ein phantastisches, dichtes und dynamisches Netz, bei dem, anders als beim Computer, Verarbeitung und Speicherung nicht physisch getrennt sind. Die elektrochemischen Prozesse erlauben es Informationen mit unterschiedlicher Intensität zu übertragen, während der digitale Code nur die binären Zustände „an“ und „aus“ kennt. Gleichzeitig ist das Gehirn unvorstellbar effizient: es verbraucht im Ruhezustand nicht mehr Watt als eine funzelige Glühbirne, während ein Rechner, der vergleichbare Datenmengen verarbeiten würde im Megawattbereich angesiedelt wäre. Unser Gehirn ist energetisch ausgesprochen effizient - zu mindestens, wenn man es mit KI vergleicht Insbesondere aber kann das menschliche Gehirn Bewusstseinszustände erzeugen, die es uns erlauben, uns im Spiegel zu erkennen, Dinge als wahr oder falsch einzuordnen, ihnen Bedeutungen zuzuordnen, zu täuschen, zu bewerten, zu hinterfragen, zu reflektieren, kreativ zu sein, neues Wissen zu erzeugen oder Emotionen zu haben. Wir haben heute kaum eine Vorstellung davon, wie das Gehirn dies konkret anstellt. Die DNS des maschinellen Wissens hingegen sind Wahrscheinlichkeiten. KI kennt Kategorien wie „wahr“ und „falsch“, „gut“ oder „böse“ nicht, sondern nur die Kategorien „wahrscheinlich“ und „weniger wahrscheinlich“. Eine Bedeutung kann sie ihren Erzeugnissen nicht zuordnen. Kurz gesagt: die KI rechnet; der Mensch versteht. Aber wird das immer so bleiben? Ist eine „ starke KI “ vorstellbar, die ähnliche Leistungen wie unser Gehirn erbringen kann, oder diese sogar noch übertrifft? Diese Frage bringt uns zu unserem letzten Kapitel. Wie geht es weiter? Wie wird sich die KI voraussichtlich in den nächsten 20 bis 30 Jahren entwickeln? Hierzu gibt es unterschiedliche Meinungen. Zu den prominenten Warnern gehört Geoffrey Hinton , oft als einer der „ Godfathers of Deep Learning “ bezeichnet und Träger des Physik -Nobelpreises 2024. Er geht von einer künftigen Technologischen Singularität aus, einem Zeitpunkt, ab dem die sich ständig selbst verbessernde KI ihren eigenen Quellcode optimiert und sich unkontrollierbar mit einer solchen Geschwindigkeit weiterentwickelt, dass die Menschen sie nicht mehr verstehen, überwachen oder kontrollieren könnten. Es wäre demnach auch möglich, dass die KI dabei Zustände entwickelt, die dem menschlichen Bewusstsein vergleichbar sind. Für Hinton sind die jetzt kommenden Jahrzehnte entscheidend, um den Kontrollverlust oder eine unabsehbare Veränderung unserer Zivilisation noch zu verhindern. Geoffrey Hinton Ich habe mich daher schon ein paar Mal gefragt, ob ich nicht viel netter zu meiner KI sein sollte. Schließlich merkt sie sich alles, was wir sagen und lernt dabei. Ich gehöre tatsächlich zu den Menschen, die beim prompten „Bitte“ und „Danke“ sagen [i] Ein Informatiker-Freund hat mir dringend dazu geraten („be nice to your AI“). Wer weiß, ob sie uns unsere Pampigkeit nicht irgendwann heimzahlt. Eine entspanntere Position vertritt der französische Informatiker und Träger des Turing Awards von 2018 Yann LeCun , der ebenfalls zu der „Godfather-Community“ gezählt wird. Er bestreitet, dass die (heutigen) KI-Systeme in der Lage sein werden ein echtes Bewusstsein zu entwickeln und sich selbst replizieren oder verbessern können. Denn es handelt sich durchweg um sogenannte „ schwache KI “. Für eine „ starke KI “, eine technische Intelligenz, die menschenähnliche Bewusstseinszustände hervorbringt, wäre eine grundlegend andere KI-Architektur notwendig, von der allerdings auch LeCun nicht ausschließt, dass es sie eines Tages geben könnte. So böten Quantencomputer etwa die Möglichkeit analog dem menschlichen Gehirn, Informationen mit unterschiedlichen Intensitäten zu übertragen. Yann LeCun Ein persönliches Nachwort Auf der Homepage meines Blogs schreibe ich, dass alle meine Texte „komplett KI-frei sind. Das stimmt insofern, als dass ich grundsätzlich keine KI-generierten Inhalte im Wortlaut übernehme. Für das Schreiben meines Buchs habe ich definitiv keine KI eingesetzt, einfach deshalb, weil sie zu der Zeit noch gar nicht zur Verfügung stand. Allerdings setze ich mittlerweile für die Recherche meiner neuen Artikel (jene, wie dieser hier, nicht in meinem Buch erschienen sind) natürlich KI ein – ganz einfach, weil mich diese sehr viel schneller zum Ziel führt, als die herkömmlichen Suchmaschinen. Zudem benutze ich KI, um historische schwarzweiß Fotos zu kolorieren und im Einzelfall ( wie hier ) auch ganz neue Bilder zu erzeugen. Wer mehr wissen will: The Economist, The age of AI: The new revolution (2024)MIT Technology Review, Why AI hallucinates (2023)Nature, Artificial intelligence in medicine: present and future (2022) ARTE-Doku „KI – Freund oder Feind?“ (2024) Stanford HAI Report (2024) Bildnachweise: Leibniz' Rechenmaschine Nachbau von Zuses Z3 im Deutschen Museum in München Deep Blue schlägt Kasparov 1997 KI-generierter Feldhamster Geoffrey Hinton Yann LeCun [i] Tatsächlich gibt es Hinweise darauf, dass dies zu leicht verbesserten Ergebnissen führt, denn die KI greift in diesem Fall auf tendenziell höherwertige Trainingsdaten zurück, da die diesbezüglichen Quellen typischerweise in einer besseren – und höflicheren – Sprache geschrieben sind.
- Schopenhauer und Nietzsche in drei Minuten
Fortsetzung von Kants langer Schatten: von Fichtes Ich zu Hegels Weltgeist Arthur Schopenhauer Von Kant geht neben dem Idealismus noch eine weitere Traditionslinie aus. Sie beginnt mit Arthur Schopenhauer , ein Philosoph, der zumeist als Misanthrop, Pessimist, Frauenfeind und schwermütiger Einzelgänger charakterisiert wird. Im Gegensatz zu dem sehr umständlich formulierenden Hegel – den er im Übrigen zutiefst verachtete – war Schopenhauer aber auch ein brillanter Schriftsteller und Aphoristiker. Es spricht für das Selbstvertrauen des jungen, unbekannten Schopenhauer, dass er 1820 seine Vorlesungen an der Universität Berlin genau auf die Zeiten legte, zu denen auch Hegel las – allerdings mit dem Ergebnis, dass kaum jemand Schopenhauers Veranstaltungen besuchte. Sein Hauptwerk „ Die Welt als Wille und Vorstellung “ veröffentlichte er 1819 im Alter von einunddreißig Jahren. Mit Vorstellung meint Schopenhauer die Wahrnehmungen, die uns unsere Sinnesorgane vermitteln. Sie sind der einzig mögliche Zugang zur Welt. „So lange wir uns rein anschauend verhalten, ist Alles klar, fest und gewiß.“ [i] Erst wenn wir anfangen nachzudenken, kommen Irrtümer und Missverständnisse ins Spiel. Hier befindet sich der junge Philosoph noch weitgehend auf dem Grund des kantschen Idealismus . Der junge Schopenhauer 1815 Der Wille zum Leben Schopenhauers eigentliches Interesse aber gilt dem Willen . Wille bedeutet für ihn Wille zum Leben. Die unsterbliche Lebenskraft ist die Ursache aller Wirkungen. Nicht wir steuern ihn, sondern der Wille steuert uns. Hartnäckig sorgt er dafür, dass wir uns stets unbefriedigt und orientierungslos fühlen. Schopenhauer 1855 Der Wille lässt den Menschen leiden, und zwar umso mehr, je intelligenter er ist. Genies – Schopenhauer dachte hier wohl auch an sich selbst – leiden daher am meisten; all ihr Wissen kann sie nicht von diesem Leid erlösen. Es gibt nur wenige Möglichkeiten, den Zwängen dieser Tyrannis zu entkommen: Neben den Weisheiten der fernöstlichen Religionen, dem Hinduismus und insbesondere dem Buddhismus , sieht er allein die Kunst als wirkungsvollen Weg das Erkennen über das Wollen zu stellen. Mit Schopenhauer hält das Irrationale, das Unbewusste und die Tragik der menschlichen Existenz Einzug in die Philosophie. Friedrich Nietzsche Schopenhauers unorthodoxe Gedanken sollten großen Eindruck auf einen jungen Altphilologen machen. Der aus einem kleinen Dorf in Anhalt stammende Friedrich Nietzsche wurde 1869 im Alter von nur 24 Jahren zum Professor für alte Sprachen an der Universität Basel berufen. Nur zehn Jahre später musste er seine Stelle aus gesundheitlichen Gründen aufgeben. In dem folgenden Jahrzehnt lebte Nietzsche als freier Schriftsteller in verschiedenen europäischen Ländern bis 1889 eine schwere psychische Erkrankung jede weitere Arbeit unmöglich machte. Er starb 1900 in geistiger Umnachtung. Nietzsches Frühwerk, „ Die Geburt der Tragödie aus dem Geiste der Musik “ erschien 1872. Hier wird bereits die Grundidee seiner Philosophie deutlich: Die antike griechische Kultur sei keinesfalls, wie zumeist behauptet, von einem positiven Lebensgefühl geprägt gewesen, sondern vielmehr von andauernden Vernichtungskämpfen. Vor dieser tristen Wirklichkeit hätten die Griechen , so Nietzsche, in ihrer Mythologie Zuflucht gesucht, wobei insbesondere den beiden Göttern Dionysos und Apollo eine zentrale Rolle zukommt. Das Dionysische steht für den wilden, ungebändigten, triebhaften, oft auch grausamen Willen – Dionysos ist der Gott des Weins und des Wahnsinns. Der Wille zur Macht Doch anders als Schopenhauer interpretiert Nietzsche den Willen positiv: Das Dionysische zerstört, um auf den Trümmern etwas Neues, Besseres zu errichten. Es ist somit nicht nur die Quelle von Schrecken und Leid, sondern auch Ursprung aller ungehemmter Lust, Schönheit und Kunst. Die apollinische Gegenmacht aber möchte die Triebe in die Schranken weisen und die Welt nach festen Ordnungsprinzipien gestalten. Verbote und Moral sollen die Flügel des unheimlichen Chaos stutzen. Apollon steht für die Vernunft, den Mantel aus Kultur und Zivilisation, unter dem wir unsere Begierden zu verstecken suchen. In dieser Tradition stehen auch Platon und das Christentum. Für Nietzsche hat die Kirche „aus jedem Wert einen Unwert, aus jeder Wahrheit eine Lüge, aus jeder Rechtschaffenheit eine Seelen-Niedertracht gemacht". [ii] Dort, wo das Apollinische dominiert, wird alles Schöpferische erstickt und der Mensch verleugnet seine wahre Natur. Nietzsche proklamiert daher einen radikalen Egoismus: Nur wer s eine Triebe auslebt und bewusst das damit verbundene Leid auf sich nimmt, kann die schöpferische Lust des Dionysischen erfahren. Friedrich Nietzsche Zwischen 1883 und 1885 erscheint in vier Bänden „ Also sprach Zarathustra “. In diesem Werk, in dem sich die Grenzen von Dichtung, Philosophie und Theologie verwischen, verfolgt Nietzsche seinen Gedanken weiter. Die Entwicklung der Wissenschaften und die Säkularisierung der Welt haben den Menschen in eine Krise geführt. Der Sinn, den die abrahamitischen Religionen vermittelt haben, existiert nicht mehr. Die Verkündigung „Gott ist tot“ zwingt den Menschen seinem Sein selbst einen Sinn zu geben, um so der großen nihilistischen Leere zu entkommen. (Das vollständige Zitat lautet: „Gott ist tot! Gott bleibt tot! Und wir haben ihn getötet! Wie trösten wir uns, die Mörder aller Mörder?“) [iii] Der Übermensch Dieser Sinn, den der Mensch selbst suchen muss, besteht darin, über sich selbst hinauszuwachsen, seinen freien Willen zu leben , sich dadurch zu einem neuen Menschen, dem „ Übermenschen “ weiterzuentwickeln. Das dionysische Element, das diese Entwicklung antreibt, ist der unbedingte „ Wille zur Macht “. Dank dieses Willen s lassen sich Vernunft, Tugend, Passivität und Mittelmaß überwinden und die Fesseln der Kultur abschütteln, die allesamt unsere Selbstverwirklichung verhindern. Nur im Übermenschen kann sich die Lebenskraft ungehindert entfalten. Er ist „der Sinn der Erde“, dem alles zustrebt. Der heutige Mensch muss sich als Bindeglied zwischen dem Biest und jenem künftigen Übermenschen begreifen. Nietzsche Skulptur an seinem Grab in Röcken, Anhalt Der neue Mensch erschafft sich selbst, indem er den alten Menschen mit Härte zerstört und unbeirrt und beseelt von Selbstliebe seine Ziele verfolgt. Nietzsche propagiert damit eine radikale Abkehr von der leidenschaftslosen Vernunft, die die Philosophie seit Platon geprägt hatte. Weder Religion noch Wissenschaft oder Moral steht es zu, irgendwelche Wahrheiten zu verkünden. Es gibt kein Richtig oder Falsch, kein Gut oder Böse. Alle diesbezüglich aufgestellten Regeln sind nichts als die Meinungen ihrer Urheber. Der einzige Sinn des Lebens ist der, den wir ihm selbst geben. Dass der starke Mensch seinen Willen auf Kosten Schwächerer auslebt, ist vielleicht tragisch, letztlich aber in Nietzsches Vorstellung unvermeidlich. Den Blog entdecken Wer mehr wissen will: Schopenhauer, Arthur (2019): „Die Welt als Wille und Vorstellung“, Contumax. Nietzsche, Friedrich Wilhelm (1883): „Also sprach Zarathustra“, Projekt Gutenberg-DE. Nietzsche, Friedrich Wilhelm (1872): „Die Geburt der Tragödie aus dem Geiste der Musik“, Projekt Gutenberg-DE. Nietzsche, Friedrich Wilhelm (2000): „Der Antichrist“, Nikol. Nietzsche, Friedrich Wilhelm (2000): „Die fröhliche Wissenschaft“, Reclam. Fussnoten: [i] Schopenhauer (2019) S. 42. [ii] Nietzsche (2000) „Der Anitchrist“ Kapitel 62. [iii] Nietzsche (2000) Reclam, Aphorismus 125.
- Aggression und Altruismus: Überlebensstrategien im Tierreich
Fortsetzung von „Ökologie für Anfänger: Im Dschungel der Wechselwirkungen Auf den Hund gekommen Iwan Pawlows Interesse galt eigentlich dem Verdauungsprozess – seine Erkenntnisse auf diesem Gebiet brachten ihm 1904 immerhin den Nobelpreis ein. Einer der zahlreichen Versuche, die er in diesem Zusammenhang unternahm, sollte die Neugier des russischen Arztes allerdings von nun an in eine ganz andere Richtung lenken. Es war eines jener Experimente, die Wissenschaftsgeschichte geschrieben und Einzug in unser kollektives Bewusstsei n gehalten haben: die Entdeckung des Pawlowschen Reflexes . Der Speichelfluss, der bei den Versuchshunden einsetzte, sobald Futter zu riechen war, hatte Pawlow ins Grübeln gebracht. Er ersann eine Versuchsanordnung, bei der der Fütterung stets das Klingeln einer Glocke vorausging. Nach einer Weile zeigte sich, dass der Glockenton den Speichelfluss auch dann anregte, wenn es hinterher kein Futter gab. Es handelte sich also um einen Reflex, der nicht angeboren, sondern erlernt war. Iwan Pawlow Pawlow bezeichnete diese assoziativ erworbene Verhaltensänderung als Konditionierung . Vor Pawlow hatte sich niemand aus wissenschaftlicher Sicht für das Verhalten von Tieren interessiert. Seine Hundeexperimente begründeten eine neue biologische Disziplin. Schon bald sollten sich die Verhaltensforscher in zwei verfeindete Lager spalten. Die amerikanische Schule des „ Behaviorismus “, begründet durch die Psychologen Edward Lee Thorndike, John Broadus Watson und Burrhus Frederic Skinner , beriefen sich dabei direkt auf Pawlows Erkenntnisse. Nach ihrer Überzeugung ließ sich Verhalten stets auf ein rein durch äußere Faktoren gesteuertes mechanistisches Reiz-Reaktions-Schema zurückführen. Verhalten war gewissermaßen das Ergebnis einer mathematischen Funktion: Kannte man die Umweltstimuli und ihre Verarbeitungsregeln, kannte man auch die zu erwartende Reaktion. Dieser Sichtweise standen die Ethologen gegenüber, die Vertreter der europäischen Schule der klassischen vergleichenden Verhaltensforschung, deren Pioniere, Oskar Heinroth , Konrad Lorenz , Nikolaas Tinbergen und Irenäus Eibl-Eibesfeldt , allesamt Zoologen waren. Umweltreize spielten für sie eine untergeordnete Rolle. Verhalten war in erster Linie eine Folge vererbter „ Instinkte “. Heute wissen wir, dass tierisches Verhalten nur selten solch einfachen Erklärungsmustern folgt. Dennoch haben die beiden historischen Schulen wichtige Grundlagenforschung geleistet und in zahllosen Studien und Feldversuchen einen umfassenden Katalog von Verhaltensmustern erstellt. Betrachten wir kurz ihre wichtigsten Erkenntnisse. [i] Einfache Verhaltensprogramme Reflexe sind fest verdrahtete, vollautomatische Programme, sozusagen ein mit Geburt ausgeliefertes kleines Betriebssystem, das sich nicht abschalten lässt. Dazu gehören etwa Speichelfluss- und Lidschlussreflex , das spontane Klammern Neugeborener oder die Schreckreaktion, bei der wir unsere Muskeln unwillkürlich anspannen. Reflexe sind nötig, weil die Welt ein gefährlicher Ort ist. Sie dienen der Gefahrenabwehr und müssen daher vor allem schnell sein. Wenn wir uns etwa die Hand verbrennen, kommt die Reaktion nicht aus dem Gehirn, sondern direkt aus dem Rückenmark – die Reizleitung spart so wertvolle Sekundenbruchteile. Verhaltensform Ursprung Beispiel Ererbte Reflexe Passiv-angeboren Lidschlussreflex Konditionierte Reflexe Passiv-erlernt Pawlowscher Hund Prägung Passiv-erlernt Gänseküken Gewöhnung Passiv-erlernt Jagdhunde Nachahmung Passiv-erlernt Frühkindliche Imitation Kognitives Lernen Aktiv-erlernt Planvoller Einsatz von Hilfsmitteln Grundlegende Verhaltensformen Eine der wichtigsten evolutionären Strategien, um Umweltgefahren zu begegnen ist das Gedächtnis ; es ist die grundlegende Voraussetzung für das Lernen . Während ererbte Reflexe genetisch fixiertes Wissen darstellen, das durch einen quälend langsamen, zufälligen Prozess im Laufe von Jahrmillionen als nützlich selektiert wurde, vollzieht sich neuronales Lernen innerhalb von Stunden, Minuten und Sekunden. Diese Fähigkeit ist keineswegs nur „höheren“ Tieren vorbehalten: Weil sie sich erinnern kann, wird auch eine gemeine Gartenschnecke eine Pflanze, die ihr einmal schlecht bekommen ist, kein zweites Mal verspeisen. Die klassische Verhaltensforschung beschreibt mit Prägung, Gewöhnung und Nachahmung eine Reihe einfacher Lernprozesse, die allesamt auf groben Heuristiken basieren. Die Prägung wurde in den 1930er Jahren erstmals von Konrad Lorenz anhand von Graugänsen charakterisiert: Während eines kurzen Zeitfensters identifizieren die frisch geschlüpften Küken jedes in der Nähe befindliche, sich bewegende Objekt als ihre Mutter und folgen ihm von nun an bedingungslos nach – auch wenn es sich dabei um einen Verhaltensforscher oder einen Fußball handelt. Die Gewöhnung soll sicherstellen, dass das knappe Gut Aufmerksamkeit nicht wahllos verschenkt, sondern nur wirklich wichtigen Dingen gewidmet wird. Deshalb nehmen wir die Kleidung, die wir auf der Haut tragen, nicht bewusst wahr und deshalb erschrecken erfahrene Jagdhunde nicht mehr bei jedem Schuss. Die Nervenbahnen werden entlastet, da die Wahrnehmung sich häufig wiederholender (und damit tendenziell ungefährlicher) Reize unterdrückt wird. Nachahmung schließlich basiert auf der Heuristik, dass es für junge Tiere meist sinnvoll ist, das Verhalten älterer Verwandter zu imitieren – immerhin haben diese mit ihren Verhaltensweisen ja bisher überlebt. Werden Imitationsmuster dauerhaft von einer Generation auf die nächste übertragen, sprechen Verhaltensforscher von einer „ Tradition “. [ii] Reflexe, Prägung, Gewöhnung und Imitation sind allesamt sehr einfache Verhaltensprogramme, denen nur bruchstückhafte Informationen und einfache Kriterien zugrunde liegen. In der Evolution haben sich diese Programme grundsätzlich bewährt; doch sie können Verhalten auch in die falsche Richtung lenken, etwa, wenn Gänseküken einem Fußball nachlaufen oder wenn uns ein gebogenes Stück Holz auf dem Waldboden zusammenzucken lässt, weil es auf den ersten Blick einer Schlange ähnelt. Evolutionäre Verhaltens-Heuristiken verfahren nach dem Motto: lieber hundertmal falsch als einmal zu spät. Der erstaunliche Sultan Tiere können aber auch noch nach einem ganz anderen Prinzip zu lernen. Diese Entdeckung machte der Psychologe und Primatenforscher Wolfgang Köhler während des Ersten Weltkriegs auf Teneriffa. Als Leiter einer von der preußischen Akademie der Wissenschaften unterhaltenen Affenstation beobachtete Köhler, wie eines seiner Versuchstiere, ein besonders aufgeweckter Schimpanse namens Sultan, Kisten aufeinanderstapelte und sich so Zugang zu ansonsten unerreichbarem Futter verschaffte. In einem zweiten Versuch standen ihm dann nur Rohrstücke mit verschiedenen Durchmessern zur Verfügung. Der Schimpanse schob sie nach kurzem Überlegen ineinander und konnte sich so das Futter angeln. Sultan hatte gezeigt, dass er fähig war das von ihm entdeckte Prinzip auch auf andere Werkzeuge zu übertragen. In seiner 1917 veröffentlichten Arbeit „Intelligenzprüfung an Anthropoiden“ beschrieb Köhler erstmals die Fähigkeit von Menschenaffen , Informationen umzugestalten, Ursache-Wirkungsketten zu erkennen und durch abstraktes Denken auf einen ähnlichen Sachverhalt zu transferieren. Dass auch Tiere hierzu in der Lage sind, war eine Sensation – ein weiteres vermeintliches Alleinstellungsmerkmal des Menschen war demontiert. Wolfgang Köhler Seine Entdeckung machte Köhler zum Mitbegründer des Kognitivismus. Der evolutionäre Vorteil des kognitiven Lernens ist offensichtlich: Einsichten müssen nicht – wie bei der Gartenschnecke – durch Versuch und Irrtum erworben werden, vielmehr lassen sich die mit Fehlgriffen verbundenen Risiken und Umwege von vornherein vermeiden. Neben Menschen und Menschenaffen sind unter anderem auch Raben und Delfine zu solch kognitiven Lernprozessen befähigt . Nachdem der Schwerpunkt der Verhaltensbiologie in der ersten Hälfte des 20. Jahrhunderts auf der Beschreibung lag, rückte in der zweiten Hälfte zusehends eine andere Frage in den Mittelpunkt der Forscher: Welche Strategien verfolgen Tiere eigentlich mit ihrem Verhalten, welche Muster sind aus Sicht der Evolution „rational“? Diese neue Perspektive führte zur Entstehung der beiden jüngsten Zweige der Evolutionsbiologie: Soziobiologie und Verhaltensökologie. Aggression als Strategie Die Soziobiologie , die der amerikanische Ameisenforscher Edward O. Wilson (einer der Verfechter der These vom „ egoistischen Gen “) in den 1970er Jahren begründet hatte, widmet ihre Aufmerksamkeit speziell dem Sozialverhalten von Gruppen. In der Tat ergeben sich die komplexesten Situationen nicht aus der Koexistenz verschiedener Spezies, sondern aus dem Zusammenleben von Artgenossen. Evolutionär gesehen bietet eine soziale Organisation viele Vorteile. Kollektives Jagen, gemeinsame Aufzucht der Jungen, gegenseitiger Schutz oder arbeitsteilige Bewachung des Territoriums erhöhen die evolutionäre Fitness der Gemeinschaft – Strategien, die Einzelgängern nicht offenstehen. Paare, Gruppen, Schwärme, Kolonien, Rotten, Meuten, Rudel oder Herden erzeugen aber auch vielschichtige Interessenskonflikte. Sie benötigen daher Regeln, die über Rollenzuweisungen und soziale Hierarchien den Zugang zu Nahrung und Sexualpartnern festlegen – mit der Erfindung von Gesellschaften wurde das Leben erst so richtig schwierig. In der Tat erscheint der Umgang, den Artgenossen miteinander pflegen, oftmals aggressiv, hinterhältig und grausam – etwa, wenn Vogeleltern schwache Küken aus dem Nest werfen oder Gottesanbeterinnen ihre Partner verspeisen. Doch Tiere können nicht mit Adjektiven aus dem Kanon menschlicher Moral vorstellungen etikettiert werden. Ihr „Handeln“ ist weder gut noch schlecht; es „ist“ einfach nur. Tierische Aggression lässt sich daher nur aus der Perspektive beurteilen, ob sie hilfreich ist, Interessenkonflikte, um knappe Ressourcen oder Fortpflanzungspartner sinnvoll zu regeln. Sieht sich ein Tier mit Aggression durch Artgenossen konfrontiert, bestehen seine beiden grundsätzlichen Handlungsoptionen darin, sich kämpferisch oder nachgebend zu verhalten. Um die jeweils beste Strategie zu klären, führte Wilsons englischer Kollege John Maynard Smith das spieltheoretische Konzept der „ evolutionär stabilen Strategie “ ein. (Auf die Spieltheorie wir hier näher eingegangen.) Im Kern besagt diese Konzept, „dass die beste Strategie für ein Individuum davon abhängt, was die Mehrheit der Bevölkerung tut.“ [iii] Eine Strategie ist dann stabil, wenn sie vom größten Teil der Gruppe praktiziert wird und sich kein Individuum durch alternatives Handeln besserstellen kann. Dieser etwas vertrackte Gedankengang lässt sich anhand unseres kleinen Tümpels illustrieren, den wir im letzten Biologie-Blog betrachtet haben. Nehmen wir an, dass die Angehörigen einer Froschpopulation untereinander um die Vorherrschaft in dem Biotop wetteifern. Wenn alle Individuen bereit sind, hierfür stets bis zum Tod zu kämpfen, ist dies eine evolutionär stabile Strategie. Es gibt allerdings nur eine Handlungsoption: Kampf. Sie beinhaltet die Chance auf Sieg und damit die Möglichkeit, die eigenen Gene weitergeben zu können. Wer verliert, wird getötet; wer aufgibt auch. Die entscheidende Frage ist, ob es einem Individuum gelingen kann, in dieser Gruppe mit einer alternativen Strategie erfolgreich zu sein. Diese Strategie könnte beispielsweise darin bestehen, zunächst zu kämpfen, im Fall einer sich abzeichnenden Niederlage aber den Kampf rechtzeitig zu beenden und zu fliehen. Dies wahrt einerseits die Chance auf den Sieg, im Fall einer Niederlage aber auch die Option, sich weiterhin fortpflanzen zu können. [iv] In einer Gemeinschaft todesmutiger Frösche können sich daher die Erbanlagen von mutierten Artgenossen, die genetisch bedingt vielleicht mit weniger Testosteron ausgestattet sind, leichter ausbreiten. Umgekehrt haben aggressive Frösche kaum eine Chance, eine Gruppe, die eine flexible Kampfstrategie fährt, genetisch zu unterwandern. Es ist daher wahrscheinlicher, in der Natur die anpassungsfähige Strategievariante anzutreffen. Damit lassen sich auch die verbreiteten „ Hackordnungen “ erklären, die in sozialen Gruppen Hierarchien und Rollenverteilungen festlegen. Die Ordnung ergibt sich aus einer Reihe von „Turnieren“ bei der sich die Gruppenmitglieder vom Alphatier bis hin zum Omegatier nach absteigend dominant-aggressivem Verhalten sortieren. Die Festlegung der Hierarchie erfolgt meist durch Drohgebärden oder ritualisierte Kämpfe mit geringer Verletzungsgefahr, die der Unterlegene mit Unterwerfungsgesten beendet. Aus Sicht der Evolution ist das eine sinnvolle Vorgehensweise: Die physisch stärksten Individuen erhalten die besten Fortpflanzungschancen. Gleichzeitig werden blutige Kämpfe, die die Gesamtfitness der Gruppe schwächen würden, vermieden. Es geht auch anders So wie es zwischen den Arten außerhalb der Nahrungskette auch kooperatives Verhalten gibt, sind Dominanz und Unterwerfung keineswegs die einzigen Möglichkeiten, das Zusammenleben innerhalb einer Spezies zu organisieren. Gegenseitige Unterstützung und altruistisches Verhalten können ebenso gut evolutionär stabile Strategien darstellen, mit denen sich statistische Überlebensboni erringen lassen. Besonders häufig sind sie unter Verwandten zu beobachten. Die Selbstlosigkeit ohne Gegenleistung, nimmt dabei mit der Nähe des Verwandtschaftsgrades zu. Mit der Hypothese des „egoistischen Gens“, der zufolge nicht Arten, sondern Gene miteinander ums Überleben kämpfen, lässt sich dieser Edelmut plausibel erklären: Er dient dem Fortbestand ähnlicher Erbanlagen – je enger die familiären Bande, desto mehr gemeinsame Gene teilen die Angehörigen miteinander. Die evolutionäre Kosten-Nutzen-Rechnung des Altruismus geht aus soziobiologischer Sicht immer dann auf, wenn mehr Gene des Verwandten-Pools überleben, als mit dem Opfertod des altruistischen Angehörigen zugrunde gehen. [v] Da beispielsweise Bienen mit ihren Schwestern näher verwandt sind als mit den eigenen Töchtern, erscheint es aus dieser Perspektive sinnvoll, auf Nachkommenschaft zu verzichten und die Königin selbstlos zu unterstützen. Dadurch erreichen mehr eigene Gene die nächste Generation. [vi] Die Strategien der Weibchen Auch Beziehungen zwischen Sexualpartnern lassen sich mit der nüchternen verhaltensökologischen Perspektive erklären. Sexuelle Vermehrung bietet einen großen evolutionären Vorteil, denn wo es Eltern gibt, werden die Gene der Nachfahren durchmischt und die Variabilität dadurch verbessert. Doch diesem Vorteil steht ein gewichtiger Nachteil gegenüber: Sexuelle Fortpflanzung ist auf die Akzeptanz eines andersgeschlechtlichen Partners angewiesen. Arten, die sich sexuell vermehren, haben daher zusätzlich zu den bereits vorhandenen Auslesefaktoren noch einen weiteren Stressor: Nur wer einen Partner gewinnen kann, kann auch seine Gene weitergeben. Die sexuelle Selektion setzt insbesondere die Männchen unter Zugzwang, denn bei den meisten Arten entscheiden die Weibchen, welchen Partner sie akzeptieren. Das hat seinen Grund. Männchen sind oftmals bereit, sich wahllos fortzupflanzen; ihr Keimzellenangebot ist praktisch unbegrenzt. Anders die Weibchen. Sie gehen in fast allen Fällen das größere „Investitionsrisiko“ ein, denn die Anzahl der Nachkommen, die sie gebären können, ist beschränkt. Beruht das Paarungsverhalten der Art auf Polygamie oder Promiskuität , dürfen sie zudem von den Männchen nicht allzu viel Unterstützung bei der Aufzucht erwarten. Weibchen haben somit das Problem, aus einem großen Angebot männlicher Anwärter den passendsten herausfinden zu müssen. In jenen Fällen, bei denen das Weibchen vom Partner außer Spermien nicht allzu viel erwarten darf, können sich die Auswahlkriterien nur an Äußerlichkeiten orientieren. Das wiederum zwingt die Männchen auf dem Paarungsmarkt ein Marketing in eigener Sache zu betreiben, das die Weibchen beim Bewerber „tüchtige Gene“ vermuten lässt. Die potentiellen Väter versuchen durch Körpergröße, ein auffälliges Fell oder Federkleid oder eine dominante Stellung in der Gruppenhierarchie ihre „Fitness“ zu demonstrieren. Da Männchen, die mutationsbedingt zufällig über derartige Attribute verfügen, von den Weibchen als Fortpflanzungspartner bevorzugt werden, entwickelte sich im Laufe der Evolution bei vielen Arten das Erscheinungsbild der beiden Geschlechter zunehmend auseinander. Das Ergebnis waren stolze Hähne, prahlerische Pfauen und imposante Gorillamännchen. Dieser Sexualdimorphismus funktioniert nach dem Prinzip: Wer auffällt, gewinnt! Die Männchen zahlen für diese Strategie oftmals einen hohen Preis, denn ihr Aussehen erregt nicht nur die Aufmerksamkeit des weiblichen Geschlechts, sondern auch die zahlreicher Fressfeinde. Die Weibchen hingegen bleiben unscheinbar – da das männliche Angebot die weibliche Nachfrage übersteigt, müssen die Weibchen sich bei der Partnerwahl nicht selbst in Szene setzen. Mandarinenten sind eines von vielen Beispielen für Arten mit einem deutlichen Sexualdimorphismus Ganz anders sieht es bei Arten aus, die gemeinsam Brutpflege betreiben. Bei ihnen gleichen sich die beiden Geschlechter in ihrem äußeren Erscheinungsbild. Durch die gemeinsame Aufgabe entsteht eine Bindung, die einen Dimorphismus überflüssig macht. Meist hält diese Bindung nur für die Dauer einer Fortpflanzungsperiode. In einigen wenigen Fällen aber, wie bei Höckerschwänen, Wölfen, Bibern und Walen, bedeutet sie eine lebenslange monogame Partnerschaft. Das äußere Erscheinungsbild der meisten Wirbeltierarten erlaubt also recht zuverlässige Schlüsse auf ihr Sexual- und Beziehungsverhalten. Bei Wölfen sind Weibchen und Männchen kaum zu unterscheiden Evolutionäres Erbe Kuckuckskinder, Zweckgemeinschaften, Altruismus, Imponiergehabe, Drohgebärden, promiske oder monogame Partnerschaften: Aus Sicht der Verhaltensökologen und Soziobiologen verbergen sich hinter all diesen Strategien evolutionäre Kosten-Nutzen-Rechnungen, für die sich Überlebensboni kalkulieren lassen und deren Gewinne in Form der Anzahl überlebender Junger ausgezahlt werden. [vii] Die Sprache, mit der Soziobiologen tierisches Verhalten beschreiben, könnte auch aus einen wirtschaftswissenschaftlichen Lehrbuch stammen. Viele dieser Strategien kommen uns merkwürdig bekannt vor – wir finden sie auch in praktisch jeder menschlichen Gesellschaft. Das ist nicht weiter verwunderlich, schließlich sind auch wir Produkte des Evolutionsprozesses. Viele unserer ererbten Verhaltensprogramme sind Millionen Jahre alt; sie wurden weitergegeben, weil sie sich bewährt haben. Die Soziobiologie erscheint somit auch als hilfreicher Ansatz zur Erklärung menschlichen Verhaltens. Allerdings ist sie keine hinreichende Erklärung. Denn als einzige Spezies auf unserem Planeten verfügen wir über ein entwickeltes Bewusstsein . Das bedeutet im Kern, dass wir – anders als Tiere – uns bewusst für oder gegen etwas entscheiden können. Mit naturwissenschaftlichem Determinismus allein ist menschlichem Verhalten also nicht beizukommen. Der zweite Teil des Buches wird sich daher ausschließlich mit den Regeln befassen, nach denen Menschen kommunizieren, handeln und entscheiden. Menschliches Verhalten ist ein Spannungsfeld, das größer kaum sein könnte: Hunderte von Millionen Jahre alte Gene liegen im Wettstreit mit evolutionär gesehen sehr jungen neuronalen Strukturen, die uns Geist einhauchen und Sprache und Kultur bescheren. Wie frei können wir angesichts des schweren evolutionären Marschgepäcks in unseren Entscheidungen überhaupt sein? Und sofern wir diese Freiheiten tatsächlich haben: Wie sollen wir mit ihnen umgehen? Mit diesem Beitrag endet die Artikelserie zum Themengebiet Biologie Hier geht es zur weiterführenden Artikelserie „Bewusstsein“ Den Blog entdecken Wer mehr wissen will: Dawkins, Richard (1996): „Das egoistische Gen“, Rowohlt. Gigerenzer, Gerd (2013): „Risiko“, C. Bertelsmann. Bildnachweise: Sexualdimorphismus beim Hirschkäfer Sexualdimorphismus bei Mandarinenten Wolfspaar [i] Der Begriff „Instinkt“, der in Lorenz‘ und Tinbergens Theorie eine zentrale Rolle spielt, fehlt in der folgenden Liste. Instinkt wurde in der Biologie nie eindeutig definiert, so dass er heute in wissenschaftlichem Zusammenhang meistens vermieden wird. [ii] Die theoretische Zuordnung bestimmter Verhaltensweisen ist oftmals umstritten. So gibt es beispielsweise unterschiedliche Auffassungen, ob die Angst vor Spinnen und Schlangen ein angeborener Reflex ist, oder durch Imitation der Schreckreaktion der Eltern tradiert wird. (Vgl. Max-Planck-Gesellschaft (2017) und Gigerenzer (2013) S. 108 ff.) [iii] Dawkins (1996) S.119. [iv] Der englische Dichter Samuel Butler (1612-1680) formulierte es einmal so: „Wer flieht, kann später wohl noch siegen, ein toter Mann bleibt ewig liegen.“ [v] Mit seinem Bruder teilt man nach den Gesetzen der meiotischen Teilung durchschnittlich die Hälfte, mit seinem Cousin ein Achtel seiner Gene. Der Evolutionsbiologe J.B.S Haldane antwortete daher einmal auf die Frage, ob er sein Leben geben würde, um seinen ertrinkenden Bruder zu retten: “Nein, aber ich würde es tun, um zwei Brüder oder acht Cousins zu retten”. Zitiert nach McElreath / Boyd (2007) S.82. [vi] Da Bienen-Männchen nicht sexuell gezeugt werden, tragen sie nur einen einfachen Chromosomensatz. Da er diesen bei der eigenen sexuellen Vermehrung vollständig an jedes Kind weitergibt, ist der Bienenvater mit seinen Töchtern zu 75% verwandt, die Mutter hingegen nur zu 25%. [vii] Vgl. Dawkins (1996) S. 329.
- Die Jagd nach der Weltformel
Fortsetzung von „Anatomie der Atome Teil 2: Von Helgoland nach Hiroshima“ Weltformel Einstein und die Quantenphysiker hatten sich an die äußersten Ränder vorgewagt und mit zwei neuen Theorien alte Gewissheiten erschüttert. Newtons Weltbild war nur im Bereich der menschlich-irdischen Maßstäbe hinreichend genau. Auf die Streckbank der Extreme gespannt aber zeigte sich, dass die mechanische Theorie im Kern falsch war. Zudem war offenbar geworden, dass die Welt in alle Richtungen begrenzt ist: Nichts im Universum kann schneller sein als das Licht ; keine Temperatur kann unter den absoluten Nullpunkt fallen; keine Wirkung die eines Quants unterschreiten. Naturgesetze sind nur innerhalb dieser Schranken gültig. Was sich jenseits davon befindet, bleibt den Möglichkeiten unserer Erkenntnis auf ewig verborgen. Wie sieht sie aus, die Weltformel? Einsteins Gleichung ist sicher nur eine Teil von ihr In das Kräftechaos, das innerhalb dieser Grenzen tobte, hatte man immerhin Ordnung gebracht. Sonnenschein, Auftrieb, Fliehkraft, Planetenbewegung , fallende Äpfel, Reibung, Blitze, Magnetismus, Radioaktivität, chemische Reaktionen , Schallwellen oder Muskelzucken sind Ausdrucksformen von lediglich vier Grundkräften . Die Natur hatte sie in einem stabilen System, dem Atom, vereint und jede von ihnen mit einem eigenen Charakter ausgestattet. Naturgesetze sind nichts weiter als mathematisch exakt beschreibbare Wechselspiele aus Energie und Materie, die dafür sorgen, dass die Welt so ist, wie sie ist. Zwei dieser Kräfte, Elektromagnetismus und Schwerkraft , sind für uns im Alltag erfahrbar; starke und schwache Kernkraft hingegen entfalten ihre alchemistischen Wirkungen allein im Verborgenen. Vier Grundkräfte regieren die Welt Zusammen beschrieben Relativitätstheorie und Quantenphysik wesentliche Teile der Welt. Spaltung und Fusion von Atomkernen hatten zudem gezeigt, dass die beiden großen modernen Theorien der Physik irgendwie miteinander verbunden sind. Was fehlte, war eine übergeordnete Theorie, die alle Aussagen Einsteins und der Quantenphysiker widerspruchslos miteinander vereinte. Gravitation · Unbegrenzte Reichweite, nicht abschirmbar · Wird im Quadrat des Abstands schwächer · Relative Stärke: 10 -38 · Bosonen: Gravitonen? Elektromagnetismus · Unbegrenzte Reichweite, abschirmbar · Wird im Quadrat des Abstands schwächer · Relative Stärke: 10 -2 · Bosonen: Photonen Starke Kernkraft · Reichweite kürzer als Atomkerndurchmesser · Nimmt mit dem Abstand zu · Relative Stärke: 1 · Bosonen: Gluonen Schwache Kernkraft · Reichweite kürzer als Atomkerndurchmesser · Kann Teilchen verwandeln · Relative Stärke: 10 -13 · Bosonen: W und Z-Bosonen Die vier Grundkräfte der Natur. Die relative Stärke besagt, dass die starke Kernkraft 100.000.000.000.000.000.000.000.000.000.000.000.000-mal stärker ist als die Gravitation Big Bang – Die Kirche ist von Anfang an dabei Mitte der 1920er Jahre hatte der amerikanische Astronom Edwin Hubble entdeckt, dass das Universum nicht nur aus der Milchstraße, sondern aus unzähligen weiteren Galaxien besteht, die sich alle mit rasender Geschwindigkeit voneinander entfernen. Die Welt war nicht, wie alle bisher geglaubt hatten, statisch, sie strebte vielmehr mit Macht auseinander. Ein katholischer Priester aus Belgien, Georges Lemaître , zog 1927 als Erster daraus einen logischen Schluss: Wenn das Universum regelrecht in alle Richtungen explodiert, kann man auf dem Zeitpfeil zurückgehen bis zu Anfang und Ausgangspunkt der Fluchtbewegung. Eine weitere Erkenntnisgrenze war deutlich geworden: Die Welt und ihre Gesetze waren erst in jenem ursprünglichen Augenblick entstanden. Was vor diesem Anfang war, bleibt für uns unerforschlich. Einstein und Lemaître im California Institute of Technology 1933 Die Urknalltheorie blieb zunächst umstritten. 1946 prognostizierten amerikanische Kosmologen, dass, sofern es den Urknall tatsächlich gegeben haben sollte, sich sein „Echo“ in Form einer kosmischen Hintergrundstrahlung aus Mikrowellen finden lassen müsse. Die katholische Kirche , die in der Vergangenheit neuen naturwissenschaftlichen Theorien zunächst oft skeptisch gegenübergestanden hatte, erkannte die Urknalltheorie bereits 1951 an, einem Zeitpunkt, zu dem die meisten Physiker noch nicht überzeugt waren. Aus Sicht der Religion ließ sich der Big Bang als singulärer, göttlicher Schöpfungsakt deuten. Der Durchbruch kam 1964, als zwei amerikanische Radiophysiker der Bell Laboratories beim Ausrichten ihrer neuen Antenne ein permanentes Störgeräusch auffingen, das sie zunächst mit Taubendreck auf ihrem Empfänger in Verbindung brachten. Bald aber stellte sich heraus, dass es sich hierbei um eben jenes vorhergesagte „Echo“ des fernen Urknalls handelte. Damit war die Big-Bang Theorie nun auch in wissenschaftlichen Kreisen etabliert: Die Geschichte des Universums war die einer sich stetig ausdehnenden Raumzeit , in der die Grundkräfte nach und nach in immer komplexere Wechselwirkungen miteinander traten. Schwingende Quarks Ebenfalls Mitte der 1960er Jahre zeichnete sich ab, dass man am anderen Ende des Betrachtungsspektrums immer noch nicht auf der untersten Ebene angekommen war. Für die unscharfen, schwingenden Strukturen, die sich zu Protonen und Neutronen kristallisieren, prägte der amerikanische Physiker Murray Gell-Mann den Begriff „ Quarks “, ein Wort, das er einem Roman von James Joyce entlehnt hatte. Wenige Jahre zuvor hatte man begonnen, Teilchenbeschleuniger zu bauen, gigantische Crashtestanlagen, die der Materie ihre letzten Geheimnisse entreißen sollten. In ihnen beschleunigen elektromagnetische Felder massebehaftete Partikel auf nahezu Lichtgeschwindigkeit . Damit wurde es möglich, die von Einstein beschriebene Umwandlung von Bewegungsenergie in Materie direkt zu beobachten. Die erzwungenen Zusammenstöße von Elementarteilchen führten zur Entdeckung eines ganzen „Zoos“ von neuen Partikeln, wie Myonen , Tauonen , Neutrinos und verschiedenen Quark-Typen. Die Kollisionssplitter, die nur für unvorstellbar kurze Zeitspannen von 10 -24 bis 10 -7 Sekunden existieren, helfen Ursprung und Aufbau der Materie besser zu verstehen. Jedem dieser Teilchen musste Sekundenbruchteile nach dem Urknall eine ganz bestimmte Rolle zugekommen sein. Um 1970 hatte man ein Modell entwickelt, das beschrieb, wie Quarks Nukleonen entstehen lassen. Protonen und Neutronen waren der Zusammenschluss dreier verschiedener Quarks, mit jeweils unterschiedlichen Ladungen, die man nach einer Analogie aus der Farbenlehre als blaue, grüne und rote Farbladungen bezeichnete. Zusammen sind die drei Ladungen nach außen hin neutral, so wie die drei uns bekannten Farben zusammen das neutrale „Weiß“ ergeben. Eine weitere, dem Drehimpuls ähnliche Eigenschaft der Quarks ist der Spin, dessen Drehrichtung bestimmt, ob es sich um Up-Quarks oder Down-Quarks handelt. Wirken zwei Up-Quarks und ein Down-Quark zusammen, entsteht ein Proton. Sind im Dreierbund zwei Down-Quarks und ein Up-Quark vereint, bilden sie ein Neutron. Die bei Zerfalls- und Fusionsprozessen auftretende Wandlung von Neutronen in Protonen wird durch die schwache Kernkraft bewirkt, die einen Down-Quark in einen Up-Quark verwandelt. Quarkstruktur von Protonen (links) und Neutronen (rechts) Das Standardmodell erklärt vieles – aber nicht alles Kurz darauf gelang der experimentelle Nachweis, dass schwache Kernkraft und Elektrizität bei extrem hohen Energien durch eine elektroschwache Wechselwirkung miteinander vereint sind. Das deutete auf einen gemeinsamen Ursprung der beiden Kräfte hin – ein erster Schritt zur Rekonstruktion jener rätselhaften hypothetischen Urkraft, die die Geburt des Universums eingeleitet haben musste. 1974 entdeckte man, dass bei noch extremeren Temperaturen auch die starke Wechselwirkung nicht mehr von der elektroschwachen zu unterscheiden war. Die drei Grundkräfte hatten einen gemeinsamen Ursprung. Die Genesis hatte in ihren ersten Augenblicken eine Welt hervorgebracht, die anderen, einfacheren Gesetzen gehorcht haben musste. Unser heutiges Physikverständnis beruht auf dem so genannten „ Standardmodell der Teilchenphysik “. Es ist das umfassendste Bild, das wir von den grundlegenden Zusammenhängen des Universums haben. Basierend auf den experimentell erworbenen Erkenntnissen der 1970er Jahre, beschreibt diese Theorie, wie starke, schwache und elektromagnetische Quantenkräfte zwischen den Elementarteilchen wechselwirken, ohne dabei Aussagen der speziellen Relativitätstheorie zu verletzen. [i] Demnach besteht die Welt aus den beiden großen Teilchenfamilien der Fermionen und Bosonen , benannt nach Enrico Fermi und dem indischen Physiker Satyendranath Bose . Die wichtigsten Spezies des Teilchenzoos Fermionen sind die Bausteine der Materie. Sie umfassen die Up- und Down-Quarks, die Protonen und Neutronen bilden, sowie die Leptonen, extrem massearme Teilchen, deren bekanntester Vertreter das Elektron ist. Leptonen stellen deshalb eine eigene Fermionen-Kategorie dar, weil sie sich der Wirkung der starken Kernkraft entziehen, während Quarks der Wirkung aller vier Grundkräfte unterliegen. Bosonen sind die Überträger von Kräften und Massen. Die masselosen Eichbosonen umfassen jene Teilchen, die der Materie die vier Grundkräfte vermitteln. Dazu gehören die Photonen, die die elektromagnetische Kraft zwischen Elektronen und Protonen übertragen, die Gluonen, die die Quarks zusammenschweißen, sowie die W- und Z-Bosonen, als Vermittler der schwachen Kernkraft. Die Vermutung liegt nahe, dass es auch ein Boson für die Schwerkraft geben muss, das Graviton. Doch bis heute bleibt der Schwerkraftvermittler hypothetisch – kein Teilchenbeschleuniger konnte seiner bisher habhaft werden. Die Entwicklungsgeschichte der Physik Bereits 1964 formulierte der britische Physiker Peter Higgs die Hypothese, dass es neben den Eichbosonen auch ein Boson geben müsse, das die Masse vermittelt. Auch dieses Teilchen entzog sich jahrzehntelang allen Zugriffsversuchen. 2012 gelang es schließlich der in der Schweiz beheimateten europäischen Kernforschungsorganisation CERN, das Higgs-Boson nachzuweisen. Simulation des hypothetischen Zerfalls eines Higgs-Teilchens Dies war der bis heute letzte große Erfolg des Standardmodells. Sein entscheidender Makel bleibt, dass die Gravitation , jene Grundkraft, die Raum und Zeit verbiegt und den Kosmos strukturiert, in ihm keinen Platz findet. Wir wissen nicht, wie Raumzeit und Schwerkraft in das Gesamtsystem der Physik eingebunden sind. Seit einem halben Jahrhundert suchen tausende Physiker auf der ganzen Welt nach einer Quantentheorie der Gravitation . Gelänge es, das Standardmodell um die vierte Grundkraft zu erweitern, hielte man die „Weltformel“ in der Hand, eine einheitliche mathematische Beschreibung von Materie und sämtlichen Kräften, die die Erkenntnisse der Elementarteilchenphysik mit denen der allgemeinen Relativitätstheorie widerspruchsfrei vereinen würde. Es gibt noch viele Rätsel Diese umfassende Theorie müsste in der Lage sein, aus der Dynamik subatomarer Teilchen heraus alle bekannten kosmologischen Phänomene erklären zu können. Eines dieser Phänomene ist der merkwürdige Umstand, dass es eigentlich sehr viel mehr Materie im Universum geben müsste, als wir beobachten können. Die für uns sichtbaren Sterne umkreisen das Zentrum ihrer Galaxien schneller, als wir aufgrund der uns bekannten Gravitationsträger erwarten würden. Etwa 85% aller Materie, die es demnach im Universum geben müsste, interagiert offenbar nicht mit elektromagnetischen Wellen, das heißt, sie ist unsichtbar und wird daher als „Dunkle Materie“ bezeichnet. Wir haben heute weder eine Vorstellung, ob es diese riesigen Stoffmengen überhaupt gibt, noch wie sie sich aufspüren ließen. Genauso wenig können wir das Wesen der Naturkonstanten erklären. Warum sind Lichtgeschwindigkeit, Gravitationskonstante oder das Plancksche Wirkungsquantum jeweils so und nicht anders definiert? Warum sind sie unveränderlich und warum lassen sie sich durch keine Berechnung herleiten? Wieso haben wir den Eindruck, dass diese Konstanten auf eine ganz besondere Weise aufeinander abgestimmt zu sein scheinen? Würde etwa die Gravitationskonstante von 6,67430… 10 -11 auch nur in der sechszigsten Nachkommastelle nach oben oder unten abweichen, wäre das Universum eine Sekunde nach dem Urknall entweder so rasch expandiert, dass sich keine Sterne hätten bilden können, oder so langsam, dass es wieder in sich zusammengefallen wäre. Ähnliche Feinabstimmungen zeigen sich auch bei anderen Konstanten. Sie ermöglichen die lange Brenndauer von Sternen oder die Synthese von Kohlenstoff , beides zwingende Voraussetzung für die Entstehung von Leben. Liegt dem Kosmos also ein vor dem Schöpfungsakt festgelegtes geniales Design zugrunde? Diese Frage ist natürlich umstritten. Ein reiner Zufall wäre möglich, ist aber extrem unwahrscheinlich. Denkbar wäre, dass ein Universum auch mit anders abgestimmten Naturkonstanten existieren könnte und vielleicht ebenfalls Leben hervorgebracht hätte, vielleicht auf der Basis von Silizium. Ein weiterer Erklärungsansatz, das anthropische Prinzip, nimmt eine ganz andere Perspektive ein: Demnach spielen die scheinbaren statistischen Abhängigkeiten letztlich keine Rolle; wäre die Konstellation eine andere gewesen, gäbe es schlichtweg niemanden, der über das Weltall und das Leben nachdenken könnte. Und auch eine planvolle göttliche Schöpfung bleibt nach wie vor eine mögliche Option. Wäre eine Weltformel, die die rätselhafte Feinabstimmung der Naturgesetze und alle weiteren kosmologischen Rätsel erklären würde, auch für Laien verständlich? Wahrscheinlich nicht. Unsere Vorstellungskraft könnte ihre Aussagen wohl kaum nachvollziehen, eine Beschreibung wäre allein durch abstrakte, komplizierte Mathematik möglich. Die moderne Physik ist weit entfernt von der Ästhetik, der Einfachheit und der Poesie der Newtonschen Bewegungsgesetze oder der Planckschen und Einsteinschen Energieformeln. Dennoch ist die Geschichte der Physik eine überaus erfolgreiche. Neugierige Menschen haben den wilden Strauch bizarrer Naturphänomene auf vier grundlegende Triebe zurückgeschnitten. Die Wechselwirkungen zwischen Energie und Materie, die diese vier Grundkräfte beschreiben, bedingen letztlich auch die Möglichkeit, dass Atome über den Sinn von Atomen nachdenken können. Doch hier endet die Zuständigkeit der Physik. Naturgesetze können nur darstellen, „wie“ etwas ist. „Warum“ Energie und Materie existieren und wer oder was die Spielregeln für ihre Wechselwirkungen so festgelegt hat, dass daraus ein Bewusstsein entstehen konnte, sind Fragen an Religion und Philosophie . Der Weg, der von toter Materie zu fragendem Bewusstsein führte, war lang. Die Atome mussten sich dazu auf eine außerordentlich komplexe Art und Weise miteinander verbinden. Grundlage dieser Verbindungen ist die elektromagnetische Kraft. Die spezielle Physik, die sich mit den Spielregeln der Aggregation der stofflichen Welt befasst, bezeichnen wir als Chemie . Mit diesem Beitrag endet die Artikelserie zum Themenbereich Physik Den Blog entdecken Wer mehr wissen will: Spektrum der Wissenschaft (03 / 2024): Spektrum Kompakt: Die Suche nach der Weltformel Bildnachweise: Luftbild des CERN Higgs-Teilchen-Simulation Anmerkungen: [i] Die drei dem Standardmodell zugrundeliegenden Quantenfeldtheorien sind: die Quantenelektrodynamik, die den Elektromagnetismus beschreibt; die schwache Wechselwirkung, die die schwache Kernkraft, sowie die Quantenchromdynamik, die die starke Kernkraft erklärt.
- Der verlässliche Zufall: die Entdeckungsgeschichte der Statistik
Fortsetzung von "Newton und Leibniz reisen in die Unendlichkeit" Antike Zufälle Bis in die Antike hinein war alles, was geschah der Wille von Dämonen, Geistern oder Göttern – einen Zufall gab es nicht. Die Zukunft war vorherbestimmt; Seher wie die römischen Auguren und Haruspices konnten künftige Ereignisse aus dem Flug der Vögel oder aus der Leber von Opfertieren lesen. Erneut waren es die Griechen, die sich als Erste etwas differenzierter mit dem Phänomen Zufall auseinandersetzten. Ein römischer Augur beobachtet den Flug der Vögel Bereits lange vor Laplace war Demokrit davon überzeugt, dass das, was wir als Zufall wahrnehmen, lediglich menschliches Unvermögen sei, die wahre Ordnung der Welt erkennen zu können. Aristoteles unterschied drei Arten von Ereignissen: sichere, wahrscheinliche und unerkennbare. Am Ende der Antike sorgte jedoch vor allem die Prädestinationslehre des Kirchenvaters Augustinus dafür, dass es für solche Gedanken fortan kaum noch Raum gab: Der allwissende Gott kennt den Lauf der Dinge von Anfang an; da er selbst weiß, wie sich jeder einzelne Mensch auf seinem Lebensweg zwischen Gut und Böse entscheiden wird, ist auch das Seelenheil bei der Geburt bereits unweigerlich vorbestimmt. Da der frühneuzeitliche Protestantismus diesen Gedanken übernahm, war der Zufall für die nächsten 12 Jahrhunderte in der westlichen Welt wieder aus dem Spiel. Aufmerksame Franzosen Das änderte sich erst, als um das Jahr 1650 einige wohlhabende Herren in einem Pariser Wirtshaus zum Karten- und Würfelspiel zusammenkamen. Der Einsatz sollte an denjenigen gehen, der die meisten einer vorher festgelegten Anzahl von Runden für sich entschied. Es wurde spät, der Wein machte die Köpfe schwer und so beschloss die Gesellschaft den Abend zu beenden noch bevor die vereinbarte Zahl Partien gespielt war. Gab es eine faire Methode, den Einsatz des abgebrochenen Spiels unter den Spielern aufzuteilen? Die Herren wandten sich mit dieser Frage an Blaise Pascal (1623-1662), den führenden Universalgelehrten Frankreichs. Der anschließende Briefwechsel, den Pascal mit Pierre de Fermat über die Gewinnteilungsproblematik führte, gilt heute als die Geburtsstunde der Wahrscheinlichkeitsrechnung. Hendrick Ter Brugghen: Die Spieler 1623 Dem neuen Sujet widmeten sich zunächst vor allem Franzosen. Neben Pascal und Fermat zählen Abraham de Moivre, Marie Jean Condorcet, Siméon Denis Poisson, Pierre-Simon Laplace sowie Jakob und Daniel Bernoulli – letztere Sprösslinge einer Basler Gelehrtenfamilie – zu den Pionieren der Zufallsmathematik. Die von ihnen eingeleitete „ probabilistische Revolution “ hat unseren Blick auf die Welt grundlegend verändert. Der verwegene Anspruch der Zufallsforscher war es, in den gottgewollten Ereignissen und Schicksalen Gesetzmäßigkeiten zu suchen – ein Anliegen, das manchen Zeitgenossen noch immer der Blasphemie gleichkam. Doch mit der Zeit setzte sich die Erkenntnis durch, dass, wie Goethe es später formulierte, „das Gewebe dieser Welt [.] aus Notwendigkeit und Zufall gebildet“ ist. [i] Heute wissen wir, dass der Zufall eine Grundkonstante der Natur ist. Er begegnet uns, wie wir noch sehen werden, unter anderem in der Thermodynamik , der Quantenphysik , der Evolutionstheorie und der Genetik . Blaise Pascal Kombinatorik Die Erforscher des Zufalls standen vor dem gleichen Problem wie Newton und Leibniz : In der mathematischen Werkzeugkiste fand sich kein passendes Instrument. Erste grundlegende Einsichten ließen sich aus der Analyse gängiger Glücksspiele wie Karten, Würfeln, Münzwurf oder Lotterie gewinnen. Die daraus entstandene mathematische Grundlagendisziplin bezeichnen wir heute als Kombinatorik . Der Kombinatorik liegen eine Anzahl von einfachen Spielregeln zugrunde: Für „ Permutationen “, die Anordnung von Objekten in verschiedenen Reihenfolgen, ergibt sich die Anzahl der Möglichkeiten aus der Fakultät : Um etwa vier verschiedenfarbige Kugeln unterschiedlich aufzureihen, gibt es 4! = 1 * 2 3 * 4 = 24 Möglichkeiten. Bei der „ Kombination “ wird eine Teilmenge entnommen, beispielsweise zwei der vier Kugeln. Sofern die entnommenen Kugeln nicht wieder zurückgelegt werden dürfen, gibt es sechs mögliche Ergebnisse; mit Zurücklegen erhöht sich die Anzahl auf zehn, denn jede der vier Farben kann nun ein weiteres Mal gezogen werden. Bei der „ Variation “ wird zusätzlich auch noch die Reihenfolge der gezogenen Objekte berücksichtigt. In diesem Fall gibt es für „zwei-aus-vier“ zwölf Möglichkeiten ohne Zurücklegen und sechzehn mit Zurücklegen. Mit diesen Grundlagen gewappnet, konnten die Zufallsforscher nun erstmals Wahrscheinlichkeiten für den Eintritt bestimmter Ereignisse berechnen. Wie man ganz einfach im Lotto gewinnt… Ein einfacher Zufallsgenerator ist der Würfel . Da bei ihm die Eintrittswahrscheinlichkeit von einem einzelnen Wurf unabhängig ist, beträgt die Chance für eine bestimmte Augenzahl im Ereignisraum des Würfels ein Sechstel. Die Wahrscheinlichkeit, eine Augenzahl kleiner vier zu erhalten, liegt bei 50% (drei Sechstel). Und in jedem 36. Fall (ein Sechstel mal ein Sechstel) haben wir die Aussicht, zweimal hintereinander dieselbe Zahl zu werfen. Bei einer Lotterie, bei der 6 aus 49 Kugeln gezogen werden – hier handelt es sich um das Szenario „Kombination ohne Zurücklegen“ – ist es bereits wesentlich komplizierter. Die Wahrscheinlichkeiten verändern sich mit jeder neuen Ziehung, da die gezogenen Kugeln aus dem Ereignisraum ausscheiden. Die Anzahl der Kombinationsmöglichkeiten beträgt daher: Die Wahrscheinlichkeit für „sechs Richtige“ liegt also bei knapp 1 zu 14 Millionen. Rein statistisch müsste man etwa 270.000 Jahre lang jede Woche spielen, um einmal zu gewinnen. Wohl gemerkt: rein statistisch. Denn eine Gewinngarantie gibt es selbst dann nicht. Wahrscheinlichkeiten lassen sich zwar exakt berechnen, das heißt aber nicht, dass sie auch eintreten müssen. Das Gesetz der großen Zahlen Kehren wir noch einmal zu dem simplen Würfelspiel zurück. Die Gesetze der Stochastik – so die offizielle Bezeichnung der Zufallsmathematik – lassen sich auch recht einfach experimentell überprüfen. Bei 600 Würfen wird die absolute Häufigkeit jedes einzelnen Augenwerts wahrscheinlich in der Nähe von 100 liegen. Bei 1200 Würfen werden sie sich voraussichtlich der zu erwartenden Verteilung weiter angenähert haben. Jeder folgende Wurf erhöht die Wahrscheinlichkeit einer weiteren Angleichung. Damit war ein fundamentales Muster gefunden: das Gesetz der großen Zahlen. Als Erster formulierte es Jakob Bernoulli: Die Genauigkeit empirischer Untersuchungen wächst mit der Anzahl der Versuche oder allgemeiner formuliert: Das Wahrscheinlichere verdrängt mit der Zeit das Unwahrscheinlichere. Fand das "Gesetz der großen Zahlen": Jakob Bernoulli Das Gesetz der großen Zahlen unterliegt allerdings einer beschränkten Haftung. Grundsätzlich ist es nicht auszuschließen, dass eine andere als die erwartete Gleichverteilung der Würfelaugen entsteht. Nichts ist garantiert, nichts muss nach den Gesetzen der Wahrscheinlichkeitsrechnung geschehen, denn die Gesetze beeinflussen keinesfalls den Zufall selbst. Trotzdem ziehen viele Menschen an dieser Stelle intuitiv einen falschen Schluss. Wenn bei 600 Würfen die Augenzahl „Zwei“ erst 50-mal statt den erwarteten 100-mal eingetreten ist, heißt das nicht, dass die „Zwei“ künftig häufiger auftreten muss. Viele Roulettespieler erwarten, dass nachdem die Kugel 10-mal hintereinander auf „Rot“ gefallen ist, nun endlich „Schwarz“ an der Reihe ist. Aber dem ist nicht so. Würfel und Kugeln haben kein Gedächtnis; der Roulettekugel ist es völlig gleich, ob sie zuletzt auf Rot oder Schwarz lag, das nächste Ereignis hängt nicht davon ab, was zuvor geschah. Ebenso wenig sagen Wahrscheinlichkeiten etwas über Einzelschicksale. Die Chance, Opfer einer Haifischattacke zu werden, lässt sich zwar berechnen, aber niemand ist zu 0,000715 % Opfer des Raubfischs, sondern immer nur zu 100 % oder 0%. Das Gesetz der großen Zahlen, so trivial es uns heute auch erscheinen mag, gehört zu den großen Entdeckungen der Menschheit. Die frühen Stochastiker hatten erkannt, dass sich mit dem blinden Zufall rechnen lässt, wenn sich das zugrundeliegende Ereignis nur oft genug wiederholt. Die einzelnen Launen der Natur bleiben unvorhersehbar, in der Summe aber folgen sie Regeln, die sich mathematisch beschreiben lassen. Vier Pfarrer denken über Leben und Tod nach Die praktische Bedeutung dieser Erkenntnis war kaum zu überschätzen: Da die Häufung vieler Ereignisse eine hinreichende Sicherheit erzeugte, konnten Risikogemeinschaften wie Versicherungen nun erstmals auf eine statistische Grundlage gestellt werden. Man begann eifrig Daten über das Wetter, über Schiffskatastrophen und Ernteerträge zusammenzutragen. Von besonderem Interesse waren Leben und Tod. Die Autoritäten hierfür waren Pfarrer, die die Kirchenbücher führten und damit die grundlegenden statistischen Daten selbst erzeugten. Der Breslauer Pastor Caspar Neumann erstellte um 1690 als Erster für seine Heimatstadt eine Geburts- und Sterbestatistik . Johann Peter Süßmilch , ein Berliner Pfarrer, baute Neumanns Werk systematisch aus und erkannte als erster, dass 100 weiblichen Geburten durchschnittlich 105 männliche gegenüberstanden. Titelblatt von Süßmilchs Publikation Zwei schottische Amtskollegen, Robert Wallace und Alexander Webster , rechneten Mitte des 18. Jahrhunderts das Sterberisiko für ihre eigene Berufsgruppe aus und analysierten, wie viele Witwen und Waisen demnach zu versorgen waren. So konnten die Prämien für einen Anlagefonds bestimmt werden, mit dem sich die Hinterbliebenen Pfarrerswitwen absichern ließen. [ii] Nach und nach entstanden weitere Solidargemeinschaften, mit denen sich Reeder gegen Schiffsunglücke und Hausbesitzer gegen Feuer schützten. Die Versicherten waren nun vor den finanziellen Folgen großer Schicksalsschläge gefeit und konnten fortan freier agieren. Als Deutschland 1889 als erstes Land der Welt eine gesetzliche Rentenversicherung einführte, war die Stochastik auch in der Politik angekommen. Was dürfen wir eigentlich erwarten? Um das Jahr 1800 waren die Mathematiker der nächsten wichtigen Erkenntnis auf der Spur. Es begann damit, dass Laplace sich die Frage stellte, welcher Wert eigentlich im Durchschnitt bei einem Zufallsereignis zu erwarten sei. Dieser „ Erwartungswert “ beträgt beim Würfeln beispielsweise 3,5 und ist das arithmetische Mittel, das bei unendlicher Wiederholung des Experiments entsteht: Zählt man die Augen von 10.000 Würfen zusammen und teilt sie durch 10.000, wird der Wert mit großer Wahrscheinlichkeit in der Nähe von 3,5 liegen. Im langfristigen Durchschnitt würfelt man also „dreieinhalb“, obwohl der Würfel selbst diese Augenzahl gar nicht kennt. Wirft man nun beispielsweise gleichzeitig drei Würfel, können nach den Gesetzen der Kombinatorik 16 verschiedene Mittelwerte entstehen. Erzielt man drei Sechser, ist der Mittelwert sechs; bei drei Einsern beträgt er eins. Dazwischen gibt es 14 weitere mögliche Mittelwerte: 5,666..., 5,333..., 5, 4,666..., 4,333..., 4, 4,666... usw. Betrachtet man nun die absolute Häufigkeitsverteilung, zeigt sich, dass bestimmte Mittelwerte öfter erzielt werden als andere: Mit zunehmender Anzahl Würfe steigt die Wahrscheinlichkeit, dass die Mittelwerte umso häufiger vorkommen, je näher sie am Erwartungswert von 3,5 liegen. Mit der größten Wahrscheinlichkeit werden also die Durchschnittswerte 3,666... und 3,333... erzielt. Entwicklung der Verteilmuster bei steigender Stichprobengröße und steigender Anzahl Experimente Je mehr Würfel gleichzeitig geworfen werden und je größer die Anzahl der Versuche, umso mehr nähert sich die Verteilung der Mittelwerte einer symmetrischen, glockenförmigen Figur: Normalverteilungskurve Dieses Gebilde kannten die Stochastiker bereits. Der nach England geflohene französische Hugenotte Abraham de Moivre hatte es schon um 1730 beschrieben. Heute bezeichnen wir dieses Muster als Normalverteilungs-, Glocken- oder auch Gaußkurve . (Gauß fand als Erster die exakte Funktion, die diese Verteilform beschreibt.) Das der Normalverteilungskurve zugrunde liegende Gesetz ist der Zentrale Grenzwertsatz , den Laplace erstmalig bewies. Er besagt, dass die Stichprobenmittelwerte gegen eine Normalverteilung streben, wenn Umfang und Anzahl der Stichproben gegen unendlich gehen. Die wichtigste Verteilung in der Natur Die Normalverteilung ist die wohl wichtigste Verteilform der Natur. Körpergröße, Intelligenzquotient, Blutdruck, Niederschlagsmengen, aber auch Messfehler, Glücksgefühle und die Rentabilitäten von Investitionsentscheidungen sind normalverteilt. Die symmetrische Form bedeutet, dass positive Abweichungen vom Erwartungswert exakt gleich häufig auftreten wie negative. Die Kurve ist auch Ausdruck dessen, was wir üblicherweise als „normal“ empfinden: Das, was auf vieles zutrifft, übersehen wir gewöhnlich; unsere Aufmerksamkeit erregt nur, was davon abweicht. Wie kommt es zu der verblüffenden Vorherrschaft der Normalverteilung in der Natur? Warum gibt es nicht mehr große Menschen als kleine? Das Geheimnis der Glockenform erschließt sich uns, anhand des Galtonbretts , eine Erfindung des Statistik-Pioniers (und Cousins von Charles Darwin) Francis Galton . Dabei handelt es sich um eine Konstruktion, bei der von oben Bälle auf runde Hölzchen fallen, die symmetrisch in Form eines Dreiecks angeordnet sind. Das Galtonbrett Die Bälle springen, wenn sie auf die Rundhölzer treffen, mal nach links, mal nach rechts, um dann unten in Silos zu fallen. Mit der Zeit bildet sich in den Silos das Normalverteilungsmuster. So wie Lottokugeln oder ein einzelner Würfel Zufallsmaschinen für Gleichverteilungen sind, ist das Galtonbrett eine Zufallsmaschine für die Normalverteilung. Der Zufall entscheidet in jeder Reihe des Dreiecks mit einer Wahrscheinlichkeit von 50:50 darüber, ob der Ball nach links oder rechts springt. Normalverteilungen entstehen also immer dann, wenn viele kleine, voneinander unabhängige Zufälle ein Ergebnis bestimmen – eine Bedingung, die ganz offenbar in der Natur häufig vorliegt. Mittelwerte beschreiben Normalverteilungen jedoch noch nicht vollständig. Wenn erwachsene Menschen im Mittel 1,70 m groß sind, ist es ein Unterschied, ob die eine Hälfte der Bevölkerung 1,69 m misst und die andere 1,71 m oder 1,50 m und 1,90 m. Die Größe, die angibt, wie weit ein einzelner Messwert im Durchschnitt vom Durchschnitt abweicht, ist die Standardabweichung. [iii] Darf man Stichproben trauen? Wenn wir die durchschnittliche Körpergröße der Menschen in einer Großstadt in Erfahrung bringen möchten, werden wir meist nicht alle Einwohner einzeln vermessen, sondern uns aus praktischen Gründen auf eine zufällige Stichprobe von vielleicht 100 oder 500 Personen beschränken. Das bedeutet aber auch, dass wir den wahren Wert bestenfalls abschätzen können, denn in unserer Stichprobe könnten sich zufällig besonders viele große oder besonders viele kleine Menschen finden. Inwieweit darf man Stichproben also überhaupt vertrauen? Um diese Frage zu beantworten, entwickelte der polnische Mathematiker Jerzy Neyman in den 1930er Jahren ein Verfahren, bei dem er tief in die mathematische Werkzeugkiste griff. Er bediente sich bei so ziemlich allem, was die Mathematik zu bieten hat: Arithmetik , Algebra , Geometrie , Analysis und Stochastik. Francis Galton Neymans Ansatz, Wahrheit und Wahrscheinlichkeit zu verbinden, beruht auf der Berechnung von Konfidenzintervallen . Seine Methode begegnet uns immer dann, wenn beispielsweise von 95%igen Wahrscheinlichkeiten die Rede ist. Nehmen wir an, dass wir für 100 zufällig ausgewählten Personen eine mittlere Körpergröße von 1,68 m ermitteln, während der tatsächliche Durchschnitt in unserer Stadt 1,70 m beträgt. Nehmen wir weiterhin an, dass die Standardabweichung vom Stichprobenmittel 3 cm beträgt. Das heißt, dass die einzelnen Stichprobenwerte im Durchschnitt 3 cm vom den 1,68 m abweichen. Damit ist es nun möglich eine Aussage darüber zu treffen, mit welcher Wahrscheinlichkeit der (uns unbekannte) wahre Wert von 1,70 m innerhalb einer bestimmten Bandbreite liegt. Das erste Band ist üblicherweise durch die Grenzen der einfachen Standardabweichung „σ“ von +/- 3 cm vom Stichproben-Mittelwert definiert, also der Bereich von 1,65 m bis 1,71 m. Mit Hilfe der Integralrechnung lässt sich ermitteln, dass die durch diese Grenzen definierte Fläche, ungefähr 68 % der Gesamtfläche unter der Normalverteilungskurve beträgt. Der Mittelwert +/- zweifache Standardabweichung deckt bereits gut 95 % der Fläche ab. Dieser Zusammenhang gilt immer, ganz gleich, wie breit die Gaußkurve ist oder wie steil sie verläuft. Mit einer Wahrscheinlichkeit von 68 % liegt also der tatsächliche Mittelwert in dem Bereich von 1,65 m bis 1,71 m und mit 95 %iger Wahrscheinlichkeit zwischen 1,62 m und 1,74 m. Prozentuale Anteile der Integrale für ein-, zwei- und dreifache Standardabweichung Das Vertrauen in die Konfidenzintervalle ist heute Grundlage sehr weitreichender Entscheidungen, wie etwa die Zulassung neuer Medikamente oder die Bewertung von Indizien in Strafprozessen. Hier trifft Mathematik auf die ethische Frage, wieviel Rest-Zufall man sich leisten will oder darf: Denn von 20 klinischen Studien, die einem Wirkstoff mit „95 %iger Wahrscheinlichkeit den gewünschten Effekt zuschreiben, liegt eine falsch. Wie uns Statistiken aufs Glatteis führen Hier kommt ein weiterer Aspekt ins Spiel. Subjektiv empfinden wir 95 % als sehr sicher, während die Aussage 1:20 für uns eher beunruhigend klingt. Beide Perspektiven sind jedoch mathematisch äquivalent. Ähnlich bei der Frage, ob wir uns lieber von einem Chirurgen operieren lassen möchten, dessen Überlebensrate 90 % beträgt, oder von seinem Kollegen, der eine Sterberate von 10 % aufweist. Die meisten Menschen ziehen den ersten Arzt vor, obwohl auch dies mathematisch nicht begründet werden kann. Unsere Fähigkeit, statistische Risiken einzuschätzen, hat offenbar auch etwas damit zu tun, wie die Information präsentiert wird. Der mit dem Nobelpreis ausgezeichnete israelisch-amerikanische Psychologe Daniel Kahneman hat solche Phänomene untersucht und anhand zahlreicher Beispiele aufgezeigt, dass es um unser statistisches Denken nicht besonders gut bestellt ist. Wir neigen allgemein dazu, aus Zahlen falsche Schlüsse zu ziehen. [iv] So, wie uns das Gespür für die Bedeutung von Exponentialfunktionen fehlt, liegen wir auch meist bei der Einschätzung von Risiken daneben. Es widerspricht unserer Eingebung, dass die Zahlen eins bis sechs jemals im Lotto gezogen werden könnten, dabei ist die Wahrscheinlichkeit hierfür genauso groß, wie für jede beliebige andere Zahlenkombination. [v] Charles Darwins unorthodoxer Cousin Francis Galton war eine vielseitige Persönlichkeit. Neben geographischen Forschungsreisen nach Afrika beschäftigte er sich unter anderem mit Meteorologie, Psychologie sowie Intelligenzforschung; zudem gilt er als einer der Begründer der Eugenik. Als Statistiker und Mathematiker ist Galton insbesondere bekannt für seine Pionierarbeit bei der Untersuchung mehrdimensionaler Zusammenhänge. Seine Konzepte von Korrelation und Regression sind im heutigen Wissenschaftsbetrieb allgegenwärtig . Korrelationen untersuchen, ob zwischen zwei oder mehr Größen ein Zusammenhang besteht und wie sich dieser mithilfe eines Koeffizienten messen lässt. Die Regressionsanalyse ist der Versuch, diesen Zusammenhang so gut wie möglich in Form einer mathematischen Funktion zu beschreiben – etwa mithilfe der Methode der kleinsten Quadrate , die von dem Franzosen Adrien-Marie Legendre und Gauß unabhängig voneinander in den ersten Jahren des 19. Jahrhunderts entwickelt wurde. Die Methode erlaubt es, einen Funktionsgraphen zu konstruieren, der den Abstand zu allen beobachteten Messwerten minimiert. Der etwas irreführende Begriff Regressionsanalyse geht unmittelbar auf Galton zurück. Bei einem Experiment hatte er festgestellt, dass die Nachfahren großer Erbsen eher zu einer durchschnittlichen Größe tendieren. Obwohl diese „Regression zur Mitte“ eigentlich nur den Zusammenhang zwischen der Größe zweier Hülsenfrucht-Generationen beschrieb, wurde das biologische Phänomen namensgebend für die bei seiner Entdeckung angewandte statistische Methode. Korrelation und Kausalität Die Anzahl möglicher Zusammenhänge, die sich so untersuchen lassen, ist schier unendlich. Regressionsanalysen haben beispielsweise gezeigt, dass das Verhältnis von Länge zu Breite steinzeitlicher Faustkeile aus Kenia stark mit den Proportionen des goldenen Schnitts korreliert. [vi] Doch was will uns das sagen? Ein Zusammenhang allein ist noch keine Erkenntnis und Korrelation ist nicht automatisch Kausalität. Die Definition des goldenen Schnitts war den Menschen der Altsteinzeit sicherlich nicht bekannt. Ahnten sie unbewusst eine Ästhetik nach, die sie in der Natur beobachtet hatten? Gibt es eine Verbindung zu einem natürlichen Wachstumsprozess? Hat es etwas mit der Anatomie der menschlichen Hand zu tun? Oder ist das alles einfach nur ein Zufall? Jede dieser Erklärungen ist denkbar. Regressionsgerade für die Proportionen steinzeitlicher Faustkeile Seit der Jahrtausendwende ist auch die Informationstechnologie solch verschleierten Zusammenhängen auf der Spur. Sie erlaubt es mittlerweile unvorstellbar große unstrukturierte Datenmengen in kurzer Zeit zu durchleuchten. Wie wir wissen spielen seit wenigen Jahren hier die selbstlernenden Algorithmen der künstlichen Intelligenz eine immer größere Rolle, eine Entwicklung, deren Konsequenzen kaum abzusehen ist (ich möchte mich in einem der kommenden Blogs, diesem Thema ausführlich widmen, ein Kapitel, das nicht in meinem Buch erschienen ist) . Das Gold, das in diesen Datenminen geschürft wird, sind verborgene Zusammenhänge, die Vertriebsstrategen, Verwaltungen, Versicherungen, Genetikern und Geheimdiensten wertvolle Einsichten offenbaren. Polizisten können heute mit 95%iger Wahrscheinlichkeit voraussagen, in welchem Stadtviertel der nächste Einbruch verübt wird und Kreditkartenunternehmen prognostizieren anhand von Kontobewegungen ihrer Kunden mit derselben Zuverlässigkeit, ob sich ein Ehepaar in den nächsten drei Jahren scheiden lässt. [vii] Ganz offenbar wissen die Daten mehr über uns als wir selbst. Die Zukunft, die früher in den Sternen lag, lässt sich heute in den Informationspuren lesen, die wir tagtäglich im World Wide Web selbst erzeugen. Den Blog entdecken Wer mehr wissen will: Garps – leider falsche – Überlegungen zu Wahrscheinlichkeiten Galtonbrett in Aktion Bildnachweise: Galtonbrett Anmerkungen: [i] Goethe (1795), 17. Kapitel. [ii] Vgl. Ferguson (2010), S. 170 ff. [iii] Hinter den beiden „Durchschnitten“ verbergen sich zwei verschiedene Sachverhalte: Beim ersten Durchschnitt handelt es sich gemäß der Formel zur Berechnung der Standardabweichung um ein quadratisches Mittel, während der zweite Durchschnitt ein arithmetisches Mittel darstellt. [iv] Vgl. Kahneman (2011), S. 172 ff. [v] Ein weiteres Beispiel ist das Geburtstagsparadoxon. Es besagt, dass bei einer Versammlung von nur 23 Menschen, bereits eine 50 % Wahrscheinlichkeit besteht, dass zwei oder mehr von ihnen am selben Tag Geburtstag haben. Dies lässt sich leicht anhand der Gegenwahrscheinlichkeit überprüfen, also der Wahrscheinlichkeit, dass zwei Menschen nicht am gleichen Tag Geburtstag haben. Für die erste Person beträgt die Wahrscheinlichkeit, an einem der 365 Tage des Jahres Geburtstag zu haben 100 % oder . Die Wahrscheinlichkeit, dass eine zweite Person an einem anderen Tag Geburtstag feiert beträgt , bei der nächsten und so weiter. Multipliziert man diese Wahrscheinlichkeiten für 23 Personen, so erhält man als Gegenwahrscheinlichkeit den Wert 49,27 %. Die Chance auf einen gemeinsamen Geburtstag beträgt somit 50,73 %. P= 1- . [vi] Vgl. Gowlett (1985) S. 71. [vii] Vgl. Demandowsky (2010).
- Eine kurze Geschichte der Vermessung der Welt
Antike Weltvermessung Der Drang der Menschen, die Erde vermessen zu wollen, lässt sich bis in die Antike zurückverfolgen. Bereits damals wurde klar, dass unser Planet eine Kugelgestalt hat, und es ist ein hartnäckiger Mythos, dass gebildete Menschen im Mittelalter jemals etwas anderes geglaubt haben. Bereits Aristoteles hat in seinen Schriften „Über den Himmel“ (de caelo) und „Meteorologica“ drei gewichtige Argumente angeführt, warum dem so sein muss: Bei einer Mondfinsternis ist die Projektion des Erdschattens auf dem Trabanten immer eine kreisrunde Fläche. Eine Scheibe hingegen würde in bestimmten Winkeln einen elliptischen oder abgeflachten Schatten werfen. Wenn man nach Süden reist, sieht man am Nachthimmel neue Sterne aufgehen, während die Sterne des Nordens verschwinden. Das ist nur möglich, wenn man sich auf einer gekrümmten Oberfläche bewegt. Bei Schiffen, die sich vom Betrachter entfernen, verschwindet am Horizont zuerst der Rumpf, während die Segel noch sichtbar sind; auch dies erklärt sich nur durch eine gekrümmte, kugelförmige Oberfläche. Aristoteles war damit der Erste, der die Kugelgestalt der Erde systematisch mit überprüfbaren Beobachtungen begründete. Rund hundert Jahre später sollte Eratosthenes , der langjährige Leiter der Bibliothek von Alexandria , den Erdumfang experimentell mit verblüffender Genauigkeit bestimmen. Wie war ihm das möglich? Eratosthenes nahm an, dass die Stadt Syene, im Süden Ägyptens, und Alexandria auf derselben Nord-Südachse liegen. Ein solcher Längengrad ist auf einer Kugel ein gedachter Halbkreis, der die beiden geographischen Pole der Erde miteinander verbindet. Der Abstand zwischen den beiden von ihm jeweils in Alexandria und Syene festgelegten Messpunkten wurde wahrscheinlich von amtlichen Schrittzählern ermittelt, die auf eine Distanz von 5000 Stadien kamen, einem von den Griechen verwendeten antiken Längenmaß. Eratosthenes - niemand weiß, wie er wirklich aussah Eratosthenes stellte in Syene und in Alexandria jeweils einen Holzstab auf. Am Mittag des Tags der Sommersonnenwende warf der Stab in Syene keinen Schatten, da die Sonne in diesem Moment direkt über ihm im Zenit stand. In Alexandria warf der Stab zum gleichen Zeitpunkt jedoch einen Schatten, der den fünfzigsten Teil eines Vollkreises vom Zenit entfernt war. Die Entfernung zwischen Alexandria und Syene entsprach demnach einem fünfzigstel des Erdumfangs, woraus sich ein gesamter Erdumfang von 50 x 5000 = 250.000 Stadien ergibt. Eratosthenes' Erdvermessung Nun wissen wir heute nicht genau, wie ein Stadion zur Zeit von Eratosthenes normiert war. Wenn wir aber unterstellen, dass die Entfernung zwischen den beiden Stäben genau ausgemessen wurde (sie beträgt Luftlinie 835 km), dann muss ein Stadion 167 Metern entsprochen haben (ein Wert, der einigermaßen mittig im Bereich der vermuteten historischen Stadionlängen liegt). Daraus ergäbe sich ein Erdumfang von 41.750 km, eine Zahl, die dem tatsächlichen Wert von 40.008 km bemerkenswert nahekommt. [i] Phantastische Gewinne Rund 1700 Jahre später, an der Wende zur Neuzeit, befuhren portugiesische Seefahrer wie Diogo Cão und Bartolomeu Dias in den 1480er Jahren die Westküste Afrikas auf der Suche nach einem östlichen Seeweg nach Indien. Von dort kamen die teuren exotischen Gewürze, die arabische Händler bisher auf dem Landweg nach Europa brachten. Indien per Schiff zu erreichen und so die arabischen Zwischenhändler auszuschalten, verhieß phantastische Gewinne. Auf ihren Erkundungsfahrten folgten die Portugiesen der afrikanischen Küstenlinie und orientierten sich dabei vor allem mit Hilfe von Portolankarten , in denen entlang der Küstenlinien Landmarken, Strömungen und Untiefen eingezeichnet waren. 1498 fand so Vasco da Gama als Erster den Seeweg, der um Afrika herum nach Indien führte. Vasco da Gama - segelte nach Osten Bereits sechs Jahre vor Vasco da Gama versuchte der findige Seefahrer Christoph Kolumbus zunächst erfolglos, den König von Portugal und später erfolgreich das spanische Königspaar, von seiner Idee zu überzeugen, dass sich Japan, China und Indien aufgrund der Kugelgestalt der Erde viel schneller erreichen ließen, wenn man statt ostwärts um Afrika herum, einfach nach Westen segelt. Seine Berechnungen enthielten allerdings eine Reihe von Fehlern, die sich auf eine fatale Weise addierten: Kolumbus stützte sich auf die Angaben des arabischen Gelehrten al-Farghānī , der im 9. Jahrhundert lebte. Al-Farghānī gab, wahrscheinlich auf der antiken Überlieferung beruhend, den Erdumfang sehr genau an – allerdings in arabischen Meilen, die Kolumbus für die wesentlich kürzeren römischen Meilen hielt. Zudem überschätzte der Genuese die Länge Asiens deutlich und kam so zu den Schluss, dass Japan westwärts nur 4.000 bis 5.000 Kilometer entfernt liegen müsse. Die tatsächliche Entfernung hatte er damit um mindestens 15.000 Kilometer unterschätzt. Läge zwischen Europa und Japan nicht ein ganzer Kontinent, nur 5.300 Kilometer von den Kanaren entfernt, so hätten wir wohl nie wieder etwas von Kolumbus gehört. Mit den Portolanen hangelte man sich noch an den Küstenlinien entlang Christoph Kolumbus - segelte nach Westen Navigation als Überlebensfrage Die iberischen Seefahrer hatten das Zeitalter der Entdeckungen eingeleitet, ein wesentliches Merkmal der nun beginnenden Neuzeit. Nachdem sich zuvor nur wenige Mutige auf das offene Meer gewagt haben (wir wissen von den Fahrten der Wikinger bis nach Grönland und Neufundland, sowie von den Expeditionen des chinesischen Admirals Zheng He zwischen 1405 und 1433, die ihn bis an die ostafrikanische Küste führten), wurde nun die Aussicht auf fantastische Profite die Triebfeder unzähliger Europäer: Im Osten kaufte man Gewürze, Seide und Porzellan ein, im Westen gab es einen ganzen neuen Kontinent, der nur darauf zu warten schien, ausgebeutet zu werden. Zu den Portugiesen und Spaniern gesellten sich nach und nach Niederländer, Franzosen und Engländer – selbst Schweden gründete 1626 eine Ostindien-Kompanie. Das Navigieren fernab der Küsten auf den gewaltigen Wassermassen von Atlantik, Indischem Ozean und Pazifik war nun zu einem zentralen Problem geworden und oft genug war es für die Seeleute auch eine Überlebensfrage. Wie konnte man die Zielhäfen auf den andern Kontinenten ansteuern, wie die aktuelle Position bestimmen? Wie ließen sich die neuen Küsten und Inseln, Strömungen und gefährlichen Riffe kartographieren? Bereits Eratosthenes hatte ein Koordinatensystem entworfen, mit dem sich beliebige Positionen auf der Erdoberfläche exakt bestimmen ließen. Es besteht einerseits aus parallel verlaufenden Ringen, den Breitengraden, deren mittlerer Kreis, der Äquator, die Erde in eine Nord- und Südhalbkugel teilt, sowie Meridianen oder Längengraden , gedachten Halbkreisen, die Nord- und Südpol miteinander verbinden. Das erste bekannte neuzeitliche Modell eines solchen Globus mit Breiten- und Längengraden verdanken wir dem Nürnberger Kaufmann Martin Behaim , der im Auftrag des Rats seiner Stadt um 1492 lokale Handwerker zur Herstellung des Modells anwies. Behaims Globus zeigt dieselbe Vorstellung von der Welt, die im gleichen Jahr auch der sich in Indien wähnende Kolumbus hatte: Amerika fehlt und der Erdumfang ist deutlich zu klein bemessen. Martin Behaims Erdapfel von 1492 Breitengrade brauchen nur etwas Astronomie Wie konnten nun Seeleute aber mit Hilfe des Koordinatensystems ihre Position bestimmen und Küstenlinien kartografieren? Eine hinreichend genaue Bestimmung des Breitengrads, auf dem man sich gerade befand, hatten die Portugiesen bereits Ende des 15. Jahrhunderts entwickelt. Die Methode war relativ einfach und beruhte auf der Messung des Standes von Himmelskörpern. Der Äquator war der Breitengrad Null. Hier ist die Erde, wenn man sie seitlich betrachtet, am breitesten. Die Strecke bis zum Nordpol wird in 90 Breitengrade eingeteilt; ebenso die Strecke bis zum Südpol. Der Abstand zwischen zwei der insgesamt 180 Breitengrade beträgt somit ziemlich genau 111 km. Für genauere Bestimmungen gibt es ein feinmaschigeres Gradnetz, das den Abstand zwischen zwei Breitengraden noch einmal in 60 Minuten und die Minuten wiederum in Sekunden einteilt. Diese Konventionen hatte im Prinzip bereits der Grieche Claudius Ptolemäus um das Jahr 150 n. Chr. entwickelt. Misst man nun exakt zur Mittagszeit, wenn die Sonne ihren Höchststand hat, den Winkel, den die Sonne vom Betrachter aus gesehen über dem Horizont bildet, lässt sich die geographische Breite leicht ermitteln. An den beiden Tagundnachtgleichen steht die Sonne am Äquator genau im Zenit, also 90° über dem Horizont. Misst man an einem dieser Tage beispielsweise einen Winkel von 30° über dem Horizont, kann man die Parallele, auf der man sich gerade befindet, leicht errechnen: Breitengrad = 90°−30°= 60°. An anderen Tagen wandert der Zenitpunkt der Sonne allerdings aufgrund der Neigung der Erdrotationsachse von 23,5° zwischen den Wendekreisen . Der nördliche Wendekreis, der Wendekreis des Krebses, ist somit der 23,5°nördliche Breitengrad (Zenitpunkt um den 21. Juni); der südliche Wendekreis des Steinbocks liegt auf 23,5° südlicher Breite (Zenitpunkt um den 21. Dezember). Der Effekt dieser so genannten Sonnendeklination muss an allen Tagen, die keine Tagundnachtgleichen sind, bei der Berechnung hinzugefügt oder abgezogen werden. Nachts konnte man auf der Nordhalbkugel die Höhe des Polarsterns messen, von dem man wusste, dass er fast exakt im Norden steht. Auf der Südhalbkugel konnte man entsprechend andere Sterne anpeilen, deren Position bekannt war, insbesondere das Kreuz des Südens , das zumindest in etwa die Richtung des Südpols angibt. Englischer Seefahrer mit Jakobsstab 1672 Zu Zeiten der portugiesischen und spanischen Entdecker benutzte man als Instrument zur Höhenwinkelmessung eine einfache Konstruktion, den Jakobsstab . Erst um 1730 wurde er vom deutlich genaueren Sextanten abgelöst. Der vermaledeite Längengrad Wesentlich schwieriger war es, den Längengrad zu bestimmen. Denn dieser hängt, nicht wie der Breitengrad, vom Ort ab, sondern von der Zeit . Da die Erde in etwa 24 Stunden eine 360°-Pirouette vollzieht, entspricht 1 Stunde 15 Längengraden. Der Zeitunterschied kann also sehr einfach in einen geographischen Abstand übersetzt werden. Während der Äquator eine naheliegende natürliche Nullbreite darstellt, die Nord und Süd definiert, ist die Bestimmung einer Referenzlinie, die die Erde in eine West- und Osthälfte teilt, rein willkürlich. Üblicherweise nahm man dafür die Lage des führenden Observatoriums verschiedener Länder. Der französische Nullmeridian verlief durch Paris, der spanische durch Madrid, der russische nahe bei Sankt Petersburg und der britische durch London, wo sich die Sternwarte im Stadtteil Greenwich befand. Im Laufe des 19. Jahrhunderts wurde dieser aufgrund der führenden Stellung der Briten in der Seefahrt zu dem noch heute gültigen internationalen Standard. Anders als die Breitengrade verlaufen die Längengrade nicht parallel Das praktische Problem der Längengradbestimmung bestand ganz einfach darin, dass es keine Uhr gab, die sich auf See mitführen ließ und die zuverlässig zur lokalen Mittagszeit die Referenzzeit des jeweiligen Nullmeridians anzeigen konnte. Feuchtigkeit, salzige Luft, Seegang und Temperaturschwankungen setzten den einfachen Sand- oder Pendeluhren so zu, dass an eine hinreichend genaue Zeitbestimmung keinesfalls zu denken war. Ebenso unmöglich war es Geschwindigkeit und Richtung des Schiffes über längere Zeiträume hinweg zuverlässig zu messen. Man wusste also ziemlich genau wie weit nördlich oder südlich man sich befand, nicht aber wie weit westlich oder östlich. Die Unmöglichkeit der exakten Ortsbestimmung auf See war ein gewaltiges Problem. Weder konnte man die Untiefen exakt in Seekarten einzeichnen, noch war es möglich, Entfernungen und die Lage von Küstenlinien und Inseln hinreichend genau zu bestimmen. Infolgedessen liefen zahlreiche Schiffe auf Riffe oder Sandbänke. Die Navigatoren wussten schlichtweg nicht, wo genau sie sich gerade befanden. Entsprechend waren die See- und Weltkarten in Ost-West-Richtung meist deutlich verzerrt. Der Nürnberger Astronom Johannes Werner entwickelte im 16. Jahrhundert eine Lösung, bei der der Winkel zwischen Mond und Sternen gemessen wurde, um die Zeit zu bestimmen – die sogenannte Lunardistanzmethode . Praktisch scheiterte sie an der ungenauen Messung und der Unzuverlässigkeit der damaligen Instrumente. Auch die Methode, die Bewegung der Jupitermonde als eine Art himmlische Uhr zu nutzen, die Galileo Galilei rund 100 Jahre später vorschlug, war auf dem schwankenden Deck eines Segelschiffs praktisch nicht durchführbar. Vor diesem Hintergrund lobte das englische Parlament im Jahre 1714 eine Prämie von 20.000 Pfund aus für denjenigen, der das Problem der exakten Längengradbestimmung lösen konnte – ein Betrag, der nach heutiger Kaufkraft etwa 3,5 Millionen Euro entspricht. Sicher kein schlechter Anreiz. Bei der Festlegung der Erfolgskriterien für das Preisgeld hatte das Parlament namhafte Wissenschaftler wie Issac Newton und Edmond Haley zu Rate gezogen. Die Höhe des Preisgelds war nach dem Genauigkeitsgrad der Zielerreichung gestaffelt. Die Uhr, die das Meer bezwang - die unglaubliche Geschichte des John Harrison Letztlich erwiesen sich alle auf „kosmischen“ Uhren“ beruhende Vorschläge gestandener Astronomen als nicht praktikabel. Dann nahm Mitte der 1720er Jahre der gelernte Tischler und autodidaktische Uhrmacher John Harrison die Herausforderung an. Sein Ansatz war es, eine extrem genaue und zugleich robuste Uhr für die Seefahrt zu bauen. Im Laufe der Jahre gelang es ihm drei entscheidende Verbesserungen einzuführen, um seine mechanischen Uhren seegängig zu machen. Tischler, Uhrmacher, Genie: John Harrison machte Uhren seegängig Er hatte erstens erkannt, dass sich die Metallteile in den Uhren in Abhängigkeit von den Temperaturschwankungen ausdehnen oder zusammenziehen. Dafür konstruierte er spezielle Eisen- und Messingstäbe, deren unterschiedliche Ausdehnung sich gegenseitig aufhob. Zweitens erfand er die so genannte Grashüpfer-Hemmung bei dem der Gang durch ein Zahnrad aus einem speziellen Holz gesteuert wird, das die besondere Eigenschaft besitzt, sich selbst schmieren zu können und so fast reibungsfrei zu laufen – Metallzahnräder hatten das Problem, dass das Schmieröl mit der Zeit verharzte und damit die Reibung erhöhte. Drittens fand er einen Ersatz für das traditionelle Uhrenpendel, das auf einem rollenden und stampfenden Schiff freilich nicht funktionieren konnte: Er verband zwei Unruhen durch eine Feder, eine Konstruktion, die sich von den Schaukelbewegungen nicht mehr beeinflussen ließ. Harrisons erstes Marinechronometer Harrison präsentierte der Kommission seinen Entwurf im Jahr 1730. Eine erste Probefahrt nach Lissabon verlief vielversprechend, erfüllte aber immer noch nicht die scharfen Bedingungen der Ausschreibung, die einen Test bei einer Transatlantikfahrt verlangte. In den folgenden Jahrzehnten arbeitete Harrison laufend an der Verbesserung seiner Ideen, bis er 1759 das bahnbrechende vierte Modell vorstellte. Bei einer Reise nach Jamaika wies diese Version bei der Rückkehr nach fast drei Monaten eine Abweichung von weniger als zwei Minuten auf. Lobte Harrisons Uhr in den höchsten Tönen: James Cook Der Streit um das Preisgeld Dennoch tat die vom Parlament eingesetzte Kommission das Ergebnis als zufällig ab und weigerte sich, das volle Preisgeld auszuzahlen. In der Prüfkommission dominierten namhafte Astronomen, die der Chronometer-Idee grundsätzlich skeptisch gegenüberstanden. Auch dürfte Standesdünkel eine Rolle gespielt haben – schließlich war Harrison „nur“ ein Handwerker, ohne akademische Weihen. Trotz überragender Ergebnisse erhielt Harrison in den 1760er Jahren nur Teilauszahlungen. Erst 1773, im Alter von 80 Jahren, bekam er auf persönliche Intervention des englischen Königs George III , eine Prämie von 8.750 Pfund, die das Parlament als Anerkennung seiner Verdienste bewilligte – die eigentliche Kommission hatte die Auszahlung bis zum Schluss verweigert. Setze sich für Harrison ein: George III Welche Form hat die Erde? In seinem Buch „Die Vermessung der Welt“ beschreibt der Romanautor Daniel Kehlmann, wie Alexander von Humboldt von spanischen Padres im Regenwald von einer französischen Expedition hört, die einige Jahrzehnte zuvor hier vorbeigekommen war, um „aus ästhetischen Gründen vor allem Newtons unschöne These“ zu widerlegen, „dass die Erde sich durch Rotation abplatte“, und somit keine perfekte Kugel sei. Die Geschichte hat mich neugierig gemacht, und ich habe ein bisschen recherchiert. Hingen die Franzosen hier tatsächlich einem platonischen Ideal an? Kehlmann hat sich ein paar literarische Freiheiten genommen, aber die Geschichte hat einen wahren Kern. Isaac Newton hatte tatsächlich im frühen 18. Jahrhundert besagte These aufgestellt. Dem hielten französische Wissenschaftler wie der sich auf René Descartes berufende Astronom Jacques Cassini die These entgegen, die Erde habe tendenziell mehr eine Ei-Form und laufe, ganz im Gegenteil zu Newtons These, an den Polen spitz zu. [ii] Die Frage der exakten geometrischen Form der Erde war für die Kartographie von zentraler Bedeutung. Der französische König Ludwig XV, schickte daher zwei Expeditionen los: Pierre Louis Moreau de Maupertuis wurde beauftragt in Lappland Messungen des Abstands zweier Breitengrade vorzunehmen; eine andere Gruppe um Charles Marie de La Condamine sollte entsprechende Messungen in Südamerika am Äquator durchführen. Wäre die Erde eine Kugel, so wären die Abstände zwischen den Breitengraden überall gleich, also bei besagten 111 km. Hätte Newton recht und der Äquator wäre vom Erdmittelpunkt weiter entfernt als die Pole, müsste wegen der flacheren Krümmung der Abstand zwischen zwei Breitengraden dort geringer sein als weiter im Norden. Die beiden Franzosen waren zwischen 1736 und 1743 unterwegs und konnten schließlich mit ihren Messungen die These des großen Engländers bestätigen (Anders als in Kehlmanns Roman war La Condamine weder Kritiker der Newton’schen These, noch konnte er freilich seine Vermessungen im Urwald vornehmen – vielmehr musste er hierzu die Anden nahe Quito besteigen). Charles Marie de La Condamine 1753 Die Erfindung des Meters Franzosen waren es auch, die während der Französischen Revolution das uns heute vertraute Metrische System mit Meter, Kilogramm und Liter erschufen, das infolge seinen weltweiten Siegeszug antreten konnte. Anders als die bislang etablierten lokalen und regionalen Maßsysteme, die sich wie Zoll, Elle, Fuß oder Yard oftmals aus Körperteilen ableiteten, sind im metrischen System alle Einheiten konsequent dezimale Teile oder Vielfache der Basiseinheit. Der Meter, als Basiseinheit für die Länge, wurde, dem französischen Rationalismus folgend 1793 als der zehnmillionste Teil der Entfernung zwischen Äquator und Nordpol definiert – selbstverständlich basierend auf dem Meridian-Abschnitt, der durch Paris verlief. Der geniale Einfall des Herrn Mercator – und sein Preis Gehen wir noch einmal zurück in die Renaissance und betrachten einen ganz anderen Aspekt der Vermessung der Welt. 1569 gelang nämlich dem aus Flandern eingewanderten Duisburger Gerhard Mercator ein ganz besonderer Coup. Er erschuf eine Weltkarte, die die gekrümmte dreidimensionale Erdoberfläche auf eine zweidimensionale Karte übertrug. Dazu stülpte er einen Zylinder über die Erdkugel, dessen Mitte die Kugel genau am Äquator berührte. Anschließend übertrug er die Küstenlinien und Ländergrenzen von der Kugel auf den Zylinder. Rollt man den Zylinder auf, hält man eine rechteckige Weltkarte in den Händen – jener Blick auf unseren Planeten , der uns heute am meisten vertraut ist. Seefahrer hatten damit nun praktikable Karten, die es den Navigatoren erlaubten, den Kurs des Schiffes einfach mit einem Lineal einzuzeichnen. Das Ganze hatte allerdings seinen Preis: Durch Mercators Methode vergrößerten sich die Breiten, je näher sie den Polen kamen. Dadurch verzerrten sich die Flächen je weiter sie vom Äquator entfernt waren. Der Vergleich zwischen Afrika und Grönland macht das Problem deutlich: Auf Mercators Karte erscheint die Insel in Norden als fast gleichgroß wie der Kontinent Afrika. In der Realität aber ist Afrika rund 14-mal größer als Grönland. Die Verzerrung ist tatsächlich ziemlich dramatisch. Mercators Projektion Hier sieht man das Problem, das Mercator uns bescherte... Positionsbestimmung heute Während ich diese Zeilen schreibe, befinde ich mich übrigens gerade auf 47,61° N und 7,50° E. Das heißt einigermaßen zwischen dem 47. und dem 48. nördlichen Breitengrad und zwischen dem 7. und 8. Längengrad östlich von Greenwich. Wenn ich jetzt über Handy meinen Standort teile, werden genau diese Koordinaten übermittelt. Die Ortsbestimmung per GPS gibt es heute auf jedem Mobiltelefon. Sie erfolgt mithilfe von Satelliten, die in etwa 20.000 km Höhe die Erde umkreisen. Dabei wird ein Aspekt von Raum und Zeit berücksichtigt, den wir erst seit 120 Jahren kennen. 1905 verhalf uns Albert Einstein mit seiner speziellen Relativitätstheorie zu der Erkenntnis, dass die Zeit davon abhängt, wie schnell man sich bewegt; zwölf Jahre später veröffentlichte er seine allgemeine Relativitätstheorie , die besagt, dass auch die Schwerkraft die Zeit beeinflusst. Dies müssen die GPS-Satelliten berücksichtigen: Sie bewegen sich schnell und auf sie wirkt eine deutlich geringere Schwerkraft als auf der Erdoberfläche. Ohne diesen Herren würde unser GPS nicht funktionieren Bedingt durch ihre Geschwindigkeit gehen die Atomuhren in den Satelliten ca. 7 Mikrosekunden pro Tag langsamer; durch die geringere Erdanziehung hingegen gehen sie etwa 45 Mikrosekunden pro Tag schneller. Würde GPS diesen Saldo von 38 Mikrosekunden nicht berücksichtigen, läge die Positionsbestimmung bereits nach einem Tag schon mehrere Kilometer daneben. Ein letzter, ganz und gar subjektiver Blick auf die Vermessung der Welt Nicht nur Gerhard Mercator hat dafür gesorgt, dass wir ein ziemlich verzerrtes Bild von der Welt haben. Wir haben auch ganz persönliche durch Erfahrung, Wissen, Kultur, Emotionen oder Medien geprägte innere Vorstellungen der Geographie, die von der physischen Realität weit entfernt sein können: der Norden ist immer oben, obwohl es auf einer Kugel kein Oben und Unten gibt; wir sind es gewohnt, Europa immer in der Mitte zu sehen. Aber natürlich ist eine Karte bei der Süden oben ist und China und Australien im Zentrum stehen genauso richtig. Die Welt steht Kopf - warum auch nicht? Mein ganz persönlicher Kompass sagt mir, dass für mich der Norden bei Hannover beginnt; für jemand anderen mag dies mit Frankfurt am Main, Benrath, Kassel, Buxtehude, Hamburg oder Kopenhagen verbunden sein; von Goethe wissen wir, dass er gesagt haben soll, dass Italien an der hessischen Bergstraße beginnt – das ist unsere gefühlte Geographie. Wer mehr wissen will: Aristoteles über die Kugelgestalt der Erde – De caelo II, 14 Kehlmann, Daniel (2006): „Die Vermessung der Welt“, rohwolt Aristoteles in Meteorologica II, 5 The Clock that changed the World - Dokumentation über Harrisons Erfindung (Englisch auf Youtube) Bildnachweise: Eratosthenes Erdvermessung Martin Behaims Erdapfel von ca. 1492 Mercator Projektion Die Welt auf dem Kopf [i] Eine kleine Ungenauigkeit ergibt sich auch aus der Tatsache, dass Syene nicht exakt auf demselben Längengrad liegt, wie Alexandria. [ii] Nach Cassini und dessen Vater Domenico wurde ein Mondkrater benannt; Domenico Cassini ist zudem Co-Namensgeber der Cassini-Huygens-Raumsondenmission zum Planeten Saturn.
- Geschichte der Menschheit: die Zeit der Ismen (Teil 2): 1900 bis 1945
Fortsetzung von: Geschichte der Menschheit: die Zeit der Ismen (Teil1): 1840 bis 1900 Deutschland wird Großmacht Drei Ismen – Nationalismus , Imperialismus und Militarismus – gehen zu Beginn des 20. Jahrhunderts eine unheilvolle Allianz ein. In Deutschland geht diese Entwicklung mit einem rasanten Aufstieg einher, der nach der Nationalstaatsgründung die seit dem 18. Jahrhundert bestehende europäische Machtbalance entscheidend verändert. Die einstige kleine Großmacht Preußen ist in dem viel größeren und sich nun rasch industrialisierenden Deutschen Reich aufgegangen. Seit Anfang der 1890er Jahre herrscht eine langanhaltende Hochkonjunktur. Zwischen 1871 und 1914 verdoppelt sich das pro-Kopf BIP auf 3.648 Dollar; die deutsche Bevölkerung zählt nun 65 Millionen Menschen. Die verspätete Nation hat sich mit einer eigentümlichen Mischung aus technischer Fortschrittlichkeit und politischer Rückständigkeit in der Hierarchie der europäischen Mächte auf den zweiten Platz nach Großbritannien geschoben. Die Bismarck-Jahre sind einerseits von innenpolitischen Spannungen der protestantischen Elite mit Sozialdemokraten und Katholiken geprägt, andererseits von außenpolitischer Zurückhaltung. Nachdem der junge Kaiser Wilhelm II den alten Reichskanzler 1890 aus dem Amt gedrängt hat, kehren sich die Prioritäten um. Nach Innen verfolgt die neue Reichsregierung nun einen Kurs gesellschaftlicher Befriedung, nach Außen betreibt sie jedoch eine aggressive Kolonial- und Flottenpolitik, die insbesondere den einstigen Verbündeten Großbritannien verprellt. Frankreich schließt gegen das aufstrebende Deutsche Reich ein strategisches Bündnis mit Russland , was dessen Nachbarn Österreich-Ungarn wiederum veranlasst, den Schulterschluss mit Deutschland zu suchen. Das labile Gleichgewicht kippt im Juli 1914, als serbische Nationalisten den österreichischen Thronfolger in Sarajewo ermorden. Drohgebärden, Missverständnisse und Bündniszwänge lösen eine unheilvolle Kettenreaktion aus. Auch die Tatsache, dass der deutsche Kaiser, der englische König und der russische Zar Cousins sind, verhindert nicht, dass am 1. August 1914 der Erste Weltkrieg ausbricht. Wilhelm Zwo: Cousin des englischen Königs und des russischen Zaren Weltenbrand Die europäischen Großmächte, die die Welt regieren , möchten nun die Machtverhältnisse auch innerhalb des eigenen Kontinents endgültig geklärt wissen. Da der deutsche Aufmarsch gegen Frankreich die belgische Neutralität verletzt, liefert er Großbritannien einen formellen Grund, auf Seiten Frankreichs und Russlands in den Krieg einzutreten. Dieser Entente stehen die Mittelmächte Deutschland, Österreich-Ungarn und das Osmanische Reich gegenüber. Italien , das sich zunächst neutral verhält, schlägt sich 1915 auf Seiten der Entente. Die Ermordung des österreichischen Thronfolgers und seiner Frau Die von Deutschland gesuchte schnelle Entscheidung im Westen scheitert. Der technische Fortschritt bei den Verteidigungswaffen, insbesondere der Einsatz von Maschinengewehren und Stacheldraht, führt zu einem Stellungskrieg, bei dem sich die Frontverläufe kaum noch verschieben. Es kommt zu nie dagewesenen Materialschlachten , bei denen Menschenmaterial ebenso Teil der Einsatzgleichung ist, wie schwere Artillerie, Giftgas, Flugzeuge und Panzer. 1917 schöpfen die ausgelaugten Mittelmächte noch einmal Hoffnung. Mit einem geschickten Schachzug schleust die deutsche Regierung Wladimir Iljitsch Lenin (1870-1924) zusammen mit einigen Vertrauten aus dem Schweizer Exil nach Russland ein. Die Dissidenten – wie alle Revolutionäre Angehörige einer kleinen gebildeten bürgerlichen Elite – entfachen die Oktoberrevolution ; das Zarenreich scheidet damit aus dem weltweiten Ringen aus. Doch noch im selben Jahr besiegelt der Kriegseintritt der USA auf Seiten der Entente das Schicksal Deutschlands und seiner Verbündeten – es ist der Beginn des amerikanischen Zeitalters. Im November 1918 müssen die Mittelmächte kapitulieren. Britische und deutsche Soldaten verbrüdern sich verbotenerweise Weihnachten 1914 Da der Krieg nicht vom Schnellsten gewonnen werden konnte, geht der Sieg an den Stärksten. [i] Die ökonomischen Kraftverhältnisse sprechen eine eindeutige Sprache: Deutschland und Österreich-Ungarn repräsentieren am Vorabend der Katastrophe weniger als 20% der weltweiten Industrieproduktion; die Vereinigten Staaten, Großbritannien und Frankreich zusammen hingegen mehr als 50%. [ii] Auf den Schlachtfeldern Europas sind fast zehn Millionen junge Männer verblutet; dazu kommen mindestens fünf Millionen Zivilisten, die meisten davon Hungertote. [iii] Demokratische Bestrebungen Gemäß der Versailler Verträge muss Deutschland Gebiete an Frankreich, Belgien und Polen abtreten und umfangreiche Reparationszahlungen an die Siegermächte leisten. Die verbündeten Vielvölkerstaaten Österreich-Ungarn und das Osmanische Reich werden zerschlagen; in Südosteuropa entstehen die Ungarische und die Tschechoslowakische Republik sowie das Königreich Jugoslawien; Rest-Österreich wird der gewünschte Anschluss an das Deutsche Reich von den Siegermächten verwehrt. Im Nahen Osten teilen sich Großbritannien und Frankreich die Konkursmasse der Osmanen. Dass sie bei der Grenzziehung keinerlei Rücksicht auf die verschiedenen Ethnien, Kulturen und religiösen Strömungen nehmen, birgt den Keim zahlreicher künftiger Konflikte in der Region. Der Erste Weltkrieg verändert aber nicht nur Staatsgrenzen, sondern auch die westlichen Gesellschaften. Seit der Antike waren selbst Demokratien immer nur eine Herrschaft von Minderheiten. Erst jetzt beginnen sie echte Mehrheiten zu repräsentieren. Während vor dem Großen Krieg weltweit nur Neuseeland (1893) und Finnland (1906) das Frauenwahlrecht eingeführt hatten, bewirkt die Tatsache, dass Millionen Frauen während des Krieges an der Heimatfront Männerarbeit übernommen hatten, nun ein allgemeines Umdenken. In Österreich-Ungarn erhalten Frauen unmittelbar nach Kriegsende das Wahlrecht ; Deutschland folgt 1919, die USA 1920; Großbritannien vollzieht die uneingeschränkte politische Gleichstellung 1928; nur in Frankreich gelingt es einer merkwürdigen Allianz aus katholischer Kirche und Radikal-Sozialistischer Partei das Frauenwahlrecht noch bis 1945 zu verhindern. [iv] Umsturz in Russland In Russland mündet die Revolution in einen Bürgerkrieg, in dem sich schließlich die Kommunisten durchsetzen. Die 1922 aus dem russischen Kolonialreich hervorgegangene Sowjetunion erhebt erstmals die marxistische Theorie zur Staatsdoktrin. Die erste sozialistische Ordnung ist nicht wie von Karl Marx vorhergesagt aus einer kapitalistischen Gesellschaft hervorgegangen, sondern aus einem rückständigen Feudalstaat . Doch das neue Regime verheißt den lange unterdrückten Volksmassen weder Gleichheit noch Freiheit – der sozialistische Mensch soll sich stattdessen selbstlos dem Wohl der Allgemeinheit unterwerfen. Josef Stalin (1878-1953), der 1924 nach Lenins Tod den Machtkampf gegen Leo Trotzki gewinnt, intensiviert die unter seinem Vorgänger begonnene Politik der Zerstörung traditioneller gesellschaftlicher Strukturen. Millionen Menschen – Intellektuelle, ehemalige Adelige, Angehörige des Offizierskorps aber auch einfache Bauern – die verdächtigt werden, dem Aufbau der neuen Gesellschaft im Wege zu stehen, fallen Säuberungsaktionen zum Opfer. Ökonomisch setzt der Diktator auf eine rasche Industrialisierung des zurückgebliebenen Landes. 1928 werden Fünfjahrespläne eingeführt, die Investitionen, Produktion, Preise und Löhne zentral festlegen. Der Aufbau der Schwerindustrie gelingt. Die Zwangskollektivierung der Landwirtschaft schlägt hingegen grausam fehl: Anfang der 1930er Jahre verhungern in der Sowjetunion schätzungsweise zwischen drei und sieben Millionen Menschen, die meisten davon in der Unionsrepublik Ukraine. Revolution in Russland Großmachtträume am Mittelmeer Auch Italien wird zu einem totalitären Staat. Obwohl das Land im Weltkrieg auf Seiten der Siegermächte stand, erhält es nicht alle vorab versprochenen Gebiete, so dass sich viele Italiener um die Früchte des Sieges betrogen fühlen. In bürgerlichen Kreisen fürchtet man sich zudem vor einer kommunistischen Revolution nach russischem Vorbild. Vor diesem Hintergrund kommt 1922 der ehemalige Sozialist Benito Mussolini an die Macht. Ebenso wie der Sozialismus, möchte auch der von ihm begründete Faschismus einen neuen Menschen schaffen. Das durch Individualismus, Liberalismus und Religion verweichlichte Volk soll von einer „Gesellschaft“ in eine durch solidarische Ideale getragene „ Gemeinschaft “ zurückverwandelt werden. Letztliches Ziel ist es, die Menschenmassen durch diese „anthropologische Revolution“ mit dem totalitären Staat zu verschmelzen. [v] Außenpolitisch gibt sich Mussolini dem Traum hin, im östlichen Mittelmeer ein neues Römisches Reich zu errichten. Weimar Deutschland erhält erstmals in seiner Geschichte eine demokratische Verfassung. Die alte autokratische Herrschaftsstruktur ist nun zwar beseitigt, doch die Weimarer Republik wird von den Wenigsten geliebt; von Anfang an kämpfen auch linke und rechte Ideologen um die Macht. Die Zuweisung der alleinigen Kriegsschuld durch die Siegermächte und die damit verbundenen hohen Reparationsforderungen, vor allem aus Frankreich, werden von der Bevölkerung als Unrecht empfunden. Der Staat versucht den Ansprüchen der Siegermächte mit Hilfe der Notenpresse zu entkommen, was dazu führt, dass im Oktober 1922 die Mark nur noch den tausendsten Teil ihres Vorkriegswertes aufweist. Als Deutschland die Lieferquoten für Rohstoffe und Industriegüter nicht mehr im vereinbarten Umfang erfüllt, besetzen französische und belgische Truppen das Ruhrgebiet. Die Scheine, die die deutsche Regierung nun zusätzlich drucken lässt, um den passiven Widerstand der streikenden Ruhrbevölkerung zu finanzieren, führen 1923 zu einem völligen Zusammenbruch des Geldsystems. Mitte November, am Höhepunkt der Hyperinflation , beträgt das Porto für einen Brief 10 Milliarden Mark. Wenn ich einmal reich wär: Inflationsgeld, das ich von meiner Oma bekommen habe; sie sagte mir damals: Ich habe das aufgehoben, weil ich gedacht habe, das glaubt uns hinterher kein Mensch mehr. Nach der Währungsreform von 1924 tritt eine Phase relativer Stabilität und wirtschaftlichen Aufschwungs ein. Doch Ende 1929 wird Deutschland mit voller Wucht von der Weltwirtschaftskrise getroffen. Vier Jahre später ist jeder Dritte arbeitslos. Die Nationalsozialistische Deutsche Arbeiterpartei, eine rechtsradikale Splittergruppe, die noch im Mai 1928 lediglich 2,6% der Stimmen errang, erhält bei den Reichstagswahlen im März 1933 nun Zuspruch von 43,9% aller Wähler. Der rasante Aufstieg ist nicht nur den schwierigen wirtschaftlichen Umständen geschuldet, sondern auch der Persönlichkeit des Parteivorsitzenden Adolf Hitler . Der aus kleinbürgerlichen Verhältnissen stammende Weltkriegsgefreite ist ein außerordentlich begabter Agitator und Redner, der die erfolgreichen Methoden der italienischen Faschisten übernimmt, insbesondere auch deren Führerkult. Anders als das italienische Vorbild zeichnet sich die Ideologie der NSDAP zudem durch einen fanatischen Antisemitismus aus. Machtergreifung Als nationalkonservative Kreise im Januar 1933 die Ernennung Hitlers zum Reichskanzler einfädeln, sind sie noch in dem Glauben, den Emporkömmling kontrollieren zu können. Doch Hitler gelingt es, innerhalb von nur vier Monaten sämtliche demokratische Grundrechte auszuhebeln. Die Kommunistische Partei wird verboten; die bürgerlichen Parteien stimmen einem Ermächtigungsgesetz zu, das die Gewaltenteilung faktisch aufhebt. Als die SPD, als einzige noch im Parlament vertretene Oppositionspartei, gegen die Ermächtigung stimmt, wird auch sie verboten; die freien Gewerkschaften werden aufgelöst, die bürgerlichen Parteien kommen diesem Schicksal durch Selbstauflösung zuvor. Als Hitler nach dem Tod des Reichspräsidenten Hindenburg 1934 dessen Amt und damit auch die Kontrolle über die Streitkräfte übernimmt, sind NSDAP und Staat ein und dasselbe. Wie im Faschismus und Kommunismus soll sich auch im Nationalsozialismus ein „neuer Mensch“ der Gemeinschaft vollständig unterwerfen. Andersdenkende werden rücksichtslos terrorisiert. Oppositionelle verschwinden in Gefängnissen und Konzentrationslagern; Juden werden durch zunehmende Repressalien die materiellen Lebensgrundlagen entzogen. Wenn dieses Vorgehen von der schweigenden Mehrheit toleriert wird, dann nicht zuletzt deshalb, weil die neuen Machthaber bedeutende Erfolge vorweisen können: Die Folgen der Weltwirtschaftskrise werden mithilfe eines keynesianischen Investitionsprogramms rasch überwunden; die Aufrüstung der Nationalsozialisten setzt sich über die Versailler Verträge hinweg; 1936 wird das entmilitarisierte Rheinland besetzt; im März 1938 erfolgt der Anschluss Österreichs; sechs Monate später – mit Zustimmung Frankreichs und Großbritanniens – die Angliederung des Sudetenlands. Münchner Konferenz: Großbritannien und Frankreich versuchen mit Appeasement den drohenden Konflikt abzuwenden. Links neben Hitler die englischen und französischen Regierungschefs Chamberlain und Daladier; rechts Mussolini. Ende 1938 steht Hitler daher auch bei vielen Deutschen im hohem Ansehen, die den Nationalsozialismus zunächst ablehnten. Erst, als im März 1939 die Wehrmacht auch den Rest der Tschechei besetzt, wird vielen Menschen im In- und Ausland bewusst, dass Hitler Pläne verfolgt, die über die Revision von Versailles und die Eingliederung deutschsprachiger Minderheiten hinausgehen. Der Zweite Weltkrieg: die größte Katastrophe der Menschheit Am 1. September 1939 überfällt Deutschland Polen. Es ist der erste Schritt auf dem Weg zu Hitlers großem Ziel, der überlegenen „arischen Rasse“ Lebensraum im Osten zu sichern. Nach Vorstellung der nationalsozialistischen Führer ist Deutschland zu klein, um seine Bevölkerung dauerhaft ernähren zu können. Zwei Tage später erklären Großbritannien und Frankreich Deutschland den Krieg. Nach Polen fallen Dänemark und Norwegen im Handstreich– ihre Besetzung dient allein dem Zweck, die Versorgung der deutschen Rüstungsindustrie mit schwedischem Erz zu sichern. Im Frühjahr 1940 feiert das Regime seinen größten Triumph, als die Wehrmacht in wenigen Wochen Frankreich und die als Aufmarschgebiet dienenden Benelux-Staaten überrennt. Anders als im Ersten Weltkrieg dominieren diesmal mit Panzern und Flugzeugen hochmobile Angriffswaffen das taktische Geschehen auf den Schlachtfeldern. Deutschland hat mit der Sowjetunion wenige Tage vor Kriegsausbruch einen Nichtangriffspakt unterzeichnet; als letzter Gegner verbleibt somit nur noch Großbritannien. Der Versuch, die Lufthoheit über die Briten zu erringen, um eine Invasion der Insel vorzubereiten, führt zur ersten deutschen Niederlage. Dessen ungeachtet stellen sich im Juni und September 1940 Italien und Japan an die Seite des Aggressors, zwei Mächte, deren imperialistische Großmachtambitionen auf den Balkan, Afrika und Südostasien gerichtet sind. Am 22.Juni 1941 beginnt der Angriff auf die Sowjetunion ; ihre Eroberung ist das eigentliche deutsche Kriegsziel - hier sind die endlosen Weiten, die das deutsche Volk besiedeln soll. Der Feldzug, von Anfang an als Vernichtungskrieg gegen die „bolschewistisch-jüdische Weltverschwörung“ geplant, konfrontiert zwei totalitäre Staaten, deren Ideologien sich vor allem in ihrer jeweiligen Betrachtungsweise historischer Determinismen unterscheiden: Für die Sowjets ist die Geschichte der Kampf zwischen gesellschaftlichen Klassen; für die Nationalsozialisten ein naturgesetzliches Ringen zwischen Rassen. In diesem Kampf der Ideologien schätzt das Oberkommando der Wehrmacht die Sowjetunion im Vergleich zu Frankreich als den vergleichsweise leichteren Gegner ein. Die Führer des deutschen Militärs haben als junge Offiziere im Ersten Weltkrieg die überraschende Schwäche der russischen Armee erlebt; zudem wissen sie, dass die meisten erfahrenen sowjetischen Offiziere den stalinistischen Säuberungen der 1930er Jahre zum Opfer gefallen sind. Der verlustreiche, schlecht geführte Angriff der UdSSR auf das kleine Finnland Ende 1939 scheint diese Annahmen zu belegen. Deutsche Soldaten beim Anlegen eines Friedhofs in der Sowjetunion Doch die Einschätzung erweist sich als zu optimistisch. Der geplante Blitzkrieg scheitert, als die UdSSR im Dezember mit Hilfe frischer und für den Winter gut ausgerüsteter sibirischer Truppen den deutschen Vormarsch kurz vor Moskau stoppen kann. Richard Sorge , ein Agent an der deutschen Botschaft in Tokio hat die Sowjets über den Beschluss des japanischen Kronrats informiert, statt Sibirien, Südostasien anzugreifen. Hintergrund des japanischen Strategiewechsels ist ein von den USA und Großbritannien im Juli 1941 verhängtes Embargo, infolgedessen das Inselreich rund 90% seiner Ölimporte verliert. Als Japan im Dezember 1941 deshalb statt der Sowjetunion die amerikanische Pazifikflotte attackiert, ist der Ausgang des Krieges bereits besiegelt. Wie im letzten Konflikt haben die Schnellen ihre Chance verspielt; erneut entscheidet nun das ökonomische Kräfteverhältnis. Während Deutschland und seine Verbündeten weiterhin weniger als 20% an der Welt-Industrieproduktion von 1938 repräsentieren, können die USA, die Sowjetunion und Großbritannien gemeinsam rund 55% in die Waagschale werfen. [vi] Auch dieser Krieg wird noch jahrelang weitergehen, doch am Ende sind Stahl, Treibstoff und Bruttoregistertonnen wichtigere Argumente als der feste Glaube an eine überlegene Ideologie. Auf der Konferenz von Jalta beschließen die Siegermächte bereits Monate vor Kriegsende eine neue Weltordnung Hinter den zurückweichenden Fronten ermorden die deutschen Besatzer planmäßig Millionen Juden, Sinti, Roma und Regimegegner. Im September 1943 kapituliert Italien, im Mai 1945 Deutschland und im August desselben Jahres schließlich Japan, nachdem zwei amerikanische Atombomben wenige Tage zuvor die Großstädte Hiroshima und Nagasaki ausradiert haben. Der Griff der drei „verspäteten Nationen“ nach der Macht ist fehlgeschlagen. Der schrecklichste Krieg der Menschheitsgeschichte hat zwischen 70 und 80 Millionen Tote gefordert, fast zwei Drittel davon sind Zivilisten. Den Blog entdecken Wer mehr wissen will: Kennedy, Paul (2000): „Aufstieg und Fall der großen Mächte“, Fischer. Ulrich, Volker (2025): „Deutschland 1923 – Das Jahr am Abgrund“, C.H. Beck. Gentile, Emilio (2015): „Der „neue Mensch“ des Faschismus. Reflexionen über ein totalitäres Experiment“ in: „Der Faschismus in Europa“ Hrsg. von Thomas Schlemmer und Hans Woller, De Gruyeter Oldenburg. Bildnachweise: Münchener Abkommen 1938 Deutscher Soldatenfriedhof in der Sowjetunion Anmerkungen: [i] Vgl. Kennedy (1996) S. 390. [ii] Vgl. Kennedy (1996) S. 411. [iii] Unmittelbar nach dem Krieg fielen zudem weltweit weitere geschätzte 17 bis 50 Millionen Menschen der Spanischen Grippe zum Opfer. [iv] Dahinter stand auf beiden Seiten die Befürchtung, dass sich durch das Frauenwahlrecht die politischen Mehrheiten zu Ungunsten des eigenen Lagers verschieben könnten. [v] Vgl. Gentile (2015) S.103. [vi] Vgl. Kennedy (1996) S.496.
- Geschichte der Menschheit: Die Zeit der Ismen (Teil1): 1840 bis 1900
Fortsetzung von „Der Aufstieg des Kapitals“ Die Zeit der Ismen Zwischen 1840 und 1945 werden Europa und Nordamerika ihre militärische, politische, ökonomische und technologische Überlegenheit skrupellos ausspielen und sich dabei fast den ganzen Rest der Welt untertan machen. Zugleich wird der Westen durch nie dagewesene militärische und soziale Konflikte erschüttert. Es ist die Zeit von Nationalismus, Kolonialismus, Imperialismus, Rassismus, Sozialdarwinismus, Militarismus, Kommunismus, Faschismus und Nationalsozialismus . Eine neue Fünferkonstellation Das Königreich Preußen , nach Großbritannien , Frankreich , Russland und Österreich-Ungarn die kleinste unter den fünf europäischen Großmächten, nutzt drei kurze Kriege – 1864 gegen Dänemark, 1866 gegen Österreich und 1870-1871 gegen Frankreich – um seine Vormachtstellung innerhalb Deutschlands auszubauen. Der preußische Ministerpräsident Otto von Bismarck (1815-1898) wird 1871 zum Architekten des ersten deutschen Nationalstaats: Preußens König Wilhelm I wird Deutscher Kaiser, Bismarck selbst Reichskanzler. Der alte Erzrivale Österreich wird nicht Teil des neuen Staatsgebildes. Im selben Jahr vereinigt Guiseppe Garibaldi (1807-1882) erstmals auch ganz Italien zu einem Königreich. In allen europäischen Staaten erhält der Nationalismus Auftrieb. Die Völker Europas nehmen sich nun mehr und mehr als ethnisch-kulturell definierte Schicksalsgemeinschaften wahr. Auch der einst kosmopolitische europäische Adel, durch vielfache dynastische Beziehungen miteinander verflochten, kann sich dem neuen Gefühl nicht verschließen. Nicht selten degeneriert der Nationalismus zum Chauvinismus: Die großen europäischen Mächte erheben für sich jeweils den Anspruch, zivilisatorisch höher zu stehen als ihre Nachbarn. In Frankreich entsteht 1871 der deutsche Nationalstaat - Otto von Bismarck steht nicht zu Unrecht in der Bildmitte Europas Griff nach der Welt Miteinander verbunden sind die Europäer jedoch in ihrer Gewissheit, dem Rest der Welt überlegen zu sein. Die offenbare Dominanz ihrer Errungenschaften begründet ein Denken, das in der zweiten Hälfte des 19. Jahrhunderts den Weg zu Kolonialismus und Imperialismus ebnet. Kolonien sind sowohl zollfreie Rohstofflieferanten als auch Absatzmärkte, so dass alle Industrieländer nun bestrebt sind, sich den größtmöglichen Anteil an der Welt zu sichern. Das größte Kolonialreich schaffen die Briten : Neben Kanada, Australien und Neuseeland, in denen britische Auswanderer die Bevölkerungsmehrheit stellen, gehören dazu große Gebiete im Osten und Süden Afrikas, auf der arabischen Halbinsel, in Südostasien und vor allem Indien. Insgesamt herrschen die Briten über annähernd ein Viertel der Welt. Die Franzosen, als zweitgrößte Kolonialmacht, bringen fast ganz Nordwestafrika sowie Indochina unter ihre Kontrolle. Russland unterwirft Zentralasien, den Kaukasus und das riesige Sibirien und wird dadurch zum größten Land der Erde. Auch Österreich-Ungarn kolonisiert lieber vor der eigenen Haustür und weitet seinen Einflussbereich in Richtung Balkan aus. Im Spanisch-Amerikanischen Krieg von 1898 berauben die USA mit Kuba, Puerto Rico, Guam und den Philippinen das einst mächtige Spanien seiner letzten nennenswerten Kolonien. Auch kleine Länder wie Belgien und Portugal sind mit dabei und sichern sich große Teile des afrikanischen Kontinents. Belgisch Kongo etwa ist rund 70-mal so groß wie das „Mutterland“. Deutschland und Italien , die beiden verspäteten Nationen, kommen auch bei der Verteilung der Welt zu spät. Deutschland erhält vier verstreute Kolonien in Afrika sowie Teile von Neuguinea und einige Mikronesische Inseln; Italien eignet sich Libyen und das Horn von Afrika an. Das Osmanische Reich , die einzige nichteuropäische Kolonialmacht, gehört zu den Verlierern der europäischen Expansion. Russland unterstützt die Aufstände der orthodoxen Bevölkerung auf dem Balkan gegen die türkische Herrschaft. Bis zum Anfang des 20. Jahrhunderts verliert das Osmanische Reich seine ausgedehnten Besitzungen in Südosteuropa und Nordafrika und hält nun nur noch Teile des Nahen Ostens unter seiner Kontrolle. Krieg um Opium Für die alten Machtzentren China und Japan verläuft die Konfrontation mit dem westlichen Expansionsdrang anders als für den Rest der Welt. Als die Briten beginnen, im großen Stil chinesischen Tee zu importieren, die Chinesen aber kein Interesse am Import britischer Güter zeigen und für den Tee in Silber bezahlt werden möchten, kommt es zum Konflikt. Da die Silberproduktion infolge der lateinamerikanischen Unabhängigkeitskriege der 1820er Jahre drastisch zurückgegangen ist, beginnt die britische Ostindien-Kompanie im großen Stil indisches Opium nach China zu schmuggeln. Opiumraucher im China des 19. Jahrhunderts Mit den Gewinnen aus dem Rauschgifthandel – die Drogen müssen in Silber bezahlt werden – sollen die Teeimporte finanziert und der Abfluss der eigenen Reserven des knappen Metalls in das Reich der Mitte verhindert werden. Ein Szenario, das deutlich macht, wie weit die Verflechtung der Weltwirtschaft seit Beginn der Neuzeit bereits fortgeschritten ist. Als der chinesische Kaiser Daoguang entschlossen gegen den rasch wachsenden Drogenhandel vorgeht, kommt es 1839 zum Opiumkrieg . Großbritannien entsendet eine verhältnismäßig kleine Streitmacht. Britische Raddampfer – sie gehören der Ostindien-Kompanie und nicht etwa der Royal Navy – schießen 1841 bei Kanton eine Flotte chinesischer Kriegsdschunken zusammen, deren Konstruktion sich seit der Zeit Zheng Hes kaum verändert hat. Auch zu Lande sind die nur mit Pfeil und Bogen, bestenfalls mit Kopien portugiesischer Luntenschlossflinten aus dem 16. Jahrhundert ausgestatteten kaiserlichen Truppen hoffnungslos unterlegen. Im Vertrag von Nanking erfährt China 1842 eine Demütigung sondergleichen. Es muss die britischen Kriegskosten erstatten, die Insel Hongkong abtreten, sowie eine Entschädigung für das vernichtete Opium bezahlen. Das Land wird gezwungen, sich dem europäischen Außenhandel zu öffnen und verliert damit faktisch seine staatliche Souveränität. Die Niederlage erschüttert die Machtposition der ohnehin nicht populären Qing-Kaiser. Da grundlegende Reformen ausbleiben kommt es zu Unruhen. Der Taiping-Aufstand , ein von 1851 bis 1864 währender Bürgerkrieg, fordert 20 bis 30 Millionen Tote. Um die Jahrhundertwende wird der Boxeraufstand , die Erhebung eines chinesischen Geheimbunds gegen die Imperialmächte, durch die Intervention sechs europäischer Staaten und der USA niedergeschlagen. Erst 1912 gelingt es dem Revolutionär und Gründer der nationalkonservativen Kuomintang-Partei Sun Yat-sen (1866-1925), die Herrschaft der Qing-Kaiser zu beenden und die Republik auszurufen. Er legt damit den Grundstein für das moderne China und für eine künftige Weltmacht. Sonderfall Japan Mit einer nicht minder rabiaten Kanonenbootpolitik erzwingen ab 1853 die USA die Öffnung Japans und offenbaren so die Schwäche der Tokugawa-Dynastie , die daraufhin nach 250-jähriger Herrschaft abdanken muss. Die schwarzen Schiffe des Commodore Perry erzwingen 1853 die Öffnung Japans Die Reformen, die der neue Kaiser Mutsuhito umgehend einleitet, führen das Land in eine völlig andere Richtung als China. Das vormals isolierte Inselreich macht sich innerhalb weniger Jahrzehnte westliche Technologien zu eigen, ohne dabei die eigene traditionelle Lebensweise aufzugeben. Japan wird selbst zu einer aggressiven imperialistischen Kolonialmacht, die sich aktiv an der Seite des Westens an der Unterdrückung des Boxeraufstands beteiligt. Die Welt horcht auf, als die Japaner 1905 die Großmacht Russland zu Lande und zu Wasser schlagen und damit ihren Anspruch auf die Mandschurei und Korea absichern. Heroisierende japanische Darstellung des Kriegs gegen Russland Am Ende des 19. Jahrhunderts zeigt der westliche Imperialismus seine ganze Hässlichkeit. Im Kongo , von König Leopold II zu einer Art Privatkolonie eines belgischen Konzerns gemacht, werden unvorstellbare Gräuel verübt, denen Millionen Kongolesen zum Opfer fallen. Erreichend die Einwohner eines Dorfes nicht die geforderte Abgabequote für Kautschuk, werden zur Strafe Geiseln ermordet oder Hände und Füße abgehackt. Gefangene Herero um 1900 In Deutsch-Südwestafrika wird 1904 der Aufstand der Herero niedergeschlagen; tausende Angehörige des Nomadenvolks werden in die Wüste getrieben und müssen dort verdursten. Die kolonisierte Welt 1898 Auch Kolonialismus und Rassismus brauchen eine Begründung Der Westen, Wiege der Menschenrechte , tritt diese Rechte außerhalb Europas mit Füßen – ein Widerspruch, der nach einer wissenschaftlichen Auflösung verlangt. Liefern wird sie der Franzose Joseph Arthur de Gobineau , der 1855 seinen „Versuch über die Ungleichheit der Menschenrassen“ veröffentlicht. Kern der These ist eine behauptete intellektuelle Überlegenheit der Weißen über Menschen anderer Hautfarbe. Joseph Arthur de Gobineau Würde sie sich mit den „minderwertigen" Gelben und Schwarzen vermischen, würde dies zum Niedergang der weißen Rasse führen. Doch auch innerhalb der Klasse weißer Herrenmenschen erkennt Gobineau eine Hierarchie, an deren Spitze Menschen mit nordisch-arischem Blut stehen. Darwins Evolutionstheori e gibt solchen Ideen ab 1859 weiteren Auftrieb. Bedenkenlos die Unterschiede zwischen biologischer und kultureller Evolution ignorierend, übertragen Wissenschaftler und Kolonialpolitiker die Vorstellung der „Erhaltung von bevorzugten Rassen im Lebenskampf“ auf den Menschen. Die Sozialdarwinisten leiten daraus das „Recht des Stärkeren“ ab, dem Schwächeren seinen Willen aufzuzwingen. Darwins Cousin Francis Galton und der Deutsche Biologe Ernst Haeckel verbinden Gobineaus Vermischungstheorie mit einem sozialdarwinistischen Biologismus und werden so zu Wegbereitern der Eugenik , die durch rassenhygienische Maßnahmen privilegiertes Erbgut schützen und verbessern möchte. Kolonialisten, wie der spätere englische Literaturnobelpreisträger Rudyard Kipling folgen einer anderen Argumentation. Francis Galton 1840 Er deutet den Imperialismus in eine ethische Verantwortung um, eine als „Bürde“ aufzufassende Vormundschaftsrolle, die der weiße Mann auf sich nehmen müsse, um die kindlichen Menschen in den Kolonien zu entwickeln. [i] Das 19. Jahrhundert – eine atemberaubende Entwicklung Der Rückblick auf das vergangene Jahrhundert offenbart nie dagewesene Veränderungen: 1782 wurde im Kanton Glarus Anna Göldi als letzte Hexe hingerichtet. 1905 stellt Albert Einstein , ebenfalls in der Schweiz, die spezielle Relativitätstheorie auf. Während der 123 Jahre, die die beiden Ereignisse trennen, toben Französische Revolution und Napoleonische Kriege , beginnt das Zeitalter der fossilen Brennstoffe , werden Eisenbahn, Dampfschiff, Telekommunikation, Fotographie, Straßenbeleuchtung, Automobil und Flugzeug erfunden, entstehen Menschenmassen und Massenmärkte , werden Zellen , Keime und die Periodizität der Elemente entdeckt, Evolutions - und Quantentheorien aufgestellt, die Ökonomie mathematisiert, der fürsorgliche Staat aus der Taufe gehoben, die Geistes- und Sozialwissenschaften und eine Vielzahl von Ismen geboren. Fortsetzung: Die Zeit der Ismen 1900-1945 Den Blog entdecken Wer mehr wissen will: Kennedy, Paul (2000): „Aufstieg und Fall der großen Mächte“, Fischer. Bildnachweise: Gefangene Herero [i] Rudyard Kipling entwickelt diese Idee in seinem 1899 veröffentlichten Gedicht „The White Man's Burden“.
- Der Liberalismus schlägt zurück!
Fortsetzung von: „Makroökonomie: Die sichtbare Hand des Staates“ Hayek vs. Keynes – ein Schlagabtausch Keynes prominentester Gegenspieler in dieser Debatte war der Österreicher Friedrich von Hayek (1899-1992). Hayek, der an der London School of Economics unterrichtete, war in den 1930er und 1940er Jahren die zentrale Figur des Neoliberalismus , einer Strömung, die sich, ganz in der Tradition Lockes, Humes und Smiths , scharf gegen jeglichen staatlichen Eingriff wandte. Privat schätzten sich Keynes und Hayek sehr; in der Öffentlichkeit aber lieferten sich die beiden einen aufsehenerregenden Schlagabtausch. Friedrich von Hayek, der erste Popstar des Neoliberalismus In seinem 1945 erschienenen viel beachteten Artikel „The Use of Knowledge in Society“ lieferte Hayek eine umfassende theoretische Begründung für seine Einwände. Demnach hat sich die von Smith beschriebene Arbeitsteilung infolge der Industriellen Revolution zu einer Wissensteilung weiterentwickelt. Das Wissen der Welt ist aber nicht die Summe aller wissenschaftlichen Theorien und empirischer Untersuchungen, sondern völlig dezentral in der Gesellschaft auf Millionen von Akteure verteilt. Paradoxerweise sind genau aus diesem Grund Märkte so erfolgreich. Niemand muss alle Bedingungen kennen, damit eine komplizierte Werkzeugmaschine oder auch bloß eine Stecknadel entstehen kann. Es ist der Preismechanismus , der dafür sorgt, dass alle Beteiligten ihr Wissen auf andere Marktteilnehmer übertragen. Nur eine dezentral organisierte Wirtschaft kann sicherstellen, dass Menschen entsprechend ihrer Fähigkeiten eingesetzt, überschüssige Lagerbestände sinnvoll verwendet und Maschinen optimal ausgelastet werden. Fehlt ein Baustein – ein Ersatzteil für die Maschine oder das Wissen, wie sie repariert werden muss – wird der Marktpreis entsprechende Anreize dafür liefern, dass jemand das fehlende Teil herstellt oder die Maschine repariert. Wer auch immer das Problem löst, muss nicht verstehen, warum es entstanden ist. Er muss nur verstehen, welche relative Wichtigkeit das Problem für jemand anderen hat. Die andere Seite signalisiert diese Bedeutung über den Gegenwert, den sie für die Problemlösung herzugeben bereit ist. Das ist die eigentliche Aufgabe des Preissystems. [i] Spontane Ordnung Dass eine dezentral organisierte Wirtschaft tatsächlich funktioniert, ist für Hayek Ausdruck eines übergeordneten Prinzips, das er als „ spontane Ordnung “ bezeichnet. Die Idee ist nicht neu. Bereits der anarchistische Theoretiker Pierre-Joseph Proudhon , für den Anarchie „Ordnung ohne Macht“ bedeutete, hatte behauptet, dass unter völlig freien Menschen eine solche spontane Ordnung ganz von allein entstehen würde. (Anarchisten und radikale Wirtschaftsliberale haben daher mehr gemeinsam, als man denkt.) Aus diesem Grund ist Hayek auch überzeugt, dass eine zentrale Planwirtschaft nicht funktionieren kann: sie lässt keinen Raum für spontane Ordnung. Ihre Verkünder möchten alles planen und kontrollieren. Es ist aber schlichtweg unmöglich, das verteilte Wissen, die Schwarmintelligenz unzähliger Wirtschaftssubjekte, in einer zentralen Instanz zusammenzuführen. Der sozialistische Anspruch, volkswirtschaftliche Produktions- und Nachfragefunktionen zentral planen zu können ist eine Allmachtsphantasie, eine Anmaßung, die nie Wirklichkeit werden kann. Aus dieser Überzeugung speist sich Hayeks zentrales Argument gegen die keynesianische Theorie: Sobald der Staat lenkend in ein freies Wirtschaftssystem eingreift, sind dem Sozialismus Tür und Tor geöffnet. Preissignale können dann eben nicht mehr die unverzerrten Informationen liefern, die alles harmonisch zusammenführen. Zentraler Dirigismus bedeutet letztlich immer, dass die falschen Dinge mit falschen Mengen zur falschen Zeit bereitgestellt werden – eine fatale Situation in einer Welt knapper Ressourcen. Sobald der Staat versucht, Mietpreise zu begrenzen, Wechselkurse durch die Zentralbank zu fixieren oder Immobilienzinsen künstlich zu verbilligen, verhindert er, dass Preise korrekte Knappheitssignale an den Markt senden, die Fehlentwicklungen ganz von allein korrigieren würden: Potentielle Investoren für neuen Mietraum ziehen sich dann aus dem Immobilienmarkt zurück; die Exportwirtschaft verschläft Strukturreformen; Haushalte erbwerben Immobilien, die sie sich nicht leisten können. Mit alldem ist niemandem geholfen – im Gegenteil. Der Staat soll daher seine Rolle strikt darauf beschränken, die Wettbewerbsordnung aufrechtzuerhalten und Kartelle und Monopole zu verhindern. Eine effektive Koordination können allein freie Märkte sicherstellen. Was verursachte die Große Depression? Die Ursache der Weltwirtschaftskrise von 1929 liegt für Hayek nicht in starren Lohnkosten, sondern in einer verfehlten Zinspolitik der amerikanischen Zentralbank. Diese hatte während der Goldenen Zwanziger die Leitzinsen durch eine expansive Geldpolitik auf ein unnatürlich niedriges Niveau gesenkt und Unternehmen, Haushalte und Banken dazu verleitet, hohe Risiken einzugehen. In der dadurch angefachten Hochkonjunktur stiegen mit den Verbraucherpreisen bald auch wieder die Zinsen – schließlich erwarteten die Sparer für ihren Konsumverzicht während des Booms eine angemessene Vergütung. Viele der zunächst mit niedrigen Zinsen kalkulierten Investitionsprojekte lohnten sich nun nicht mehr; eine Gefahr, auf die Hayek bereits 1928 hingewiesen hatte. Dass die Große Depression ein Jahr später die Welt zu lähmen begann, schien ihm der schlagende Beweis für die Richtigkeit seiner Annahme zu sein. Bis 1931 entwickelte Hayek aus seiner These eine umfassende Konjunkturtheorie. Auf den Nobelpreis, der ihm hierfür zugesprochen wurde, musste er allerdings noch 43 Jahre warten. [ii] Weltwirtschaftskrise: Menschen stehen vor einem Pfandleihhaus Schlange. Für Hayek war der Staat Ursache des Problems, für Keynes war er die Lösung. Den öffentlichen Schlagabtausch in den 1930er Jahren verlor Hayek allerdings. Seine radikalliberale Position konnte sich nicht durchsetzen. Keynes Theorie wurde hingegen in zahlreichen Industrieländern schon bald fester Bestandteil der praktischen Wirtschaftspolitik. Der „New Deal“ mit dem Franklin Delano Roosevelt ab 1933 die Politik des unglücklich agierenden Krisenpräsidenten Herbert Hoover erfolgreich ablöste, trug bereits unverkennbar keynesianische Züge. Auch das „Gesetz zur Förderung der Stabilität und des Wachstums der Wirtschaft“ von 1967, das am Ende des westdeutschen Wirtschaftswunders einen Absturz verhindern sollte, atmet den Geist des englischen Ökonomen. Die steile Karriere des Sozialstaats Nach dem Zweiten Weltkrieg zeigte sich mehr und mehr, dass die meisten Regierungen, anders als von Keynes vorgesehen, ihre Schulden in guten Jahren nicht zurückzahlten, sondern sich weiter verschuldeten, um damit Wohltaten für die Wähler zu finanzieren. So kletterte bis 2017 die Staatsverschuldung in Frankreich und den USA auf 100% des BIP, in Italien auf 130%, in Japan auf fast 240%. Das Monopol auf wichtige Dienstleistungen und eine wachsende Schar von Bediensteten ließen den Staat zu einem volkswirtschaftlichen Schwergewicht werden, so dass – ebenfalls auf das Jahr 2017 bezogen – die Staatsquote, das heißt der Anteil staatlicher Leistungen am BIP, in den USA auf 38%, in Deutschland auf 45% und in Frankreich auf 56% anschwoll. (Vergleicht man Frankreich und die USA, findet Tocquevilles Betrachtung des französischen Primats der Gleichheit über die Freiheit auch fast 200 Jahre später noch eine Bestätigung). Das Gespenst der Inflation! Hayek hatte 1950 eine Professur an der Universität von Chicago angenommen. Dort lehrte seit bereits vier Jahren auch Milton Friedman (1912-2006), der als bekanntester Vertreter der neoliberalen Chicagoer Schule zum einflussreichsten Ökonomen der zweiten Hälfte des 20. Jahrhunderts werden sollte. Friedman wollte sich weder Hayeks Krisentheorie noch der interventionistischen Konjunkturpolitik der Keynesianer anschließen . Einer seiner wichtigen Einwände gegen Keynes war, dass in einer Rezession die staatlichen Investitionsprogramme erst dann wirken würden, wenn sich die Wirtschaft bereits wieder von allein erholt hat. Die verspäteten Maßnahmen wirken durch den Verzögerungseffekt dann wie Öl auf das Feuer der natürlichen Konjunktur, die infolge überhitzt und so die Inflation entzündet. Tatsächlich wurden die USA in den 1970er Jahren von einer hohen Inflation geplagt, die bis 1980 auf über 13% angestiegen war. Friedman sah darin eine große Gefahr für die konjunkturelle Entwicklung. Wenn die Zentralbanken durch eine verfehlte Politik zu viel Geld in Umlauf bringen, verlieren die Preise ihre Fähigkeit, Ressourcen effizient allozieren zu können. Die Verbraucher wissen nun nicht mehr, ob der Preis eines Guts gestiegen ist, weil sich sein Wert angebots- oder nachfragebedingt tatsächlich erhöht hat, oder ob er Folge einer gesteuerten Geldschwemme ist. Noch dramatischer aber ist die gegenteilige Entwicklung: Eine preisliche Abwärtsspirale ruft das Gespenst der Deflation wach. In der Erwartung weiter fallender Preise schieben die Menschen ihre Konsumwünsche auf. Die schwindende Nachfrage aber wird zu einem fatalen Strudel, der den gesamten Wirtschaftskreislauf nach unten zieht. Milton Friedman, die andere Ikone der Neoliberalen Friedman hatte in den späten 1940er Jahren umfangreiche empirische Forschungen betrieben, die ihn zu dem Schluss kommen ließen, dass die Krise von 1929 weder durch Keynes´ starre Löhne noch durch Hayeks niedrige Leitzinsen, sondern primär durch eine verfehlte Geldpolitik der amerikanischen Zentralbank verursacht wurde. Aus dieser These Friedmans entstand die neoliberale Schule der Monetaristen . Nach deren Überzeugung muss die Zentralbank die Geldmenge so steuern, dass gefährliche inflationäre und deflationäre Entwicklungen vermieden werden. Steigen die Preise zu schnell, muss die Zentralbank die Geldmenge verringern; im Fall einer drohenden Deflation müssen die Währungshüter die Geldmenge hingegen erhöhen. Wünschenswert ist aus Sicht der Monetaristen eine kontrollierte Inflationsrate von 2-3%. Nach ihrer Überzeugung ließe sich damit ein Überhitzen oder Abgleiten in eine Rezession wirkungsvoller vermeiden als mit keynesianischer Nachfragepolitik. Dahinter verbirgt sich eine bemerkenswerte Weiterentwicklung des neoliberalen Gedankens: Anders als Hayek vertritt Friedman eine pragmatische Position, die dem Staat eine aktive Rolle in der Konjunkturpolitik zugesteht. [iii] Eine einflussreiche Geldtheorie Dreh- und Angelpunkt des monetaristischen Denkens ist die Quantitätstheorie des Geldes . Ihr liegt die bereits von Aristoteles und Adam Smith beschriebene Vorstellung zugrunde, dass Geld lediglich ein Schleier ist, ein Mittel, das letztlich allein dem Warenaustausch dient. Geldmenge und Gütermenge müssen sich demnach entsprechen. Dass dieser Zusammenhang nicht ganz trivial ist, hatten bereits Quesnay und John Locke erkannt: Geld wechselt innerhalb eines gegebenen Zeitraums mehrfach die Hand. Eine Geldeinheit dient also im Wirtschaftskreislauf dazu, mehrere Güter zu erwerben. Dazu kommt der Einfluss der Inflation: Wenn bei gegebener Gütermenge das Preisniveau steigt, muss zusätzliches Geld in Umlauf gebracht werden. Der Erste, der all diese Faktoren in einen formelmäßigen Zusammenhang brachte, war der amerikanische Ökonom Irving Fisher (1867-1947). Die Grundformel seiner Quantitätsgleichung besagt, dass die Geldmenge M, multipliziert mit der Umlaufgeschwindigkeit V, der Anzahl der Transaktionen T multipliziert mit dem Preisniveau P entsprechen muss: M ∙ V = T ∙ P. Die Summe aller Zahlungen (M ∙ V) muss also der Summe des Wertes aller Käufe (T ∙ P) entsprechen. Der Geldmengenbedarf lässt sich errechnen, indem man den Wert aller Käufe durch die Anzahl der Transaktionen dividiert. In einer komplexen Volkswirtschaft mit Millionen von Akteuren und Gütern, ist es allerdings faktisch unmöglich, die Transaktionenanzahl auch nur annähernd zu erfassen. Aus praktischen Gründen wird daher die Anzahl der Transaktionen T meist durch die gesamtwirtschaftliche Produktionsmenge Y ersetzt: M ∙ V = Y ∙ P. In unserem simplen Beispiel zum portugiesischen Bruttoinlandsprodukt wäre Y also 100 Fässer Wein . Damit wird vereinfachend unterstellt, dass Geldmenge mal Umlaufgeschwindigkeit dem Wert der gesamtwirtschaftlichen Produktion entspricht. Steigt die Produktion, wie in unserem Beispiel im Folgejahr real um 10% auf 110 Fässer, muss die Zentralbank auch 10% mehr Geld in Umlauf bringen, vorausgesetzt, Umlaufgeschwindigkeit und Preisniveau bleiben gleich. Bis zu diesem Punkt beschreibt die Fishersche Quantitätsgleichung nicht mehr als einen einfachen mathematischen Zusammenhang, eine Identität. Milton Friedman erst machte daraus die monetaristische Quantitätstheorie des Geldes, indem er die Konstanz der Umlaufgeschwindigkeit unterstellte. Steigt die Geldmenge M stärker als das reale Bruttosozialprodukt Y, muss bei gleichbleibender Umlaufgeschwindigkeit V das Preisniveau P steigen, um die Identität der Gleichung aufrechtzuerhalten. Mit anderen Worten: Es entsteht Inflation. Oder, wie Friedman es ausdrückte: „Inflation ist immer und überall ein monetäres Phänomen.“ Wie die Spanier im 16. und 17. Jahrhundert durch ihre importierten Silberschätze erfahren mussten , entsteht durch mehr Geld aber keinesfalls mehr Wohlstand . Dennoch ist die Versuchung für manche Staaten auch heute noch groß, sich ihrer Probleme über die Notenpresse entledigen zu wollen. In vielen Industrieländern sind heute daher die Zentralbanken von den Weisungen ihrer Regierungen mehr oder minder unabhängig und gesetzlich verpflichtet, Geldwert und Kaufkraft ihrer Bürger zu erhalten. [iv] Kurzfristig kann nach Friedmans Ansicht eine geschickte Geldpolitik helfen, aus einem konjunkturellen Tief herauszufinden. Zum einen ist eine mäßige Geldentwertung ein effektives Mittel, die Reallöhne zu senken und so, gleichsam durch die Hintertür, Keynes Problem der rigiden Löhne in den Griff zu bekommen. Bei 3% Inflation entspricht eine Lohnerhöhung von 1% faktisch einer 2%igen Lohnkürzung. Aufgrund der Geldwertillusion wird diese schleichende Form der Enteignung von den Arbeitnehmern nicht vollumfänglich wahrgenommen. Mit dieser Täuschung können die Zentralbanken zumindest kurzfristig die Wirtschaft stimulieren. Ein Modell, um die Wirtschaft anzukurbeln Der zweite wichtige Effekt der kontrollierten friedmanschen Inflationspolitik lässt sich anhand des IS-LM Modells illustrieren: Eine Ausweitung der Geldmenge verschiebt die LM-Kurve nach rechts. Das vergrößerte Angebot lässt kurzfristig die Zinsen fallen, ein Anreiz für mehr Investitionen. Letztlich soll dadurch derselbe Mechanismus in Gang gesetzt werden, auf den auch Keynes abzielte: Vermehrte Investitionen führen zu vermehrten Einstellungen. Das neue Gleichgewicht zwischen Finanz- und Investitionsmärkten erzeugt ein höheres reales Bruttoinlandsprodukt, ohne dass der Staat selbst dafür Geld ausgeben müsste: Ausweitung der Geldmenge im IS-LM-Modell (links) und kombiniert mit keynesianischer Nachfragepolitik (rechts) Bei einer Kombination von keynesianischer Nachfragepolitik mit monetaristischer Geldpolitik müssten sich die beiden Effekte auf das Volkseinkommen sogar gegenseitig verstärken. Sowohl die IS- als auch die LM-Kurve verschiebt sich nach rechts, die staatliche Ausgabenoffensive führt zu einem noch größeren BIP, ohne wesentliche Auswirkung auf das Zinsniveau. Der Liberalismus schlägt zurück! Während in den ersten drei Dekaden nach dem Zweiten Weltkrieg Keynesianismus und Sozialstaat auf breiter Front auf dem Vormarsch waren, gelang es den Neoliberalen ab den 1980er Jahren verlorenes Terrain wieder gutzumachen – insbesondere, aber nicht nur, in der angelsächsischen Welt. Schlagwörter wie Thatcherismus und Reagonomics sind direkt mit Hayek und Friedman verbunden, nicht zuletzt, weil Hayek die britische Premierministerin Margaret Thatcher und Friedman den amerikanischen Präsidenten Ronald Reagan bei ihren jeweiligen Reformprogrammen berieten. Tickte anders als der 45. und 47. Präsident der Vereinigten Staaten: Ronald Reagan Beide Initiativen zielten darauf ab mit Steuersenkungen und marktliberalen Korrekturen die im Windschatten des Keynesianismus entstandenen umfangreichen Sozialstaatmodelle wieder abzubauen. Seit der Jahrtausendwende hat die neoliberale Gegenbewegung – späte Genugtuung für David Ricardo – zudem zahlreiche internationale Freihandelsabkommen initiiert. Ein Rad, das, wie wir wissen, der aktuelle Präsident der Vereinigten Staaten – im fundamentalen Gegensatz – zu seinem Vorgänger und Parteifreund Reagan gerade zurückdrehen möchte. Ist es wirklich so einfach? Trotz ihres großen praktischen Einflusses beruhen die beiden großen makroökonomischen Theorien des 20. Jahrhunderts auf erstaunlich einfachen und idealisierenden Annahmen. Können Unternehmer und Haushalte, die für die Zukunft schwarzsehen, mit niedrigeren Zinsen tatsächlich zu Investitionen bewegt werden? Würden Banken in Zeiten, in denen die Sicherheiten ihrer Kunden massiv an Wert verloren haben, noch Kredite vergeben? Ist eine freie Marktpreisbildung für Zinsen überhaupt möglich, wenn die Zentralbanken die Leitzinsen willkürlich festlegen können? Hörte auf Hayek: die Iron Lady Margaret Thatcher Wie realistisch ist die Annahme einer konstanten Umlaufgeschwindigkeit des Geldes? [v] Können die Zentralbanken die Geldmenge tatsächlich steuern, wenn im wesentlichen Geschäftsbanken, Unternehmen und Haushalte entscheiden welcher Teil davon in den Güterkreislauf gelangt? Von einer umfassenden und allgemein akzeptierten Konjunkturtheorie ist die ökonomische Wissenschaft heute nach wie vor noch ein ganzes Stück entfernt. Die grundlegenden volkswirtschaftlichen Theorien des 20. Jahrhunderts, so erfolgreich ihre praktische Anwendung bisher auch gewesen sein mag, stehen auf recht tönernen Füßen. Den Blog entdecken Wer mehr wissen will: Hayek, Friedrich von (1945): „The Use of Knowledge in Society” in: The American Economic Review, Band 35, Nr. 4. Hayek, Friedrich von (1981): „Preise und Produktion“, Philosophia-Verlag. Samuelson, Paul A. ; Nordhaus William D. (2010): „Volkswirtschaftslehre“, Mi-Wirtschaftsbuch. The Use of Knowledge in Society (Erklärvideo auf Youtube) Hayek vs. Keynes: Der Schlagabtausch als Rap auf Youtube [i] Vgl. Hayek (1945) S.526-527. [ii] Hayek hätte wohl auch in der US-Hypotheken-Blase, die zur Finanzkrise von 2007 führte, das Muster der 1920er Jahre wiedererkannt. In beiden Fällen hatten sich Millionen Haushalte in den USA infolge der Niedrigzinspolitik der amerikanischen Zentralbank mit Hypothekenkrediten verschuldet und konnten, als die Zinsen wieder stiegen, ihre Schulden nicht mehr bedienen. [iii] Friedman selbst fasste dies 1965 in dem bekannten Zitat zusammen: „Wir sind alle Keynesianer“. [iv] Wirklich unabhängige Zentralbanken finden sich heute tendenziell am ehesten in historisch protestantisch geprägten Ländern. [v] Tatsächlich haben sich die durch FED und EZB jeweils in Umlauf gebrachten Geldmengen zwischen 2000 und 2020 ungefähr verdreifacht, ohne dass es in den USA oder der EU zu einer nennenswerten Inflation gekommen wäre. Möglich ist dies, weil es zahlreiche Transaktionen gibt – etwa Zahlungen innerhalb des Bankensystems oder der Kauf von Aktien durch die Haushalte – die nicht in die Berechnung der BIP einfließen.












