top of page

Suchergebnisse

100 Ergebnisse gefunden mit einer leeren Suche

  • Newton und Leibniz reisen in die Unendlichkeit

    Newton und Leibniz reisen in die Unendlichkeit Im 17. Jahrhundert hatte die wissenschaftliche Revolution bereits beachtlich an Fahrt aufgenommen; die Naturphilosophen   drangen immer tiefer in die materielle Ordnung der Welt ein. Schon bald zeigte sich, dass die mathematische Beschreibung rein statischer Zustände hierzu nicht mehr ausreichte. Um das Jahr 1670 stellten sich daher zwei große Geister, Isaac Newton   (1643-1727) und Gottfried Wilhelm Leibniz  (1646-1716), unabhängig voneinander sehr grundsätzliche Fragen. Newton war bei einer recht einfachen Naturbeobachtung, dem Fall eines Apfels, auf ein Phänomen gestoßen, bei dem ihn die bekannten Werkzeuge der Algebra   und Geometrie   im Stich ließen. Der Apfel fällt keinesfalls gleichförmig, sondern zu Beginn langsamer, am Ende seiner Bahn aber schneller. Während des Falls erhöht sich die Geschwindigkeit kontinuierlich: In jedem noch so winzigen Augenblick ist sie grösser, als im vorangegangenen Moment. Wie ließ sich dieses Verhalten mathematisch korrekt beschreiben?nkno Ein Apfel brachte den Stein ins Rollen Newton machte sich daran, das fehlende Rechenwerkzeug, selbst zu bauen. Dabei bediente er sich eines überaus dreisten Taschenspielertricks. Sein Kunstgriff gilt heute als die Geburtsstunde der Analysis , der Mathematik, mit der man all jenen Erscheinungen zu Leibe rückt, bei denen sich die Bedingungen laufend ändern. Die neue Methode war keine bloße Weiterentwicklung von Algebra und Geometrie, sie war eine grundsätzlich neue Art die Welt zu betrachten und ihre Dynamik einzufangen. Algebra und Analysis verhalten sich zueinander wie Foto zu Film. Die Mathematik hatte laufen gelernt. Newtons Geniestreich bestand darin, die Wechselhaftigkeit der Welt mithilfe einer Rechengröße einzufangen, für die es keine Zahl gibt: die Unendlichkeit . Um seinen Gedankengang nachzuvollziehen, müssen wir zunächst das Wesen von Funktionen betrachten. Funktionen sind Abbildungen von Zusammenhängen zwischen variablen Größen. Üblicherweise wird dabei die unabhängige Variable (Ursache) mit x und die abhängige Variable (Wirkung) mit y bezeichnet. Man kann dann sagen y ist eine Funktion, eine Abbildung, von x oder kurz: y = f (x). So lässt sich die Unendlichkeit konstruieren... Was sind eigentlich Funktionen und welchen Beitrag leisten sie zur Welterklärung? Funktionen sind Rechenanweisungen, die algebraisch darstellen, wie das eine vom anderen abhängt, gewissermaßen der Klebstoff, der Zahlenmengen miteinander verbindet. Damit lassen sich Annahmen über die Beschaffenheit der Welt mathematisch beschreiben: Die Umlaufbahnen der Planeten sind abhängig von der Gravitation, die Geschwindigkeit eines Segelschiffs von der Windstärke, der Treibstoffverbrauch eines Autos von seinem Gewicht, das Pflanzenwachstum von der Intensität der Sonnenstrahlen, die Nachfrage vom Preis. [i]   Wer die Welt beschreiben möchte, muss nach Funktionen suchen, die diese Zusammenhänge abbilden. Betrachten wir beispielhaft zwei denkbar einfache Abhängigkeiten: Lineare und exponentielle Funktionen y = x besagt, dass der abhängige Wert dem unabhängigen genau entspricht. Wendet man diese Funktionsvorschrift auf die unendliche Menge der reellen Zahlen  an, und überträgt sie in ein kartesisches Koordinatensystem , erhält man den Funktionsgraphen, eine Gerade, die von links unten nach rechts oben ansteigt. Der Funktionsgraph macht den Zusammenhang geometrisch sichtbar und somit anschaulich. Die Steigung der Funktion ist leicht zu beschreiben: Immer, wenn man, wie auf einer Treppe, eine Einheit nach rechts und eine Einheit nach oben geht, stößt man wieder an die Linie des Funktionsgraphen. Die Steigung, der Quotient aus Höhe und Tiefe der Stufen, beträgt also stets „1“, ganz gleich, welchen Punkt der Geraden wir betrachten. Bei der zweiten Funktion, y = x^2, kommen wir mit der Treppen-Metapher jedoch sofort ins Stolpern, denn die Höhe jeder Treppenstufe verändert sich nun von Schritt zu Schritt. Der Funktionsgraph ist Kurven zeichnen sich dadurch aus, dass ihre Steigung an jedem Punkt eine andere ist. Lineare und exponentielle Funktionen leisten sehr unterschiedliche Beiträge zu unserem Weltverständnis. Unsere Wahrnehmung und Intuition ist von linearem Denken geprägt. Das entspricht unserer Alltagserfahrung und der evolutionären Prägung der letzten Jahrhunderttausende: Wir benötigen einen Tag, um eine bestimmte Strecke zurückzulegen und zwei Tage für die doppelte Strecke. Wenn wir ein Feld an einem Morgen bestellen, brauchen wir drei Vormittage für drei ähnlich große Felder und fünf Rinder fressen fünfmal so viel Heu wie ein Rind. Exponentielle Zusammenhänge hingegen sind Ausdruck von Wachstums- und Zerfallsprozessen, wie sie uns vielfach in der Natur begegnen: Erdbeschleunigung, Radioaktivität, Bakterienkolonien, Kaninchenpopulationen, Weltbevölkerung. Sie finden sich aber auch in kulturellen und technischen Zusammenhängen, etwa bei Infektionsraten, Zinsen oder dem Wachstum von Informationsspeicherkapazitäten auf Computerchips. Sind wir mit exponentiellen Verläufen konfrontiert, ist unsere Intuition dahin. Eine Kugel, die mit doppelter Geschwindigkeit aufschlägt, verdoppelt ihre Wirkung nicht, sondern vervierfacht sie. Die dreifache Geschwindigkeit führt bereits zu einem neunfach verstärkten Effekt. Wir neigen dazu, exponentielles Wachstum zu unterschätzen, insbesondere weil der anfänglich flache Kurvenverlauf von einer linearen Entwicklung kaum zu unterscheiden ist. Doch haben exponentielle Prozesse erst einmal Fahrt aufgenommen, geraten sie sehr schnell außer Kontrolle. Das bekannte Beispiel, das harmlos mit einen Reiskorn auf dem ersten Feld eines Schachbretts beginnt und bei dem sich die Körnerzahl mit jedem neuen Feld verdoppelt, führt dazu, dass sich auf dem letzten Feld eine Reismenge türmt, für deren Abtransport man einen Zug von über 100 Millionen Kilometern Länge bräuchte. Ließe sich ein Blatt Papier 42-mal hintereinander falten, so würde seine Höhe von der Erde bis zum Mond reichen. Die Evolution hat uns das intuitive Verständnis für Wachstumsdynamiken nicht in die Wiege gelegt. Allein die Mathematik kann uns hier auf den Boden der Tatsachen zurückholen. Ein unerhörter Taschenspielertrick Doch zurück zu Newtons Problem. Ihn beschäftigte die Frage, wie sich die laufend ändernde Steigung von Exponentialfunktionen für einen beliebigen Punkt ermitteln lässt.   Seine Idee leuchtet jedem ein, der schon einmal das Meer betrachtet hat: Der Horizont erscheint uns als eine gerade Linie. Der Horizont: Schnurgerade - oder doch nicht? Tatsächlich aber ist er gekrümmt; wir nehmen es nur deshalb nicht wahr, weil wir lediglich einen sehr kleinen Ausschnitt des Erdumfangs sehen. Diesen Gedanken können wir auf die Kurve übertragen: Dazu legen wir eine Gerade so durch einen Kurvenabschnitt, dass sie den Funktionsgraphen in zwei Punkten schneidet. In der Geometrie   spricht man in diesem Fall von einer Sekante .   Taschenspieler am Werk: der Übergang vom Differenzenquotienten zum Differenzialquotienten Der Sekantenabschnitt innerhalb der Kurve lässt sich als Hypotenuse – die längste Seite eines rechtwinkligen Steigungsdreiecks – betrachten. Sie beschreibt die Steigung zwischen den beiden Schnittpunkten. Im Durchschnitt steigt die Gerade genauso stark wie der durch sie begrenzte Kurvenabschnitt, nur, dass die Gerade gleichmäßig ansteigt, während das Kurvensegment zunächst weniger stark, dann aber stärker als die Gerade zunimmt. Nähern wir nun die beiden Schnittpunkte einander an, indem wir etwa den unteren Punkt entlang der Kurve nach oben schieben, wird das Steigungsdreieck zunehmend kleiner. Damit wird es immer schwieriger, einen Unterschied zwischen der Hypotenuse des Steigungsdreiecks und dem durch sie definierten Kurvenabschnitt auszumachen; der Fehler, der durch die Krümmung der Linie entsteht, wird, wie beim Meereshorizont, in dem Maße kleiner, in dem wir den betrachteten Abschnitt verringern . Gleichzeitig wird das Verhältnis der beiden kurzen Dreieckseiten – der so genannte Differenzenquotient  – grösser, denn die Kurve steigt im Verlauf ja immer stärker an. Wenn wir nun den unteren Punkt so weit nach oben schieben, dass er sich mit dem oberen Punkt deckt, verschwindet das Dreieck. Die Sekante ist zu einer Tangente geworden: Die Steigungsgerade schneidet die Kurve jetzt nicht mehr, sondern berührt sie nur noch in einem einzigen Punkt. Trickreiches und streitsüchtiges Genie: Isaac Newton In dem Augenblick, in dem aus der Sekante eine Tangente wird, ist die Länge der beiden kurzen Dreiecksseiten null; mit diesem Übergang wird aus dem Differenzenquotient der „ Differenzialquotient “ – er gibt uns die Steigung der Kurve am Tangentenpunkt an.   Das ist der ganze Trick! Durch Umformung des Differenzialquotienten lässt sich zeigen, dass die Steigung für einen beliebigen Kurvenpunkt als eine neue Funktion – die so genannte Ableitung der ursprünglichen Kurvenfunktion – dargestellt werden kann. Beispielsweise erhält man die Ableitung einer Funktion der Form y = x^n, indem man den Exponenten n der unabhängigen Variablen x um eins verringert und n vor die Variable schreibt. Die erste Ableitung unserer Funktion y = x^2 lautet also y = 2x^1. Wir können nun beliebige Werte entlang der x-Achse einsetzen und für jeden dieser Werte die Steigung am entsprechenden Kurvenpunkt ermitteln. Am Punkt x = 0 ist, wie sich direkt aus dem Funktionsgraphen ablesen lässt, die Steigung null. An der Stelle x = 0,5 beträgt die Steigung 1, an der Stelle 2 beträgt sie 4. Ein neues Werkzeug der Weltbeschreibung Die Differenzialrechnung  war das Werkzeug, das bisher gefehlt hatte. Ihr genialer Kunstgriff ist die Einbindung eines irrealen Konstrukts – der Vorstellung eines unendlich kleinen Dreiecks – um ein höchst reales Problem zu lösen. Auch bei der Differentialrechnung lässt sich die Perspektive umkehren: Dies führt uns zur Integralrechnung, die es uns   beispielsweise erlaubt, die Größe der Fläche unterhalb einer Kurve zu bestimmen. Auf den Kopf gestellte Differentialrechnung: das Prinzip der Integralrechnung Die grundlegende Überlegung ist die gleiche. Betrachten wir dazu die Fläche, die seitlich durch die beiden senkrechten Geraden an den Stellen a und b, unten durch die x-Achse und oben durch die Kurve begrenzt wird: Wäre diese Fläche rechteckig, ließe sie sich rechnerisch leicht bestimmen. Wenn wir die Fläche mit kleinen Rechtecken ausfüllen, erhalten wir immerhin einen Näherungswert. Was die Methode jedoch ungenau macht, sind die weißen Flächen unter der Kurve. In dem Maße, in dem wir nun die Rechtecke weiter verkleinern, verringern wir diese Unschärfe. Die weißen Flächen unter der Kurve schrumpfen und nähern sich zunehmend einer Dreiecksform, die wir schließlich mit dem bereits bekannten Unendlichkeits-Trick verschwinden lassen können. [ii]  Vergegenwärtigen wir uns noch einmal, was wir gerade getan haben: Wir haben unendlich viele, unendlich kleine Flächen addiert und erhalten so eine Zahl, die uns eine reale Fläche unter einer Kurve angibt. Auch nur ein Mensch: Gottfried Wilhelm Leibniz Da Leibniz unabhängig von Newton fast zur gleichen Zeit dieselbe Idee hatte, gerieten die beiden über die Urheberschaft der Infinitesimalrechnung in einen langjährigen, erbitterten Prioritätsstreit, bei dem fast jedes Mittel recht war, um den anderen zu diskreditieren – ganz offenbar sind auch Mathematiker nur Menschen. [iii] Die Wissenschaft hielt jedenfalls am Ende des 17. Jahrhunderts ein neues, mächtiges Werkzeug in der Hand, mit dem sich die zahllosen Windungen, Wellen und Wachstumsprozesse der Natur korrekt beschreiben ließen. Newton konnte nun die Geschwindigkeit des sich beschleunigenden Apfels für jeden Zeitpunkt exakt berechnen und so dem Gesetz der Gravitation auf die Spur kommen. Nicht nur Hegel sinnierte über den Weltgeist, sondern auch Pierre-Simon Laplace Alles unter Kontrolle? Die Möglichkeit, Naturgesetze   mathematisch exakt darstellen zu können, eröffnete neue Perspektiven: Auch künftige Ereignisse ließen sich nun verlässlich prognostizieren. Der mathematische Fortschritt befeuerte ein Euphorie, die Hoffnung, die Welt mithilfe der Mathematik vollständig beschreiben zu können. Der Franzose Pierre-Simon Laplace  spann diesen Gedanken weiter. 1814 ersann er einen fiktiven, allwissenden Weltgeist , der sämtliche Kausalitäten des Universums in Form von Funktionsgleichungen erfassen und simultan verarbeiten kann. Rein theoretisch ließ sich damit die Bewegung aller Materie und damit die Zukunft der Welt bis an ihr Ende vorausberechnen. Der Laplacesche Dämon  – wir würden ihn heute als „Supercomputer“ bezeichnen – wurde zum Leitmotiv eines deterministischen Weltbilds, das neben den Naturphilosophen bald auch das Denken von Militärs, Sozialutopisten und Ökonomen bestimmen würde: Warum sollte nicht auch menschliches Handeln mathematisch beschreibbar und somit prinzipiell berechenbar sein? Einmal mehr verhieß Mathematikbeherrschung Macht. Doch es gab da noch ein kleines Problem: Bislang hatte man die Rechnung ohne den Zufall   gemacht...     Den Blog entdecken   Wer mehr wissen will: Hall, A. Rupert (1980): „Philosophers at war – The quarrel between Newton and Leibniz“, Cambridge University Press. Courant, Richard / Robbins, Herbert (2010): „Was ist Mathematik?“, Springer. Beutelspacher, Albrecht (2010): „Kleines Mathematikum“, C.H. Beck. Enzensberger, Hans Magnus (1998): „Die Mathematik im Jenseits der Kultur - Eine Außenansicht“ in FAZ vom 29.08.1998. Bildnachweise: Konstruktion der Unendlichkeit Anmerkungen [i]  In der Realität gibt es fast immer mehrere Einflussgrößen. Der Treibstoffverbrauch eines Fahrzeugs ist etwa auch von der Geschwindigkeit abhängig. Praktischerweise konzentriert man sich aber auf einen Parameter und unterstellt die anderen als konstant. [ii]  Während bei der Differentialrechnung über die Ableitung die Steigungsfunktion aus der Kurvenfunktion „f“ hergeleitet wird, geht es bei der Integralrechnung umgekehrt darum, die so genannte Stammfunktion zu „F“ zu ermitteln. Die Stammfunktion ist jene Abbildung, die abgeleitet die Ausgangsfunktion „f“ ergibt. Eine Stammfunktion für y = x^2 könnte beispielsweise y = 1/3 x^3 + 7 lauten. Das Integral lässt sich nun ganz einfach bestimmen, indem man die Werte für a und b als untere und obere Grenze in die Stammfunktion einsetzt und dann den Wert für a von dem Wert für b abzieht: . Ist b = 4 und a = 2, erhält man für b 1/3 4^3 = 21,3333... , für a = 1/3 2^3 = 2,6666.... Die Differenz ergibt das bestimmte Integral von 18,66666... . Die Fläche unter der Kurve beträgt also 18,66666...  Flächeneinheiten. [iii] Zur Geschichte dieses Streits siehe Hall (1980).

  • Kants langer Schatten: von Fichtes "Ich" zu Hegels "Weltgeist"

    Fortsetzung von "Kant für Einsteiger" Kants idealistische Erben Kants Werk   – wir haben es im letzten Blog zur Kategorie Philosophie  betrachtet – hatte neue Maßstäbe gesetzt. Eine ganze Generation deutscher Philosophen sollte sich in den drei Jahrzehnten nach seinem Tod am Erbe des kleinen Mannes aus Königsberg abarbeiten. Diese Blütezeit der Philosophie bezeichnen wir heute als den Deutschen Idealismus   mit Johann Gottlieb Fichte , Friedrich Wilhelm Joseph Schelling  und Georg Wilhelm Friedrich Hegel  als prominentesten Vertretern. Wie Kant wollten auch sie Erkenntnis und Moral vor den destruktiven Tendenzen, die im 18. Jahrhundert von den britischen Inseln gekommen waren, bewahren . [i]  Den Idealisten war gemein, dass sie Kants Transzendental-, Moral- und Geschichtsphilosophie als großen Fortschritt anerkannten: Unserer Erkenntnisfähigkeit sind Grenzen gesetzt; menschliches Handeln sollte moralisch begründbaren Prinzipien der Vernunft folgen. Das Dreigestirn des Deutschen Idealismus: Fichte, Schelling und Hegel Auf diesem kantschen Fundament errichteten Fichte, Schelling und Hegel ihre eigenen philosophischen Gedankengebäude . Fichte war überzeugt, dass sein Lehrmeister bei der Analyse des Verstandes nicht bis zu dessen innerstem Wesen dem handelnden, subjektiven „reinen Ich“ vorgedrungen war. [ii]  Die Welt wird durch unser individuelles Bewusstsein   geschaffen; sie ist das subjektive Ergebnis eines persönlichen, schöpferischen Prozesses, der Kants „ Ding an sich “ nicht mehr benötigt. Schelling , inspiriert durch die zahlreichen naturwissenschaftlichen Fortschritte seiner Zeit, erkannte, dass sich die mechanistisch-deterministische Naturerklärung newtonscher Prägung nicht einfach auf biologische Phänomene übertragen lässt . Für Schelling bedient sich die Natur der menschlichen Erkenntnisfähigkeit, um sich ihrer selbst bewusst zu werden. Er sieht die Natur als einen einzigen gigantischen verwobenen Organismus; ein Gedanke, der Schelling zum romantischen Wegbereiter der Ökologie   macht. Fichtes und Schellings Welterklärungstheorien sollten in der (internationalen) Philosophiegeschichte keine allzu breite Wirkung entfalten, doch deutet sich bei ihnen bereits ein erweitertes Verständnis von Seelenleben und Biologie an, zwei Themen, die das 19. Jahrhundert entscheidend prägen werden. Hegels Dialektik Der bekannteste Vertreter des Deutschen Idealismus ist zweifelsohne Hegel ; er gilt bis heute als einer der einflussreichsten, aber auch umstrittensten und am schwersten zugänglichen Philosophen überhaupt. 1770 in Stuttgart geboren, lebte er als Student der Theologie in Tübingen zeitweise in einer Wohngemeinschaft mit Schelling und dem Dichter Friedrich   Hölderlin . In seinem ersten großen Werk, der 1807 erschienenen „ Phänomenologie des Geistes “, führt Hegel bereits seinen zentralen Gedanken aus. Er verdeutlicht ihn am Leben einer Pflanze. Aus dem Samen wird eine Blüte, aus der Blüte eine Frucht. Mit der Frucht als dritter Phase schließt sich der Kreis, denn sie enthält den Samen für einen neuen Zyklus des Werdens und Vergehens. Nach Hegel können wir die Pflanze nur verstehen, wenn wir den gesamten Prozess mit all seinen Stadien betrachten. Was für die Pflanze gilt, gilt für alle Erscheinungen. Entwicklungen vollziehen sich stets in drei Schritten ; das ist das Prinzip, das die Welt regiert – von der Natur über die christliche Trinität bis hin zur Menschheitsgeschichte. Anders als Kant sieht Hegel  Antinomien  als etwas Positives . Die Wahrheit liegt nicht in der Beschreibung von Zuständen, wir müssen die Welt vielmehr als dynamischen Prozess begreifen. Das Einzelne erschließt sich uns nur, wenn wir sehen, wie es mit dem Ganzen verwoben ist. Die Methode, mit der sich dieses Prinzip beschreiben lässt, ist die Dialektik . Hegel ist nicht der erste, der diese Technik verwendet. Seit der Antike   bediente man sich ihr, um durch Rede und Gegenrede auf eine höhere Erkenntnisstufe zu gelangen. Aber erst Hegel macht aus dem Dreischritt von These , Antithese   und ihrer Auflösung, der Synthese , ein grundlegendes Prinzip, einen konstruktiven Kampf der Widersprüche, der, ganz im Sinne Heraklits, die Entwicklung des Universums vorantreibt und alles seiner Bestimmung zuführt. [iii]  So, wie die Frucht den neuen Samen in sich trägt, ist die Synthese bereits wieder die These des nachfolgenden Entwicklungsschritts.   Weltgeist und Zeitgeist In seiner 1817 erschienenen „ Enzyklopädie der philosophischen Wissenschaften im Grundrisse “ und in den während der 1820er Jahre gehaltenen „ Vorlesungen über die Philosophie der Weltgeschichte “ entwickelt Hegel seine Idee weiter: Die Geschichte der Welt ist die Geschichte der dialektischen Selbstentfaltung eines göttlichen Weltgeistes . Der Prozess, durch den diese allumfassende Intelligenz die Vereinigung von Natur und Denken   vorantreibt, verläuft – wie könnte es anders sein – in drei Schritten. Auf der ersten Stufe ist alles Geist; wir befinden uns in der immateriellen Welt der Logik. Auf der nächsten Stufe materialisiert sich der Geist in Raum und Zeit; die These „Geist“ hat ihre Antithese „Materie“ hervorgebracht. Oder, wie die Bibel es ausdrückt: „Das Wort ward Fleisch“. Die Synthese aus Geist und Natur ist der Mensch; mit ihm kommt das Bewusstsein in die Welt. Die Geschichte ist damit bei ihrer letzten Phase angelangt und nähert sich ihrem eigentlichen Ziel: Der Geist kehrt zu sich selbst zurück und gibt sich vollständig zu erkennen. [iv]  Wie bei Schelling, ist der Mensch dabei allein Mittel zum Zweck. Der Weltgeist bedient sich seiner, um den Erkenntnisprozess zu vollziehen. Dabei manifestiert sich der Weltgeist zunächst als der jeweilige „ Zeitgeist “ einer bestimmten geschichtlichen Epoche. So äußert sich etwa der Absolutismus   in der Vorstellung totaler Macht, die ein einziger Souverän ausübt; nicht nur das politische System, auch Architektur, Kunst oder Mode sind Ausdruck dieses Geists. Aus der These „Absolutismus“ entwickelt sich die Antithese „Aufklärung“, die Vorstellung, dass nicht der Monarch, sondern das Volk der Souverän ist. Ihren Kulminationspunkt findet die Gegenthese in der Französischen Revolution . Der Übergang zu einem neuen Zeitgeist wälzt nicht nur das politische System, sondern auch alle anderen Bereiche der Gesellschaft und der Kultur grundlegend um. Da sich der geschichtliche Prozess der Bewusstwerdung in Zyklen des Werdens und Vergehens vollzieht, gibt es auch keine absoluten Wahrheiten. Jede Epoche hat vielmehr ihre eigne Wahrheit, die durch eine neue Wahrheit der Folgeepoche abgelöst wird. Die Bestimmungsgrößen der vorangegangenen Zeit werden durch den Epochenwandel keineswegs vernichtet; sie werden vielmehr mitgenommen und auf eine höhere Ebene gehoben. Die Synthese aus Absolutismus und Aufklärung verkörpert zu Hegels Lebenszeit die Napoleonische Epoche : Einerseits krönt sich der Konsul der Französischen Republik in absolutistischer Manier selbst zum Kaiser; andererseits führt der neue Herrscher aber auch in weiten Teilen Europas ein fortschrittliches, den Geist der Aufklärung atmendes Rechtsystem ein. Manche sind erwählt, den Lauf der Geschichte zu beschleunigen Herausragenden Persönlichkeiten der Geschichte, wie Napoleon Bonaparte , Alexander dem Großen oder Julius Cäsar  kommt die Aufgabe zu, den Prozess voranzutreiben, denn sie haben die Fähigkeit, zu erkennen was „an der Zeit“ ist. Doch wohin strebt dieser Prozess, der das Bewusstsein der Menschheit in Dreierschritten auf immer höhere Ebenen hebt? Für Hegel ist dieses Ziel die individuelle und gesellschaftliche Freiheit . Waren seit der Vorantike nur einzelne oder wenige frei, so ist es die Bestimmung des geschichtlichen Werdens, letztlich allen Menschen den Weg in die Freiheit zu öffnen. Gewährleisten kann diese Freiheit wiederum nur der Staat; indem er für alle verbindliche Normen und Rechtssicherheit schafft, ist er das „an und für sich Vernünftige“ die ultimative Bedingung und Verwirklichung der Freiheit. Hegel begegnet Napoleon 1806 in Jena In dieser letzten Phase wird der Zeitgeist zum Weltgeist; er bedient sich der Philosophen, um seine Gedanken zu verkünden. Nur die Philosophen sind in der Lage, den Geist mit seinem eigenen Medium, dem Denken, wieder zu vereinen. So führt der Prozess des dialektischen Werdens den Geist von der Logik über die Natur zu Bewusstsein und Philosophie. Alles, was sich auf dem Weg dorthin vollzieht, dient dabei einem höheren Zweck. Da der Lauf der Geschichte der Weg des Geistes zu seiner Selbstoffenbarung ist, werden wir Ereignisse, die uns unsinnig, böse oder grausam erscheinen, in der Rückschau einst als notwendig erkennen. Hegel sah sein Werk als den Abschluss der gesamten abendländischen Philosophiegeschichte und in der preußischen Monarchie die Verwirklichung des sittlichen Idealstaats – was ihm den Vorwurf einbrachte, „preußischer Staatsphilosoph“ zu sein. Die Idee eines vorbestimmten Verlaufs der Weltgeschichte, die bereits Augustinus  und Kant propagiert hatten, hatte Hegel zu einem allumfassenden philosophischen Gedankengebäude ausgebaut, das sich in der Folge als außerordentlich wirkmächtig erweisen sollte. Die Junghegelianer entwickeln die Philosophie des Meisters weiter Hegel starb 1831 in Berlin, wahrscheinlich war er Opfer der damals wütenden Choleraepidemie . Seine Schüler spalteten sich nach seinem Tod in eine konservative und eine linke Fraktion. Während erstere bald in der philosophiegeschichtlichen Bedeutungslosigkeit verschwand, sollten die Linken, die so genannten Junghegelianer , einen beachtlichen Einfluss auf die weitere Menschheitsgeschichte haben. Die drei bekanntesten Schüler Hegels waren Ludwig Feuerbach , Karl Marx  und Friedrich Engels . Wollten Kant und Hegel überwinden: Karl Marx und Friedrich Engels Die Junghegelianer sahen im preußischen Obrigkeitsstaat keinesfalls ein Ideal und entwickelten ihrerseits eine Antithese. Die neue Philosophie war gekennzei chnet durch eine radikale Abkehr vom Idealismus , heftige Religionskritik und ein durch und durch materialistisches Weltbild. Ideen sind für Marx und Engels keine geistigen Phänomene, sondern Ausdruck von Besitzverhältnissen. Doch wie bei Hegel ist auch hier der Gang der Weltgeschichte dialektisch vorherbestimmt: Die These des Kapitalismus   und des mit ihm verbündeten autoritären Staats wird an ihren inneren Widersprüchen scheitern und sich selbst zerstören. Über einen notwendigen Zwischenschritt, der Antithese der Diktatur des Proletariats , strebt dann die gesamte Menschheit der Synthese zu, dem Ideal einer klassenlosen Gesellschaft. Kaum eine andere philosophische Lehre dürfte das Leben so vieler Menschen bestimmt haben, wie die verschiedenen Versuche, den historischen Materialismus  im 20. Jahrhundert politisch in die Tat umzusetzen.   Den Blog entdecken     Wer mehr wissen will: Hegel, Georg Wilhelm Friedrich (2014): „Enzyklopädie der philosophischen Wissenschaften im Grundrisse“, Holzinger. Hegel, Georg Wilhelm Friedrich (2013): „Phänomenologie des Geistes“, Holzinger. Hegel, Georg Wilhelm Friedrich (1996): „Vorlesungen über die Philosophie der Weltgeschichte“, Erster Teil, Meiner. Hegel, Georg Wilhelm Friedrich (1979): „Vorlesungen über die Geschichte der Philosophie“, Suhrkamp. Marx, Karl (1979): „Das Kapital“, Dietz.   Russell, Bertrand (2012): „Philosophie des Abendlandes”, Anaconda. Vorländer, Karl (1903) „Geschichte der Philosophie“ Band III: Die Philosophie der Neuzeit, abrufbar unter https://www.textlog.de/6484.html Conradt, Michael (2011): „Hegel: Die Welt ist Geist”, Manuskript zur Radiosendung Anmerkungen [i] Vgl. Russel (2012) S. 712. [ii] Vgl. Vorländer (1903) §47.1. [iii] „Hier sehen wir Land; es ist kein Satz des Heraklit, den ich nicht in meine Logik aufgenommen" [iv] Vgl. Conradt (2011). Hegel (1979). S. 319.

  • Ökologie für Anfänger: Im Dschungel der Wechselwirkungen

    Im Dschungel der Wechselwirkungen Betrachtet man die Erde im Querschnitt, so findet sich fast alles Leben   innerhalb einer hauchdünnen Schicht von nur wenigen hundert Metern Durchmesser. An den extremen Rändern der Biosphäre  – Tiefseegräben und Troposphäre – macht sich das Lebendige bereits äußerst rar. Das Drama der Evolution   spielt auf einer Bühne, dünn wie Blattgold. Und dennoch hat dieser winzige Lebensstreifen das Antlitz der Erde verändert, spätestens seit vor 3,4 Milliarden Jahren   Einzeller damit begannen, die Atmosphäre mit Sauerstoff   anzureichern. Ernst Haeckel prägte als Erster den Begriff "Ökologie" Mit der Entwicklung sich selbst replizierender Moleküle hat sich die Komplexität der Wechselwirkungen  auf unserem Planeten dramatisch vervielfacht. Einer der ersten, der dieses Beziehungsgeflecht systematisch untersuchte, war der Arzt, Zoologe und frühe Darwin -Verfechter Ernst Haeckel , der 1866 für die neue Wissenschaft den Begriff Ökologie  prägte. [i]     Thermodynamische Systeme und Kreisläufe Ein grundlegendes Problem der Ökologie besteht darin, Wechselwirkungen voneinander abzugrenzen. Letztlich ist die Erde ein einziges, großes und offenes Ökosystem , das geordnete Sonnenenergie ein- und ungeordnete Wärme ausatmet; ein unablässiger Energiestrom, dessen Entropie differenz Atmosphäre, Meere, Landschaften und Lebewesen pausenlos in Bewegung hält, ein ständiges Werden und Vergehen, bei dem Bakterien, Pilze, Pflanzen und Tiere Stoffe und Energie   aufsaugen, um sie in immer wiederkehrenden Kreisläufen auf- um- und abzubauen. Ihr Leben und Sterben wirkt auf andere Lebewesen und die unbelebte Natur zurück – ein Netz gegenseitiger Abhängigkeiten, bei dem fast alles auf fast alles andere direkten oder indirekten Einfluss hat.   Ökosysteme Um dieser Komplexität Herr zu werden, lösen die Ökologen das System Erde in kleinere Teilsysteme mit ähnlichen Rahmenbedingungen auf: Regenwälder, Geröllwüsten, Tundren, Korallenriffe oder Moore. Betrachten wir beispielhaft eines der wenigen verbliebenen mitteleuropäischen Moore, in dem sich ein kleiner Tümpel befindet. Auch der Tümpel ist ein Ökosystem. Es ist geprägt durch ein gemäßigt feuchtes Klima mit Jahreszeiten; der sauerstoffarme, leicht saure Moorboden sorgt dafür, dass Pflanzenreste nicht vollständig verrotten; Gräser, Wiesenknöterich, Lichtnelken, Kalmus, Teichrosen und Tausendblatt leben in einer Gemeinschaft, einer Biozönose , zusammen mit Insekten, Schnecken, Fischen, Fröschen und Störchen. Ein Tümpel in Norddeutschland Die Grenzen des kleinen Ökosystems sind fließend. Energie, Baustoffe, neue Tiere und Pflanzen strömen hinein, bleiben, oder verlassen das System wieder. Die Pflanzen entnehmen der Luft Kohlenstoff , dem Boden Wasser, Stickstoff, Schwefel und Phosphor und bauen mit Hilfe der Sonnenenergie ihr Gewebe auf. Um leben und wachsen zu können fressen Schnecken die Pflanzen, verdauen die Baustoffe und befreien damit die gefangene Sonnenenergie wieder. Frösche fressen die Schnecken, nur, um ihrerseits Störchen zum Opfer zu fallen. Mit jedem Schritt werden Energie und Materie an eine höhere Ebene der Nahrungskette weitergereicht.  Viel oder wenig: Was ist die bessere Strategie? Wie effizient sind Nahrungsketten? In dieser Haushaltsgemeinschaft sind Pflanzen Produzenten, Schnecken Primärkonsumenten, Frösche Sekundärkonsumenten und Störche Endkonsumenten – Meister Adebar steht an der Spitze der Nahrungskette  des kleinen Biotops. Aus thermodynamischer Sicht ist der Energiefluss entlang der Nahrungskette alles andere als effizient. Auf der untersten Stufe verwenden die Pflanzen die Hälfte der empfangenen Sonnenenergie für den Erhalt ihrer Lebensfunktionen; der Rest wird in den Aufbau der eigenen Biomasse investiert. Nur diese zweite Hälfte steht den Schnecken zur Verfügung. Doch der Energiebedarf von Konsumenten ist größer als der der Pflanzen – sie bewegen sich und müssen wesentlich komplexere Strukturen mit ATP   versorgen. Tiere können daher nur etwa 10% der gefressenen Energie dem Aufbau der eigenen Körpermasse widmen. Ein armseliger Wirkungsgrad, der sich auf jeder weiteren Stufe der Nahrungskette wiederholt: Von 100 pflanzlich erzeugten Energieeinheiten kommen 50 bei den Schnecken an, 5 bei den Fröschen und nur noch eine halbe bei den Störchen. Pflanzen machen also viel mehr Tiere satt als Fleisch. Der abnehmende Wirkungsgrad der Nahrungskette sorgt zwangsläufig dafür, dass sich die Zahl der Konsumenten und damit das Risiko, selbst als Beute zu enden, nach oben hin zunehmend verringert.   Überlebensstrategien und Gleichgewichte Ihren spezifischen Sterberisiken begegnen die verschiedenen Spezies mit unterschiedlichen Fortpflanzungsstrategien. Tiere, die in der Sprache der Ökologen eine so genannte „ r-Strategie “ verfolgen, sind typischerweise klein, leicht zu erbeuten und am unteren Ende der Nahrungskette angesiedelt – rund um unseren Tümpel etwa Insekten, Schnecken, Mäuse oder Frösche. Diese Nachteile kompensieren r-Strategen durch hohe und schnelle Reproduktionsraten. Da die Eltern in der Regel nicht alt werden, muss der r-Nachwuchs rasch auf eigenen Beinen stehen. Demgegenüber setzen „ K-Strategen “, wie der Storch, auf wenige Nachkommen. Das erlaubt es ihnen, in den Nachwuchs zu investieren. Die Jungen bleiben zwar länger abhängig, haben aber aufgrund elterlicher Fürsorge bessere Überlebenschancen und mehr Zeit zu lernen. Entspricht das Verhältnis von Beutetieren zu Räubern in einem Ökosystem nicht den von der Nahrungskette geforderten Proportionen, treten Selbstregulationsmechanismen in Kraft. Gibt es zu viele Störche, geht die Froschpopulation unseres Teiches zurück. Das wiederum führt mit der Zeit zu einer Verringerung des Storchenbestandes. Die Frösche können sich dann erholen, so dass infolge auch die Zahl der Störche wieder zunimmt. So bildet sich ein dynamisches Gleichgewicht; in einem gesunden Ökosystem wird es keine großen Ausschläge zeigen. [ii]   Der Gang alles Irdischen Die Nahrungskette ist ein kleiner Teil eines großen Kreislaufs. Denn auch die Störche, als Spitzenprädatoren unseres winzigen Ökosystems, gehen am Ende den Weg alles Irdischen. Auf den verlassenen Schlachtfeldern der Selektion   zerlegen Würmer, Insekten, Pilze und Bakterien als Destruenten unauffällig organisches Material durch Fäulnis und Verwesung wieder in seine chemischen Ausgangsstoffe. Destruenten kehren die Aufbaureaktionen der Biomassen um, indem sie Abfällen, Exkrementen und Leichen ihre letzte verbliebene chemische Bindungsenergie entziehen. Ohne ihr destruktives Werk würde sich überall tote organische Materie aufhäufen und das Leben über kurz oder lang ersticken. Die Destruenten bewahren uns vor diesem schrecklichen Schicksal und geben gleichzeitig der unbelebten Natur den geborgten Kohlenstoff, Stickstoff Schwefel und Phosphor wieder zurück (Was geschehen kann, wenn ein Glied im Stoffkreislauf fehlt, zeigte sich im letzten Jahrhundert in Australien. Auf dem isolierten Kontinent gab es keine Destruenten, die in der Lage waren, den Dung der von den Europäern eingeführten Rinder und Schafe zu zersetzen. Das Problem konnte erst durch den Import afrikanischer und europäischer Mistkäfer gelöst werden.)  Der Kohlenstoffkreislauf Neue Generationen von Leben können nun die Elemente   wieder einfangen und das Spiel von vorne beginnen lassen. So wandern die Stoffe im Kreislauf zwischen belebter und unbelebter Natur hin und her.   Das Leben ist auch kooperativ Bei der Betrachtung von Nahrungsketten könnte leicht der Eindruck entstehen, dass Biozönosen vor allem durch unerbittliche Räuber-Beute-Beziehungen geprägt sind. Doch wesentliche Teile der irdischen Biomasse leben durchaus friedlich zusammen. Der konstruktive Gegenentwurf zum Räuber-Beute-Schema ist die Symbiose . Sie kennt keine Verlierer: Pilze und Bakterien bilden gemeinsam Flechten, bei denen die Pilze die Bakterien vor Austrocknung schützen und dafür im Gegenzug mit Nährstoffen versorgt werden. Blütenpflanzen entlohnen Bienen für ihre Bestäubungsdienste mit Pollen. Ameisen dürfen als Schutzmacht der Blattläuse deren Honigtau melken. Und Darmbakterien ist es gestattet, es sich als Gegenleistung für ihren Stoffwechselbeitrag im Verdauungstrakt von Mensch und Tier gemütlich zu machen. Aus Sicht der Evolution ist jede Strategie gut, die den Fortpflanzungserfolg erhöht.   Passt das? Viele Lebewesen scheinen auf den ersten Blick für ihre Umwelt wie geschaffen. Teichrosen, Knöterich, Frösche, Wasserflöhe, Libellen, Schleien und Störche sind hervorragend an das Biotop  Tümpel angepasst – so gut, dass man sich dieses Phänomen vor Lamarck und Darwin nur mit einem intelligenten Schöpfer erklären konnte. Die Passgenauigkeit der verschiedenen Spezies mit ihrem Milieu wird – etwas irreführend – als ökologische Nische  bezeichnet. In den nüchternen Augen der Ökologen sind diese Nischen einfach nur Planstellen, die im Biotop zu vergeben sind: Wer die ausgeschriebenen Bedingungen am besten erfüllt, bekommt die Stelle. Wie bei anderen Auswahlverfahren auch, wird aber kaum ein Kandidat allen Anforderungen zu hundert Prozent gerecht. Jede Art hat ein spezifisches Optimum aus Umweltfaktoren – Wasservorkommen, Temperatur, Schatten, Luftfeuchtigkeit, Nahrungsquellen – das ihrem physiologischen Wohlbefinden und damit ihren Fortpflanzungschancen am besten entspricht. Naturgemäß versuchen alle Arten, diese Nischen zu finden und zu besetzen. Überschneiden sich die Präferenzen mit denen einer anderen Art, entsteht Konkurrenz. Die unterlegene Art muss sich dann in einer Nische jenseits ihres Optimums ansiedeln. Daher leben die meisten Arten tatsächlich nicht unter den Bedingungen, unter denen sie am besten gedeihen würden. Müssen die Frösche etwa Kröten weichen, bleibt ihnen, falls sich kein anderer Tümpel findet, vielleicht nur die Möglichkeit, sich an einem benachbarten Fließgewässer niederzulassen. Das ist bei langsamen Fließgeschwindigkeiten möglich, entspricht aber nicht den optimalen Lebensbedingungen der Frösche. Jede Art hat gegenüber Abweichungen von ihrem idealen Mix an Lebensbedingungen eine mehr oder minder große Toleranz. Wie gut eine bestimmte Spezies diese Abweichung verträgt, lässt sich mit Hilfe von Toleranzkurven  darstellen. Mit ihnen beschreiben Ökologen jene Bereiche von Umweltfaktoren – für unseren Frosch etwa die Fließgeschwindigkeit eines Gewässers – mit denen eine Art jeweils zurechtkommen kann. Das Überschreiten von Toleranzschwellen bedeutet den Tod. Der Tod, den wir als „natürlich“ bezeichnen, das Sterben aus Altersschwäche, kommt in der Natur kaum vor. Jämmerlich zu verdursten, zu verhungern, zu erfrieren, erbarmungslosen Mikroben oder Fressfeinden zum Opfer zu fallen, im Schatten größerer Gewächse zu verenden oder sonst wie im Kampf um die Nische zu unterliegen, ist die Bestimmung der allermeisten Pflanzen und Tiere. So haben Rotkehlchen eine Lebenserwartung von einem Jahr, freilaufende Katzen von drei Jahren. [iv]     Störfaktor Mensch Der Mensch und die mit ihm entstandene kulturelle Evolution  ist ein neuer Spieler in diesem Beziehungsgeflecht, ein Spieler, der die bisherigen rein biologisch-ökologischen Gleichgewichtszustände massiv zu stören vermag. Heute führt der Homo sapiens dem Kohlenstoffkreislauf große Mengen von CO2 zu, die viele Millionen Jahre lang als Kohle-, Erdöl- und Erdgaslager im Boden dem globalen Stoffwechselspiel entzogen waren. Er vermindert damit die Fähigkeit unseres offenen Systems Erde, die empfangene Sonnenenergie wieder abzustrahlen. Die daraus folgende Erwärmung wird zahlreiche Arten über die Ränder ihrer Toleranzkurven bringen. Die Biosphäre wird diesen Eingriff überleben, ihr dynamisches Gleichgewicht aber wird danach ein anderes sein. Wie alle Biotope auf unserem Planeten werden dies auch die Bewohner unseres kleinen Tümpels zu spüren bekommen.     Den Blog entdecken   Wer mehr wissen will:   Bildnachweise: Tümpel   Anmerkungen [i] Das Wort Ökologie leitet sich ebenso wie der Begriff Ökonomie von dem griechischen Wort „oikos“ ab, der Haus- und Wirtschaftsgemeinschaft im alten Griechenland. Ökologie ist also die Lehre vom Haushalt der Natur. [ii] Dieser Zusammenhang wurde mathematisch erstmals und – einmal mehr – unabhängig voneinander durch den österreichischen Mathematiker Alfred Lotka und den italienischen Physiker Vito Volterra in Form nichtlinearer Differentialgleichungen beschrieben. [iv]  Bis heute fehlt eine allgemein anerkannte Theorie, die das biologische Phänomen Tod umfassend erklärt. Dass der Tod zwingend zum Leben gehöre, ist eine gängige, aber falsche Vorstellung. Denn Einzeller – sie repräsentieren immerhin die Hälfte der Biomasse der Erde – sind potentiell unsterblich: Grundsätzlich hindert sie nichts daran, sich endlos weiterzuteilen. Die Zwangsläufigkeit des biologischen Tods ist auf mehrzellige, arbeitsteilige Organismen beschränkt, in denen früher oder später lebenswichtige Gewebeteile ausfallen.

  • Warum wir nicht alles glauben sollten, was wir denken…

    Fortsetzung von "Dimensionen der menschlichen Seele" Das schwere Erbe der Evolution Unsere Gene   erzählen eine Milliarden Jahre alte Geschichte. Unter der dünnen Schicht von Bewusstsein   und Kognition , die die Evolution   erst vor kurzem über unser Großhirn   gelegt hat, befinden sich Mechanismen, die ihre Tauglichkeit bereits über hunderte von Millionen Jahren bewiesen haben. Die alten Funktionen sind trotz der rasanten kulturellen Entwicklung , die uns der Geist bescherte, nach wie vor vorhanden und in vollem Umfang aktiv: Unser Hirnstamm lässt sich von dem eines Krokodils kaum unterscheiden. Wie wir bereits gesehen haben, ersetzt das konservative Räderwerk der Evolution Bewährtes so schnell nicht. Es ist daher auch keineswegs verwunderlich, dass sich die Programme alter Hirnschichten bei jeder passenden und unpassenden Gelegenheit melden und mit den Denkmustern des Neokortex in Konflikt geraten. Oftmals liegen die Ursachen dieser Spannungen im limbischen System , denn hier werden die Emotionen  gemacht. Die zentrale Schaltstelle des Systems ist ein Hirnareal, das aufgrund seiner Seepferdchen-ähnlichen Form als Hippocampus  bezeichnet wird. Der Hippocampus ist in erste Linie ein Arbeitsspeicher, der jene Reize herausfiltert, die ins Langzeitgedächtnis überführt werden sollen, also im wahrsten Sinne „ merkwürdig “ sind. Zusammen mit der benachbarten Amygdala , dem Mandelkern, entstehen hier aber auch jene Emotionen, die wir als Angst, Wut oder Freude empfinden. [i]    Wichtige Bereiche des menschlichen Gehirns Emotionen sind angeboren und interkulturell In seinem 1872 erschienenen Buch „Der Ausdruck der Gemütsbewegungen bei dem Menschen und den Tieren“ beschreibt Charles Darwin , wie Mimik und Gestik Emotionen verraten. Darwin war überzeugt, dass zahlreiche emotionale Expressionen in allen menschlichen Kulturen gleich sind und somit angeboren sein müssen. 100 Jahre später belegte der amerikanische Psychologe Paul Ekman  diese These durch umfangreiche interkulturelle Studien. Er wies nach, dass insgesamt sieben Emotionen – Wut, Ekel, Verachtung, Trauer, Angst, Freude und Überraschung – von allen Menschen, ganz gleich, ob sie in einer pazifischen Stammesgesellschaft leben oder in den Häuserschluchten von Manhattan, gleichermaßen durch den Gesichtsausdruck kommuniziert und verstanden werden. [ii] Emotionen sind tatsächlich angeboren und nicht in einem bestimmten kulturellen Umfeld erlernt worden. Da wir Gemütsbewegungen nicht vor anderen verbergen können, ermöglichen sie sozialen Gehirnen die Gefühle der Mitmenschen zu lesen. Das limbische System teilt Umweltreize nach einem sehr einfachen Schwarz-Weiß-Raster in die beiden Kategorien gut oder schlecht für den Reproduktionserfolg ein. Auffallend ist, dass die sieben Basisemotionen vor allem um negative Gefühle kreisen. Das liegt daran, dass Schlechtes und Überraschendes aus Sicht der Evolution einen höheren Informationswert besitzt. Wer bei Gefahr die falschen Programme abspulte, zählt nicht zu unseren Vorfahren. Es gilt das Motto: Ein Baum, der fällt, ist lauter als ein Wald, der wächst. [iii]  Potentielle Bedrohungen aktivieren sofort Schutzmechanismen. Bei Wut werden Adrenalin und Kortisol ausgeschüttet, Botenstoffe, die Blutdruck und Herzfrequenz erhöhen und uns so in Kampfbereitschaft versetzen. Ekel schützt uns vor verdorbener Nahrung, Verachtung vor falschen Freunden. Überrascht sind wir, wenn wir eine plötzlich eintretende neue Situation noch nicht als gut oder schlecht bewerten können. Der Arbeitsspeicher des Hippocampus wird dann sofort geleert, um Kapazitäten für die Klärung der neuen Lage bereitzustellen.   Unsere innere Alarmanlage Ist Gefahr im Verzug, wird die Amygdala aktiv. Das Alarmzentrum des limbischen Systems enthält eine Risikodatenbank, die mit sehr einfachen, aber schnellen Algorithmen verknüpft ist. Um die eingehenden Reize noch rascher verarbeiten zu können, werden die Datensätze weiter reduziert: Das Farbsehen wird ausgeschaltet, die Bildauflösung zu einem unscharfen schwarz-weiß-Bild vereinfacht. Die Emotionen Wut und Angst müssen möglichst schnell eine Kampf-oder-Flucht-Reaktion   vorbereiten. Es bleibt keine Zeit, das Bewusstsein einzuschalten – der Grund, warum wir die groben schwarz-weiß Pixel gar nicht erst wahrnehmen. Emotionen lassen sich auch leicht auf andere übertragen. Insbesondere Angst ist ansteckend: Fangen Menschen in unserer Nähe plötzlich an zu rennen, rennen auch wir, ohne uns lange zu fragen warum. Wenn in der ostafrikanischen Savanne ein Rudel Löwen auftauchte, war dies ein sinnvolles Muster; in den Straßen oder Stadien unserer modernen Zivilisation aber kann dieses Verhalten tödliche Massenpaniken auslösen. [iv]  Dieses Schema ist tief in uns eingebrannt und lässt sich von der Ratio nicht übersteuern – die älteren Programme der Evolution sitzen an einem viel längeren Hebel. Emotionen sind zugleich unsere besten Freunde und unsere schlimmsten Feinde.   Drei Hormone, die uns glücklich machen Immerhin hat die Natur auch der Freude eine Berechtigung eingeräumt. Freude ist eine überaus vielschichtige Emotion. Wenn unsere Vorfahren durch die Savanne streiften und unverhofft auf einen Baum mit süßen Früchten stießen, half der Ausstoß des Neurotransmitters   Dopamin , sich die Stelle besser merken zu können – verhieß das „merkwürdige“ Ereignis doch die Zufuhr überlebenswichtiger Kohlenhydrate . Verwaltet wird das gute Gefühl im Nucleus accumbens , dem Belohnungszentrum im vorderen Bereich des limbischen Systems. Hier befinden sich zahlreiche Dopaminrezeptoren, die uns zu Glücksgefühlen verhelfen. Das Belohnungszentrum hat allerdings auch eine dunkle Seite: Alkohol, Drogen oder der Kick, den uns Risiken wie Fallschirmspringen oder Glücksspiele verschaffen, führen ebenfalls zur Ausschüttung von Dopamin. Der Nucleus accumbens spielt somit auch bei der Entwicklung von Süchten eine Rolle: Das Gehirn lässt uns dann Situationen suchen, die die Produktion der Dopamin-Droge anregen. Zu den Glückshormonen zählen weiterhin die Endorphine . Sie werden durch die Hypophyse , die Hirnanhangsdrüse sowie den benachbarten Hypothalamus ausgeschüttet und sind chemisch mit Opiaten verwandt. Endorphine spielen insbesondere bei der Schmerzunterdrückung und der Entstehung euphorischer Gefühle eine Rolle und verstärken zudem die Wirkung von Dopamin. Das dritte Hormon, das uns gute Gefühle beschert, ist Oxytocin , oftmals auch als „Kuschelhormon“ bezeichnet. Es erzeugt die Empfindungen, die wir mit Liebe, Treue, Vertrauen oder der Mutter-Kind-Bindung verbinden.   Optische Täuschungen zeigen uns nicht die Realität, sondern die Wirklichkeit In den neuronalen Netzen älterer Gehirnschichten verfangen wir uns nicht nur emotional. Auch ganz gewöhnliche sensorische Reize unterliegen evolutionären Deutungen. Anstatt der Realität (das, was ist), vermitteln sie uns die Wirklichkeit, (das, was auf uns wirkt). Ein prominentes Beispiel hierfür sind optische Täuschungen . Sie verschaffen uns tiefe Einsichten in die Prinzipien, nach denen das Gehirn die Wirklichkeit konstruiert. Das linke Bild zeigt die bekannte Müller-Lyer-Illusion. Obwohl beide Linien in der Realität gleich lang sind, können wir uns mit dem Verstand nicht dagegen wehren, dass wir die rechte Linie als länger wahrnehmen. Bei der rechts zu sehenden Schachbrett-Illusion empfinden wir die Schattierung von Feld B heller, als die des Feldes A.  Müller-Lyer- und Schachbrettillusion Die beiden folgenden Graphiken machen deutlich, dass uns die vermeintlichen Täuschungen tatsächlich wichtige Wirklichkeiten vermitteln:  Auflösung der Müller-Lyer- und Schachbrettillusion Beim ersten Bild ist die rechte Linie nun die Ecke eines Raumes, die linke Linie Teil eines weiter vorne befindlichen Eckfensters. Die Erfahrung hat uns gelehrt, dass wenn zwei Objekte unterschiedlich weit entfernt sind, uns aber gleichgroß erscheinen, das weiter entfernte Objekt das größere ist. Deshalb empfinden wir die rechte Linie als länger. Auf dem Schachbrett machen die beiden hinzugefügten grauen Balken deutlich, dass Feld A und Feld B in Wahrheit die exakt selbe Graustufe haben. Das Gehirn hat hier einen Konflikt zu lösen: Es muss sich entscheiden, ob es die Farbschattierung genau wiedergeben soll, oder ob es wichtiger ist, auch bei ungünstigen Lichtverhältnissen (hier repräsentiert durch den Schatten des Zylinders) weiterhin Muster erkennen zu können. Das Gehirn spricht sich in diesem Fall eindeutig für die Mustererkennung aus. Sie hat den höheren evolutionären Informationswert. Bei den folgenden Abbildungen sehen wir links die Kanizsa-Täuschung , zwei sich überlagernde Dreiecke. Rechts erkennen wir auf dem Bild von Henri Rousseau sofort einen Löwen. Kanizsas Dreieck und der hungrige Löwe von Henri Rousseau Tatsächlich zeigt das linke Bild lediglich drei Kreissegmente und drei Winkel. Und Rousseau zeigt uns keinen Löwen, sondern lediglich dessen Kopf. Solche Prinzipien, die unsere visuelle Wahrnehmung organisieren, wurden erstmals 1878 durch Hermann von Helmholtz  beschrieben und insbesondere von Max Wertheimer  und Wolfgang Köhler  zur Gestaltpsychologie  beziehungsweise Gestalttheorie erweitert. Von Helmholtz erkannte, dass wesentliche Teile dessen, was wir „sehen“, nicht durch unseren optischen Apparat entsteht, sondern vielmehr automatische Ergänzungen unseres Gehirns sind. Wir verarbeiten Reize also nicht unmittelbar zu Wahrnehmungen, sondern komplettieren sie vielmehr mit Hilfe von einfachen, erlernten Regeln wie: „Sonnenlicht kommt immer von oben und ist im Normalfall die hellste Lichtquelle“. Bei der Kanizsa-Illusion geht das Gehirn davon aus, dass die schwarzen Objekte aller Wahrscheinlichkeit nach Kreisscheiben sind, die, da wir sie nicht vollständig sehen können, teilweise durch einen dreieckigen Gegenstand verdeckt sein müssen. Nach dem gleichen Prinzip ergänzt unser Gehirn den Kopf des Löwen automatisch zu dem vollständigen Raubtier. Gestaltprinzipien erlauben es uns, den Alltag zu bewältigen, ohne die Welt tatsächlich vollständig verstehen zu müssen. Auch die so genannte Farbkonsistenz ist ein Verzerrung: Wir sehen einen Briefkasten immer nur einfach als gelb obwohl das Gelb sich in Abhängigkeit vom Lauf der Sonne oder der Bewölkung laufend verändert Verzerrtes Denken Wahrnehmen und Denken sind aus neurophysiologischer Sicht recht ähnliche Prozesse. Wir sollten uns daher auch nicht der Illusion hingeben, dass wir besser denken als wahrnehmen können. Deutlich wird dies bei kognitiven Verzerrungen , umgangssprachlich auch als „Denkfallen“ bekannt. Betrachten wir drei Beispiele. Das erste sind „ Schockrisiken “. Wir fürchten uns vor Ereignissen, bei denen zahlreiche Menschen plötzlich am selben Ort sterben können – etwa Flugzeugabstürze, Epidemien oder Terroranschläge. Diese Furcht steckt tief in uns. Wir messen daher solchen Vorkommnissen unwillkürlich eine höhere statistische Relevanz zu, als ihnen tatsächlich zukommt. Das Risiko bei einem Autounfall zu sterben ist wesentlich höher, als das eines Flugzeugabsturzes – allein die Anfahrt zum Flughafen ist viel gefährlicher als der Flug selbst. [v]  Dennoch erhalten Flugzeugunglücke eine ungleich größere mediale Beachtung. Hinter der verzerrten Risiko-Wahrnehmung steckt einmal mehr ein evolutionärer Mechanismus: Schockrisiken können auf einen Schlag den Genpool einer gesamten Sippe auslöschen – etwa, wenn der Affenclan durch ein Löwenrudel angegriffen wird. Die Evolution hat, ganz im Sinne des egoistischen Gens , in uns ein Programm installiert, das uns lehrt, Situationen zu meiden, in denen solche Vernichtungsszenarien drohen. Unser verzerrtes Denken hat einen handfesten biologischen Ursprung. Eine andere kognitive Verzerrung ist zeitinkonsistentes Verhalten . Wir wissen, dass Rauchen, Trinken und Bewegungsarmut auf Dauer erhebliche Gesundheitsrisiken bergen. Ebenso wissen wir, dass der CO 2 -Ausstoss über kurz oder lang das ökologische Gleichgewicht unseres Planeten verändern wird und wir dadurch nachkommenden Generationen ein schweres Erbe aufbürden. Dennoch ändern die Wenigsten von uns ihr Verhalten konsequent. Auch bei diesem paradoxen Muster sitzen die evolutionären Programme am längeren Hebel: In den vergangenen Jahrmillionen war die größte Sorge unserer Vorfahren das tägliche Überleben. Der Spatz in der Hand ist uns von jeher lieber als die Taube auf dem Dach. Denken in langfristigen, erst recht in generationenübergreifenden Horizonten, ist unserm Wesen fremd.   Fatale Gruppenzwänge Verzerrungen können, wie das dritte Beispiel zeigt, nicht nur individuell, sondern auch auf einer kollektiven Ebene wirken. Für den Menschen, als überaus sozialem Tier, hat die Gewissheit, allein nicht überleben zu können, unser evolutionäres Unterbewusstsein   nachhaltig geprägt: Nichts ist schlimmer, als von der Gruppe ausgeschlossen zu werden. Das Leben in der Gemeinschaft aber hat zwei Seiten: Einerseits gegenseitige Rücksichtnahme, die Suche nach Konsens, Einfühlungsvermögen, Mitleid und das Befolgen moralischer Regeln, die das Zusammenleben erleichtern oder vielleicht überhaupt erst möglich machen. Andererseits Gruppendruck, Konformitätszwang und das Einfügen in Rollen und Hierarchien. Unser Stammhirn funktioniert genauso, wie das eines Krokodils Dass im Konfliktfall nicht immer der Gemeinsinn die Oberhand behält, hat der amerikanische Psychologe Stanley Milgram  Anfang der 1960er Jahre in einem der bekanntesten Verhaltensexperimente eindrucksvoll nachgewiesen. Den Teilnehmern wurde vorgetäuscht, dass sie an einem wissenschaftlichen Experiment teilnähmen. Angebliches Ziel war es, zu überprüfen, ob sich die Lernfähigkeit verbessern lässt, wenn der Lehrer dem Schüler bei einer falschen Antwort einen Stromschlag verabreicht. Den Teilnehmern, allesamt brave Durchschnittsbürger, die nicht wussten, dass sie selbst die Versuchskaninchen waren, wurde die Rolle des Lehrers zugewiesen. Der wissenschaftliche Versuchsleiter, in Wahrheit ein Schauspieler mit einem weißen Kittel, gab ihnen die Anweisung, die Stromspannung nach jeder falschen Antwort zu erhöhen. Die Teilnehmer konnten die „Schüler“ – ebenfalls Schauspieler – nicht sehen, wohl aber hören. Obwohl die Schüler ab 200 Volt Spannung schreckliche Schmerzensschreie ausstießen und ab 300 Volt gar nicht mehr reagierten, folgten knapp zwei Drittel der Teilnehmer den freundlichen, aber bestimmten Anweisungen des Versuchsleiters und erhöhten die Spannung bis zur maximalen und potentiell tödlichen Grenze von 450 Volt. Eine deutliche Mehrheit befolgte die Anweisungen einer formal höhergestellten Person auch dann, wenn sie den eigenen ethischen Überzeugungen widersprachen. Mitläufereffekt, Duckmäusertum und opportunistisches Verhalten sind Ausdruck der evolutionären Urangst, sich gegen Gruppenmitglieder zu stellen, die in der Hierarchie besser platziert sind. Versuchsaufbau des Milgram-Experiments: V = Versuchsleiter; L = Lehrer; S = Schüler Der ewige Kampf der Hirnschichten Unser mentales Sein setzt sich aus verschiedenen rivalisierenden Instanzen zusammen, die teils biologischen, teils kulturellen Ursprungs sind. Wir haben es nicht immer selbst in der Hand, welchen Einflüssen wir folgen oder nachgeben. Fest steht aber, dass wir keineswegs nur triebhaft handeln, denn Menschen können sich über biologische Programme hinwegsetzen: Wir sind mitunter nicht nur willens, für andere Menschen zu sterben (was sich noch mit evolutionärem Altruismus erklären ließe), sondern auch für unsere Überzeugungen. Aus Sicht der evolutionären Psychologie ist auch das Bewusstsein nur eines unter zahllosen Experimenten, die den Überlebens- und Reproduktionserfolg erhöhen sollen. Wie erfolgreich wir mit dieser Strategie sein werden, wird sich erst langfristig zeigen – immerhin hat es sich bisher als überaus dienlich erwiesen. Das liegt nicht zuletzt daran, dass bewusstes Erleben auch Möglichkeiten der Kommunikation gestattet, die die der Tiere bei weitem übertreffen. Mit der Sprache   haben die Menschen einen Weg gefunden, ihre Gedanken mit denen anderer Gehirne ihrer Spezies direkt auszutauschen. Mit diesem Beitrag endet die Artikelserie zum Thema "Bewusstsein"   Den Blog entdecken   Wer mehr wissen will: Gigerenzer, Gerd (2013): „Risiko“, C. Bertelsmann. Kandel, Eric (2006): „Auf der Suche nach dem Gedächtnis“, Pantheon. Kandel, Eric (2014): „Das Zeitalter der Erkenntnis“, Pantheon Kahneman, Daniel (2011): „Schnelles Denken, langsames Denken“, Siedler.   Bildnachweise: Milgram-Experiment Anmerkungen: [i] Einige Bestandteile des limbischen Systems wie Hippocampus und Amygdala existieren genau genommen anatomisch zweimal, jeweils in der linken und der rechten Gehirnhälfte. [ii]  Daneben gibt es noch weitere Emotionen, die allerdings nicht eindeutig in allen Kulturen aus der Gesichtsmuskulatur abzulesen sind. Ekman nennt hierfür Belustigung, Zufriedenheit, Verlegenheit, Aufregung, Erleichterung, Schuld, Stolz, Lust, Genugtuung und Scham. [iii]  Ein Prinzip von dem auch Zeitungen und Nachrichtensender leben. [iv]   Solche Urängste werden sowohl von Terroristen als auch von Marketingexperten ausgenutzt. So ist der Kassenbereich in Supermärkten im Gegensatz zum Warenbereich meist schlechter beleuchtet. Die angeborene Furcht vor der Dunkelheit soll die Kunden bewegen, sich lieber länger im hellen Teil des Supermarkts aufzuhalten um dort hoffentlich mehr zu kaufen. [v]  Als infolge der Angriffe vom 11. September 2001 die Anzahl der Flüge in den Vereinigten Staaten massiv einbrach, nahm der Autoverkehr stark zu. In den 12 Monaten danach starben in den USA etwa 1.600 Menschen mehr als gewöhnlich durch Verkehrsunfälle – etwa die Hälfte der unmittelbaren Anschlagsopfer. Vgl. Gigerenzer (2013) S. 21.

  • Anatomie der Atome: die Entdeckungsgeschichte der Quantenphysik. Teil 2: Von Helgoland nach Hiroshima

    Fortsetzung von „Anatomie der Atome: die Entdeckungsgeschichte der Quantenphysik Teil 1: Merkwürdige Phänomene   Was die Welt im Innersten zusammenhält An dieser Stelle setzten Heisenbergs Überlegungen ein, die er auf Helgoland anstellte: Wie ließ sich das Verhalten massebehafteter Quanten  beschreiben? Was bedeutet es, wenn Elektronen  und Protonen  Welleneigenschaften besitzen? Die Antwort auf diese Fragen gilt als Geburtsstunde der Quantenmechanik , der Physik der kleinsten Teilchen. Die Regeln des newtonschen Universums sind hier nicht mehr gültig. In der klassischen Mechanik ist es möglich, den Ort und Impuls eines bewegten Objekts gleichzeitig zu bestimmen: Fährt ein Auto in eine Radarfalle, lässt sich genau sagen, wo das geschah und welche Geschwindigkeit und Masse das Fahrzeug hatte. In der Quantenwelt aber gilt dies nicht mehr. Der Wellencharakter macht eine exakte simultane Orts- und Impulsbestimmung der Elektronen unmöglich. Heisenberg fasste diese Erkenntnis 1927 in einer einfachen Formel zusammen, der Unschärferelation t [i] : ∆x ∙ ∆p ~ h Dabei steht ∆ x  für die Ungenauigkeit der Ortsbestimmung, ∆ p für die Ungenauigkeit der Impulsmessung. Das Produkt aus den beiden diffusen Größen entspricht in etwa dem Planckschen Wirkungsquantum h. [ii]   Will man den Ort genauer bestimmen, indem man die Unschärfe  verringert, ergibt sich durch die multiplikative Verknüpfung unweigerlich eine Einbuße der Genauigkeit der Impulsmessung.   Je genauer wir also bei der einen Größe hinschauen, umso weniger können wir über die andere wissen. Werner Heisenberg Warum ist das so? Zur Beobachtung sehr kleiner Teilchen benötigen wir extrem kurzwelliges Licht . Kurzwelliges Licht aber ist sehr energiereich. Trifft ein Beobachtungs-Photon auf das Elektron, wirft es den leichten Ladungsträger aus der Bahn. Die Lichtmessung sagt uns zwar, wo das Elektron war, aber nicht, welchen Impuls es hatte, bevor es von dem Photon getroffen wurde. Versuchen wir nun den Impuls genauer zu bestimmen, indem wir mit langwelligerem, weniger energiereichen Licht messen, wird es zunehmend schwieriger, den Ort des Teilchens zu bestimmen. Die Unmöglichkeit einer simultanen Ermittlung von Ort und Impuls ist aber nicht nur ein Problem des Messvorgangs; es ist die Natur der Elementarteilchen, unscharf zu sein, eben, weil sie zugleich Welle und Materie sind. Das Produkt aus den beiden Ungewissheiten kann dabei den Wert der Planckschen Konstante „h“ nie unterschreiten. Letztlich lässt sich also der Zustand eines Quantums nicht exakt bestimmen. Wir stoßen hier an eine grundlegende Erkenntnisgrenze. Heisenberg dachte darüber nach, wie sich solche nichtdeterminierten Zustände wissenschaftlich beschre i ben lassen. Letztlich kam hierfür allein die Stochastik , die Mathematik des Zufalls, infrage. Mit ihrer Hilfe lassen sich Wahrscheinlichkeiten berechnen, ein Elektron innerhalb eines definierten Raumbereichs anzutreffen. Ob es sich zu einem bestimmten Zeitpunkt dort auch tatsächlich aufhält, können wir allerdings nicht wissen. Regiert der Zufall das Universum? Diese Einsicht ist durchaus von philosophischer Tragweite, denn man kann sie so interpretieren, dass die Welt letztlich vom Zufall regiert wird. Die unterste Ebene des Seins spielt demnach nicht Billard, sondern Roulette! Wo Zustände von Energien und Massebausteinen nicht eindeutig bestimmbar sind, gibt es auch keine deterministischen Spielregeln. Damit wäre aber auch der Laplacesche  Dämon   ein für alle Mal ausgetrieben: Wo der Zufall regiert und es keine objektiv beschreibbare Wirklichkeit  gibt, kann keine Vergangenheit rekonstruiert, keine Gegenwart bestimmt und keine Zukunft vorhergesagt werden. [iii] Urheber der Idee einer vollkommen determinierbaren Welt: Pierre-Simon Laplace Ebenfalls Mitte der 1920er Jahre war der österreichische Physiker Wolfgang Pauli  zu einer weiteren grundlegenden Erkenntnis gekommen: Anders als masselose Teilchen, können sich Elektronen, Protonen und Neutronen nicht beliebig nahekommen. Das nach seinem Entdecker benannte Pauli-Prinzip besagt, dass sich aufgrund gewisser Quanteneigenschaften in einen definierten Raumbereich immer nur eine bestimmte Höchstzahl von Elektronen aufhalten kann. Damit hatte nun auch das grundlegende Ordnungsprinzip der Chemie   eine quantenmechanische Fundierung erhalten. Nach und nach wurde klar, dass es gerade die unscharfen Quantenzustände sind, die die Welt im Innersten zusammenhalten. Wellen breiten sich in alle Richtungen aus und schwingen zwischen Kern und Rand des Atoms wie die Saiten einer Gitarre. Sie spannen die Räume der dinglichen Welt auf, verhindern, dass die negativ geladenen Elektronen in den positiv geladenen Kern stürzen und verleihen der Materie so ihre Stabilität. Sie sind der Grund, warum wir nicht einfach durch eine Tischplatte hindurchgreifen können, obwohl Atome fast ausschließlich aus Nichts bestehen. Erst bei einer Temperatur von -273° Celsius würden die Teilchen ihre Schwingungen einstellen – ein Zustand, der nach dem Dritten Hauptsatz der Thermodynamik   nicht erreicht werden kann. Zahllose Experimente haben die Quantenphysik heute zu der am besten fundierten naturwissenschaftlichen Theorie überhaupt gemacht. Die Technologien, die auf ihr basieren – Transistoren, Supraleiter, Laser, Photovoltaik oder bildgebende Verfahren der Medizintechnik – haben unseren Alltag in den letzten 100 Jahren radikal verändert.   Der immer noch unbekannte Atomkern In der makroskopischen Welt hingegen überlagern sich die Teilchen. Ihre Wechselwirkungen beeinflussen sich gegenseitig, sodass aus der Summe zahlloser Zufälle die für uns fassbare Welt mit ihren berechenbaren Eigenschaften entsteht. Nur deshalb können die Photonen eines Lichtblitzes die Position eines Autos in einer Radarfalle bestimmen und nur deshalb verhalten sich die Kugeln auf dem Billardtisch gemäß der Newtonschen Bewegungsgesetze . 1932 entdeckte der Rutherford -Schüler, James Chadwick , im Atomkern einen weiteren Masseträger, der sich als elektrisch neutral herausstellte. Rutherford hatte die Existenz des Neutrons  bereits vorhergesagt. Der Physikergemeinde rief dies schmerzhaft in Erinnerung, dass man von den Vorgängen in der Atomhülle weitaus bessere Vorstellungen hatte als vom Atomkern selbst. Welche Rolle spielten die Neutronen? Warum platzte der mit positiven Protonen gefüllte Kern nicht einfach auseinander? Und woher kamen jene rätselhafte Strahlungskräfte, die Becquerel und die Curies beobachtet hatten? All dies legte nahe, dass außer Elektromagnetismus und Gravitation  noch mindestens zwei weitere Kräfte im Atomkern beheimatet sein mussten. Die erste Kraft musste so stark sein, dass sie die mächtige elektromagnetische Abstoßungskraft gleich geladener Teilchen überspielen konnte. Die zweite musste für die Strahlungsaktivität der schweren Elemente   verantwortlich sein. Warum Atome nicht in den Himmel wachsen können In den 1930er Jahren konkretisierten sich nach und nach die Vorstellungen vom atomaren Kräftespiel. Wie jedes physikalische System streben auch Atomkerne stets nach einem Stabilität verheißenden Zustand niedrigerer Energie. Ein Turm aus Bauklötzchen wird, je höher, umso wackeliger, bis er irgendwann in sich zusammenstürzt. Physikalisch bedeutet dies nichts weiter, als dass die Energie, die in den Aufbau des Systems gesteckt wurde, auf einen Schlag wieder freigesetzt wird. Der Trümmerhaufen mag nicht schön anzusehen sein, aber er stellt ein stabileres System niedrigerer Energie dar und damit einen für die Natur erstrebenswerten Zustand. So manches in der Welt steht auf tönernen Füssen... Im Atomkern verhält es sich grundsätzlich genauso. Die Grundkraft , die die Protonen zusammenhält und der man naheliegenderweise die Bezeichnung „ starke Kernkraft “ gegeben hatte, liegt mit der abstoßenden elektromagnetischen Kraft im Streit. Dabei steigt mit zunehmender Protonenzahl die Stabilität zunächst an. Helium ist mit zwei Protonen stabiler als Wasserstoff, Lithium mit drei positiven Ladungsträgern wiederum stabiler als Helium. Die wachsende Protonenzahl führt dazu, dass die Bindungsenergie pro Nukleon zunächst steigt, was mit höherer Stabilität einhergeht. Allerdings ist die Reichweite der starken Kernkraft extrem begrenzt. Für die elektromagnetische Gegenkraft gilt dies nicht, daher wächst deren Wirkung mit zunehmender Kerngröße überproportional an. Bis zum Eisen  mit seinen 26 Protonen nimmt der Stabilitätssaldo noch insgesamt zu. Eisen ist somit das stabilste aller Elemente. Bei schwereren Elementen überwiegt der elektromagnetische Kraftzuwachs, so dass die Gesamtstabilität des Systems wieder schrittweise abnimmt. Ab dem Element Blei, mit seinen 82 Protonen, macht sich, wie bei einem zu hohen Bauklötzchenturm, die zunehmende Instabilität bemerkbar. Es kann sein, dass der Kern zerfällt. Jenseits des Urans mit 92 Protonen ist die Stabilität dann ganz dahin. So sorgt das Wechselspiel zwischen starker Kernkraft und Elektromagnetismus dafür, dass die atomaren Türme nicht in den Himmel wachsen und sich zu immer größeren Einheiten zusammenschließen. Die Reichweite der starken Kernkraft ist extrem kurz, sie wirkt nur innerhalb des Atomkerns selbst. Zudem verfügt sie – ganz im Gegenteil zu Gravitation und Elektromagnetismus  – über die besondere Eigenschaft, mit zunehmendem Abstand stärker zu werden. Den Neutronen kommt dabei die Aufgabe eines Abstandshalters zu, der die Wirkung der starken Kraft zwischen den Protonen optimiert. Ein Gleichgewicht von Neutronen und Protonen bedeutet maximale Stabilität. Bei Isotopen , also Atomen, bei denen die Neutronenzahl von der der Protonen abweicht, sinkt sie wieder ab. Bei einem (_ 6^14)C Atom befinden sich 14 Nukleonen im Kern eines Kohlenstoffatoms (Die Nukleonenzahl entspricht der Summe der Protonen und Neutronen). Die tiefgestellte Zahl verrät uns, dass 6 der Nukleonen Protonen sind. Ihnen stehen somit 8 Neutronen gegenüber; das Kohlenstoffisotop ist daher instabil und hat Tendenz zu zerfallen. [iv] Die vier Grundkräfte, die das Universum regieren Radioaktivität! Damit wurde nun auch die von Becquerel und den Curies entdeckte Strahlung verständlich. Für besonders schwere und somit labile Atome ist sie Mittel zum Zweck, um Stabilität zurückzugewinnen. Die erste Möglichkeit, dies zu erreichen, ist der Alphazerfall . Bei ihm verlassen je zwei Protonen und Neutronen den Kern – in der Summe nichts anderes als ein Heliumatom. Da die Anzahl der Protonen die chemische Identität des Atoms bestimmt, entsteht durch die Alphastrahlung ein neues, leichteres Element. So wird beispielsweise Uran (_92^238)U zu Thorium (_90 ^234)Th. Was zahlreiche Alchemisten jahrhundertelang vergeblich versuchten, nämlich ein Element in ein anderes Element zu verwandeln, geschieht hier auf natürliche Weise. Beim Betazerfall , der zweiten Form von Strahlungsaktivität, werden destabilisierende Neutronen in stabilisierende Protonen und Elektronen umgewandelt. In diesem Fall entsteht ein schwereres Element. [v]  So wird etwa aus dem Cäsium-Isotop (_55^137)Cs das stabilere Barium (_56^137)Ba. Der italienische Kernphysiker Enrico Fermi  entdeckte 1934, dass hinter dem Beta-Zerfall , eine vierte Grundkraft steckt: die schwache Kernkraft. Sie bewirkt die wundersame Verwandlung des Neutrons und stellt sicher, dass die Veränderungen im Atomkern langsam und kontrolliert ablaufen. Die eigentliche Betastrahlung wird durch das im Kern neu entstandene Elektron verursacht, welches das Atom mit nahezu Lichtgeschwindigkeit verlässt. Ähnlich einer Kanonenkugel verursacht es dabei einen Rückstoß, der den ganzen Atomkern in heftige Schwingungen versetzt. Wenn der Kern danach wieder in seinen stabileren Grundzustand zurückkehrt, kann er dabei abermals Energie emittieren, diesmal aber in Form von extrem kurzwelligen und somit hochenergetischen Photonen. Diese Photonen sind nichts anderes als die gefährliche Gammastrahlung . Vor allem diese dritte Form von Radioaktivität führt, wenn sie von lebenden Organismen aufgenommen wird, zu schwersten Schäden. Gammastrahlung enthält so viel Energie, dass sie ohne weiteres die chemischen Bindungen lebender Gewebestrukturen aufzubrechen vermag.   Alpha-, Beta- und Gammastrahlung Die radioaktiven Zerfallsprozesse selbst vollziehen sich rein zufällig. Die Raten folgen zwar statistisch dem Muster einer exponentiellen Abnahme, doch die einzelnen Teilchen selbst verfügen über keinerlei Eigenschaften, anhand derer sich der Zeitpunkt ihres Auseinanderbrechens erkennen ließe. Die wichtigste Messgröße des Zerfalls ist die Halbwertszeit , der Zeitraum, innerhalb dessen sich die Menge der strahlenden Atome halbiert. Je nach Element reicht er von Bruchteilen einer Sekunde bis zu Jahrmillionen. Einsteins Idee hört auf, bloß eine Theorie zu sein Die Fortschritte, die man im Verlauf der 1930er Jahre beim Verständnis der Elementarteilchen-Wechselwirkungen erzielt hatte, warfen erneut die Frage auf, ob sich die ungeheuren Energiemengen, die gemäß Einstein in der Materie schlummern, nicht in irgendeiner Form freisetzen ließen. 1938 beschoss Otto Hahn  (ein weiterer aus der langen Reihe namhafter Rutherford-Schüler) Urankerne mit Neutronen. Eigentlich wollte er damit künstlich noch schwerere Elemente erzeugen – stattdessen zerplatzte der Kern. Hahns Kollegin Lise Meitner  lieferte wenige Wochen später hierzu die theoretische Erklärung: Ein gezielter Neutronenbeschuss kann im zerbrechenden Kern eine Kettenreaktion weiterer Spaltungen in Gang setzen. Lise Meitner Diese Entdeckung war einer der tiefsten Einschnitte in der Geschichte der Menschheit. Die Relativitätstheorie hatte aufgehört, ein abstraktes Gedankenspiel für Astronomen zu sein. Standen den Menschen bisher nur Energien zur Verfügung, die direkt oder indirekt auf den beiden Grundkräften Gravitation und Elektromagnetismus beruhten, gab es nun erstmals die Möglichkeit, die stärkste und unbändigste Kraft im Universum gezielt für den Menschen freizusetzen. In ihrer langsamen, kontrollierten Form nutzen wir sie heute in Kernkraftwerken. Schnell und unkontrolliert aber führt der Spaltungsprozess zu der verheerenden Wirkung einer Atombombe. In beiden Fällen ist die Masse der gespaltenen Materie nur geringfügig kleiner als vor der Spaltung. Nach E = mc2 aber repräsentiert der winzige Unterschied von weniger als einem Prozent eine gewaltige Energiemenge. Am 6. August 1945 ließ sie in der japanischen Stadt Hiroshima mehr als 70.000 Menschen verglühen. Wenn es möglich war, durch Spaltung sehr schwerer Atomkerne Energie freizusetzen, musste die Fusion sehr leichter Elemente einen ähnlichen Effekt erzeugen. Arthur Eddington, der Leiter der Sonnenfinsternis-Expedition von 1919 , war einer der frühesten Verfechter der These, dass es dieser Fusionsprozess ist, der die Sterne zum Leuchten bringt. Ihr spektraler Fingerabdruck legte nahe, dass Sonnen ganz überwiegend aus Wasserstoff bestehen, der in ihrem Inneren zu Helium verschmilzt – Sterne waren gleichsam sich selbst befeuernde Öfen. Ende der 1930er Jahre gelang es schließlich Hans Bethe  und Carl Friedrich von Weizsäcker , die solaren Fusionsprozesse zu entschlüsseln. Auch hierbei spielt die schwache Kernkraft die entscheidende Rolle. Sie moderiert den Fusionsvorgang, sodass er kontrolliert und nicht als ungehemmte Kettenreaktion abläuft. Deshalb verglühen Sonnen langsam und können so viele Milliarden Jahre lang brennen – eine entscheidende Voraussetzung für die Entstehung von Leben. Gibt es einen schöneren Ort um eine Wasserstoffbombe zu zünden? Bethe brachte die Entschlüsselung der Fusionsmechanismen den Nobelpreis ein. Politiker und Militärs brachte es auf die Idee, auch diesen Prozess in seiner ungehemmten Variante militärisch nutzbar zu machen. Anfang November 1952 explodierte die erste Wasserstoffbombe  über einem bis dahin friedlichen Atoll der Marshall-Inseln in der Mitte des Pazifiks. Die Sprengkraft der Fusionsbombe überstieg die der Spaltungsbombe von Hiroshima fast um das Tausendfache.     Den Blog entdecken   Wer mehr wissen will: Zeilinger, Anton (2005): „Einsteins Schleier – Die neue Welt der Quantenphysik“, Goldmann. Bodanis, David (2001): „E = mc2 A Biography of the World´s Most Famous Equation”, Pan.   Bildnachweise: Südseeinsel   Anmerkungen:   [ii]  Diese Darstellung eine Vereinfachung. Die absolute Untergrenze wurde später mit Δx⋅Δp≥ h/4π​ bestimmt. [iii] Diese Aussage spiegelt die Kopenhagener Interpretation wider, ist aber nicht die einzige mögliche Interpretation der Quantenmechanik. Manche Physiker sehen in der Quantenmechanik keine „Herrschaft des Zufalls“, sondern eine Wahrscheinlichkeitsaussage über Messgrößen, nicht über „die Welt an sich. [iv] Dieser Zerfallsprozess ist die Grundlage der Altersdatierung organischer Materialien mithilfe der Radiokarbonmethode. [v] Dieses Beispiel entspricht dem Beta-Minus-Zerfall . Beim Beta-Plus-Zerfall (Proton → Neutron) entsteht ein leichteres Element.

  • Anatomie der Atome: die Entdeckungsgeschichte der Quantenphysik (Teil 1)

    Fortsetzung von „Wie ein eidgenössischer Patentprüfer dritter Klasse die Welt aus den Angeln hob“   Die Anatomie der Atome Werner Heisenberg , ein erst 23-jähriger Dozent für theoretische Physik, hatte in der Abgeschiedenheit Helgolands viel Zeit. Auf der kleinen Nordseeinsel sollte er sich auf Anraten seiner Ärzte, im Mai 1925 von den quälenden Attacken seiner Heuschnupfenallergie erholen. Dank der reinen Luft konnte sich Heisenberg bald wieder konzentrieren. Er las Goethe und unternahm ausgedehnte Klettertouren in den Felsen. Und er hatte Zeit über Atome  nachzudenken. Die Welt der allerkleinsten Maßstäbe schien ein eigenes Universum zu sein, das sich weder mit Newtons   Analysis   noch mit Einsteins abstrakter Geometrie vermessen ließ. Wie musste man sich die atomare Mechanik vorstellen, die die dingliche Welt entstehen lässt? Unscharf: Werner Heisenberg In den vorangegangenen drei Jahrzehnten war deutlich geworden, dass das Atom noch immer zahlreiche Geheimnisse barg. 1896 war dem französischen Physiker Antoine Henri Becquerel  aufgefallen, dass Uransalze eine rätselhafte Strahlung erzeugen, die so intensiv war, dass zufällig in der Nähe befindliche Fotoplatten durch sie belichtet wurden. Zwei Jahre später entdeckte das polnisch-französische Forscherehepaar Marie und Pierre Curie  zwei neue Elemente , Polonium und Radium, die noch deutlicher als Uran  die bis dahin unbekannte Eigenschaft zeigten. Die Physikergemeinschaft war ratlos. Nach dem bisherigen Verständnis konnten nur von außen kommende elektromagnetische Strahlen solche Veränderungen hervorrufen. Offenbar gab es aber noch eine weitere Form von Energie, die in den schweren Metallatomen selbst wohnte.   Marie Curie: offizielles Nobelpreisfoto von 1911 Eine einfache Formel Im Jahre 1900 machte der deutsche Physiker Max Planck  die nächste merkwürdige Beobachtung. Wohlmeinende Professoren hatten seinerzeit dem musikalisch hochbegabten Abiturienten noch von der Physik abgeraten: Es gäbe hier nicht mehr viel zu entdecken, alle wesentlichen Zusammenhänge seien bereits bekannt. Dennoch entschied sich Planck gegen das Musikstudium. Nun, ein Vierteljahrhundert später, brütete er über einem thermodynamischen Phänomen, das der Physikergemeinschaft als Schwarzkörperstrahlung  bekannt war: Wenn ein Körper– etwa ein Stück Stahl – stark erhitzt wird, verändert sich die Farbe seiner Glut: von Rot über Gelb bis Weiß. Die damals gültigen physikalischen Theorien konnten jedoch den Verlauf der Strahlungsintensität bei verschiedenen Wellenlängen nicht korrekt erklären. Vor allem im Bereich des ultravioletten Lichts sagten sie eine eigentlich nicht zu begründende hohe Energieabstrahlung voraus – ein Problem, das als Ultraviolett-Katastrophe bezeichnet wurde. Planck suchte nach einer Beschreibung, die den gemessenen Verlauf korrekt wiedergab – und fand sie mit der einfachen Formel: E = h · f. Diese einfache Gleichung beschreibt einen grundlegenden Zusammenhang: Die Energie „E“ der Strahlung ist proportional zur Frequenz „f“ des Lichts. Der Proportionalitätsfaktor h (h weil sie für Planck zunächst eine unerklärliche Hilfsgrösse darstellte) ist heute als das Plancksche Wirkungsquantum bekannt. Mit einem Wert von etwa 6,626 × 10⁻³⁴ Joule · Sekunden stellt es die kleinste bekannte physikalische Wirkung dar – ein Produkt aus Energie und Zeit. Brachte den Stein ins Rollen: Max Planck Die simple Formel entpuppte sich als radikale Aussage über das Wesen der Natur: Energie wird nicht kontinuierlich, sondern in diskreten Portionen übertragen – in sogenannten Quanten. Damit war die über zweitausend Jahre alte Vorstellung erschüttert, dass Naturvorgänge stets stetig und bruchlos ablaufen. Energie floss offenbar nicht wie ein Strom, sondern wurde schubweise übertragen – vergleichbar mit Tropfen aus einem Wasserhahn. Diese Idee wirkte auf viele Physiker irritierend. Planck selbst blieb skeptisch, was die physikalische Deutung seiner Formel betraf. Erst Albert Einstein wagte den nächsten Schritt: 1905 erklärte er den photoelektrischen Effekt, ein Phänomen, das bereits 1887 von Heinrich Hertz beschrieben worden war. Wird eine Metalloberfläche mit Licht bestrahlt, kann dieses – unter bestimmten Bedingungen – Elektronen aus dem Metall herausschlagen. Entscheidend ist dabei nicht die Intensität, sondern die Frequenz des Lichts: Nur kurzwelliges, energiereiches Licht wie Blau oder Violett bewirkt eine Elektronenemission; rotes Licht, so stark es auch strahlt, bleibt wirkungslos. Einstein deutete das Licht als Strom von Teilchen – später wird man sie als Photonen bezeichnen – und zeigte, dass deren Energie nur dann ausreicht, um Elektronen aus dem Metall zu lösen, wenn sie mindestens den Wert h · f überschreitet. In seiner Gleichung zur Beschreibung des Effekts war das Plancksche Wirkungsquantum exakt die Steigung des Zusammenhangs zwischen Lichtfrequenz und Elektronenenergie. Damit war klar: Licht zeigt Eigenschaften von Teilchen, und die Quantennatur der Energie ist nicht nur bei ihrer Abgabe, sondern auch bei ihrer Aufnahme wirksam. Das kleine „h“ hatte den Anfang einer neuen Physik markiert – der Quantenmechanik – und die Vorstellung einer stetigen, kontinuierlichen Welt endgültig zu Nichte gemacht.   Welle oder Teilchen? Die allerkleinsten Maßstäbe der Physik waren offenbar bislang völlig unbekannten Spielregeln unterworfen: Mal verhielt sich Licht wie eine Masse und sprang von einem Zustand in den nächsten, mal agierte es wie eine masselose Welle. Es schien auf einmal, dass sowohl Huygens als auch Newton   recht gehabt hatten: Licht war Welle und Teilchen zugleich! Der von Einstein entdeckte Dualismus war ein erster Schlüssel zum Verständnis der Quantenwelt. Was da unten geschah, war ebenso wenig vorstellbar, wie die verbogenen Räume der Relativitätstheorie. Die Doppelnatur der Quanten, ihr „Sowohl-als-Auch-Charakter“ war weder mit der alltäglichen menschlichen Entweder-Oder“-Wahrnehmung noch mit Newtons Mechanik in Einklang zu bringen. Den merkwürdigen Dualismus der Photonen, wie die Lichtteilchen auch bezeichnet werden, macht eine moderne Variante des Youngschen Doppelspaltexperiments   deutlich: Werden die Teilchen nacheinander durch den Doppelspalt geschossen, entsteht mit der Zeit ein Interferenzmuster – Ausdruck ihres Wellencharakters. Bringt man aber einen Sensor an, der misst, ob ein einzelnes Photon durch den linken oder den rechten Spalt fliegt, materialisiert sich der Zustand des Teilchens und es entsteht das für Materie typische Doppelspaltenmuster. Fast erscheinen die Teilchen menschlich: Sie verhalten sich unterschiedlich, je nachdem ob man sie beobachtet oder nicht. [ii]     Das Doppelspaltexperiment ohne Photonen-Messung (links) und mit Messung (rechts) Der „Sowohl-als-auch-Charakter“ des Lichts war für den jungen Dänen Niels Bohr  1913 der Anstoß, eine entscheidende Erweiterung des rutherfordschen Atommodells vorzuschlagen. In Bohrs Vorstellung bewegten sich Elektronen auf unterschiedlichen, wohldefinierten Bahnen, die jeweils verschiedenen Energieniveaus entsprachen. Bohr bezeichnete sie als „ Elektronenschalen “. Je weiter außen eine Schale liegt, desto höher das Energieniveau. Wie alle massebehafteten Teilchen sind auch Elektronen bestrebt, Energie abzugeben, um an Stabilität zu gewinnen. So wie eine in einer Schüssel rotierende Kugel dem Schüsselboden als dem Punkt mit der niedrigsten Lageenergie zustrebt, möchten sich auch die Elektronen stets auf einer möglichst niedrigen Bahn bewegen.   Beschrieb den berühmten "Quantensprung": Nils Bohr Quantensprünge Trifft ein Lichtteilchen auf ein Elektron, erhält das Elektron dadurch einen Impuls, der es von einer energieärmeren Bahn auf eine höhere, energiereichere Schale katapultiert. Dabei kommt es zu einer folgenreichen Wechselwirkung: Das Elektron nimmt die Photonenenergie vollständig in sich auf, das Photon selbst wird dabei vernichtet. Das aus dem Gleichgewicht gebrachte Atom aber möchte die erhaltene Energie so rasch wie möglich wieder loswerden, um zu seinem stabilen Grundzustand zurückkehren zu können. Das Elektron stürzt auf die weiter innen liegende Umlaufbahn, dabei entsteht ein neues Photon. Das Licht wird mit der gleichen Frequenz und Energie emittiert, mit der es vorher absorbiert wurde – es enthält genau die Energiedifferenz zwischen dem kurzfristig erhöhten Zustand und dem Ausgangszustand. Dieser Vorgang ist der berühmte „ Quantensprung “, wobei die Physiker heute lieber von „Übergängen“ sprechen. Fast nebenbei hatte Bohr mit seinem Atommodell auch eine quantenbasierte Theorie zur Entstehung elektromagnetischer Wellen geliefert. Später sollte sich zeigen, dass jedes chemische Element aufgrund von Zahl und Anordnung seiner Elektronen eine charakteristische Spektrallinie des Lichts emittiert, die es so eindeutig kennzeichnet wie ein Fingerabdruck. Doch auch Bohrs Modell hatte noch immer eine entscheidende Schwäche: Es konnte nicht erklären, warum es überhaupt Atome gab. Nach allen Regeln der klassischen Physik müssten die negativen Elektronen eigentlich in den positiv geladenen Atomkern stürzen. Warum also fiel das Atom nicht einfach in sich zusammen?  Bedeutsame Insel: Helgoland Die Teilchen mehren sich 1917, ein Jahr nach Veröffentlichung der allgemeinen Relativitätstheorie, konnte Ernest Rutherford  dem lückenhaften Bild vom Atom ein weiteres Puzzleteil hinzufügen. Er hatte im Atomkern das Proton entdeckt und damit den positiven Gegenspieler der Elektronenladung genau lokalisiert. Rasch wurde klar, dass die Anzahl der Protonen im Kern die chemische Identität des Atoms bestimmt. Rutherfords Messdaten legten zudem nahe, dass es im Kern noch eine weitere Teilchenart geben musste, die ebenfalls stark zur Masse beitrug, aber elektrisch neutral war. Bis dahin hatten sich die Quantenphysiker vor allem mit dem Licht beschäftigt: Die Photonen hatten zwar keine Masse, verhielten sich aber dennoch wie Materie. Zudem hatte die Sonnenfinsternis von 1919 einen Zusammenhang zwischen der allgemeinen Relativitätstheorie und der Quantenphysik aufgezeigt: Auch Licht unterlag der Wirkung der Gravitation. 1924 stellte der französische Physiker Louis de Broglie  dann die These auf, dass auch massebehaftete Teilchen, wie Elektronen und Protonen, demselben Welle-Teilchen-Dualismus unterliegen wie das Licht. So wie Energie Teilcheneigenschaften hatte, hatte Materie auch Wellencharakter! Langsam zeichnete sich ab, dass die Welt der Elementarteilchen und die Anatomie der Atome um einiges komplexer war, als sich irgendjemand bislang vorzustellen vermocht hatte. (Fortsetzung folgt)   Den Blog entdecken   Wer mehr wissen will: Zeilinger, Anton (2005): „Einsteins Schleier – Die neue Welt der Quantenphysik“, Goldmann.     Bildnachweise: Helgoland Anmerkungen: [i] Für die Analyse des photoelektrischen Effekts erhielt Einstein 1921 den Nobelpreis für Physik (also nicht für die zu diesem Zeitpunkt noch nicht völlig etabliert Relativitätstheorie). Der photoelektrische Effekt bildet unter anderem die Grundlage der heutigen Photovoltaik, der Umwandlung von Licht in Strom. [ii]  Der österreichische Quantenphysiker Erwin Schrödinger  hat in einem berühmten Gedankenexperiment illustriert, was es bedeuten würde, wenn die Quanteneffekte auch in unserer Makrowelt wirksam wären: Eine Katze wird in eine Kiste eingeschlossen. In der Kiste befinden sich außerdem ein radioaktives Atom, ein Hammer, ein Geigerzähler (benannt nach Hans Geiger) und eine Giftampulle. Wenn das Atom zerfällt, löst der Geigerzähler einen Hammerschlag aus, der die Giftampulle zerschlägt; das freigesetzte Gift tötet die Katze sofort. Die Halbwertzeit besagt, dass das Atom innerhalb einer Minute mit 50%iger Wahrscheinlichkeit zerfällt. Nach einer Minute beträgt die Wahrscheinlichkeit, dass die Katze tot ist also 50%. Nach dieser Zeit wird das Experiment abgebrochen. Lebt die Katze in der Kiste oder ist sie tot? Solange man die Kiste nicht öffnet und nachschaut ist die Katze beides: halb lebendig und halb tot. Erst der Messprozess ändert diesen Zustand: Wenn wir nachschauen, finden wir entweder eine lebende oder eine tote Katze. Genauso befinden sich Quanten vor dem Messen in einem undefinierten Zustand, der erst durch die konkrete Messung geklärt werden kann.

  • Kant für Einsteiger

    Fortsetzung von „Sinn, Verstand und letzte Gründe: Die Philosophie der Neuzeit bis Kant“   Ein unbekannter Gelehrter für Logik und Metaphysik Immanuel Kant wurde 1724 in Königsberg geboren und starb dort knapp 80 Jahre später, ohne sich jemals mehr als einige Meilen von seiner Geburtsstadt entfernt zu haben. Als der aus einfachen Verhältnissen stammende Ostpreuße (sein Vater war ein Sattler) in bereits fortgeschrittenem Alter 1770 zum Professor für Logik   und Metaphysik   der örtlichen Universität berufen wurde, deutete alles auf ein geruhsames, unauffälliges Professorenleben hin. Kant war überzeugt, dass jedem Menschen ein bestimmtes Potential an Lebensenergie zur Verfügung steht, das, wie eine Batterie, nach und nach verbraucht wird. Ein regelmäßiger, ruhiger Wandel schont die Kraftreserven. Jahrzehntelang stand er frühmorgens stets zur gleichen Zeit auf, nahm um ein Uhr die einzige Mahlzeit des Tages zu sich, unternahm am Nachmittag zur exakt gleichen Zeit einen Spaziergang, (nach dem angeblich die Einwohner von Königsberg ihre Uhren stellten), und ging am Abend immer um 22 Uhr zu Bett. Außer mit einer Theorie zur Entstehung der Planeten , die er 1755 unter dem Eindruck von Newtons Principia veröffentlicht hatte, war Kant akademisch bisher nicht weiter aufgefallen. [i]   Immanuel Kant 1724-1804: Versöhner von Empirismus und Rationalismus Hume löst bei Kant eine Krise aus Kurz nach seiner Ernennung waren dem in der kontinental-rationalistischen Tradition stehenden Kant die frühen Schriften David Humes   in die Hände geraten. Die drastischen Thesen des Schotten trafen den preußischen Philosophen wie einen Schlag. Später schrieb er, Hume habe ihn aus seinem „dogmatischen Schlummer“ erweckt. Der Schrecken saß tief: Hätte der Mann aus Edinburgh mit seiner Fundamentalkritik an Erkenntnistheorie  und Metaphysik  recht, wäre Kants Hauptfächern jegliche Grundlage entzogen. Der Professor stürzte sich in die Auseinandersetzung. Gut zehn Jahre lang isolierte er sich vom gesellschaftlichen Leben und begab sich auf eine mentale Reise, die ihn zu neuen erkenntnistheoretischen Horizonten führen sollte. Das Ergebnis erschien 1781. Die „Kritik der reinen Vernunft“ ist eines der bekanntesten (wenn auch nicht gerade einfach zu lesenden) Werke der Geschichte des Denkens . Kants Kritik – der Begriff bedeutet in diesem Zusammenhang so viel wie „Untersuchung“ – analysiert die  Frage, ob Erkenntnistheorie und Metaphysik vor der humeschen Fundamentalk ritik gerettet werden können. Letztlich geht es Kant darum, die beiden feindlichen Lager der Rationalisten und Empiristen miteinander zu versöhnen und zu ergründen, was für uns überhaupt erfahrbar ist. David Hume gab den Anstoß Humes Argumente sind f raglos stark: Der Verstand kann die Welt nicht erkennen, ohne dass die Sinne ihm hierfür das Material liefern. Doch Kants Zweifel am Empirismus   sind damit nicht vollständig ausgeräumt. Denn sinnliche Erfahrungen können ohne verstandesmäßige Bearbeitung keine Gewissheit bringen. Das schlagende Beispiel ist die kopernikanische Wende der Astronomie . Würden wir uns auf den Augenschein verlassen, spräche tatsächlich alles dafür, dass die Sonne  um die Erde kreist. Allein durch Nachdenken, durch den Gebrauch seines Verstandes, konnte Kopernikus zu der Einsicht gelangen, dass es sich auch umgekehrt verhalten könnte. Für Kant steht somit fest, dass beide Komponenten zur Erkenntnis beitragen: Unser Sinnesapparat ermöglicht Anschauungen und unser Verstand weist den Begriffen, die wir diesen Anschauungen geben, Bedeutungen zu. Allein die Synthese von Sinn und Verstand erlaubt es uns, Urteile zu fällen und so Erkenntnisse über die Welt zu erlangen.  Kant blieb stets im Bannkreis seiner Heimatstadt Wir verzerren immer die Realität Dabei müssen wir uns stets bewusst sein, dass die Dinge nicht so sind, wie sie uns erscheinen. In jeder Sinneswahrnehmung gibt es Elemente, die nicht in der Natur des Betrachtungsobjekts selbst liegen, sondern durch den Beobachter in den Gegenstand hineingetragen werden. Das Problem existiert allerdings nicht nur für die Empirie – die „Formen der Anschauung“ – sondern berührt auch unsere Denkprozesse – die „Formen des Urteils“. Sowohl durch die empiristische als auch durch die rationalistische Brille nehmen wir die Realität   also nur verzerrt wahr. In Allem, was wir betrachten, steckt ein Teil von uns, den wir aber fälschlicherweise für eine Eigenschaft des betrachteten Objekts halten. Unsere Erkenntnisorgane verändern die Gegenstände durch unsere Anschauung und erlauben es uns daher grundsätzlich nicht, die Welt so zu erkennen, wie sie tatsächlich ist. Da unser Bewusstsein mit der Realität nicht in Kontakt treten kann, können wir auch nicht unterscheiden, welche Eigenschaften den Dingen tatsächlich innewohnen und welche wir lediglich in sie hineinprojizieren. Kant stimmt Hume  zu, dass auch die Kausalitäten , die wir in den Naturgesetzen   zu finden meinen, solche Projektionen sind . Doch während Kausalitäten für Hume Vermutungen bleiben, ist Kant von ihrer Existenz überzeugt. Absolutes Wissen ist damit grundsätzlich möglich. An dieser Kritik arbeitete Kant rund zehn Jahre Seine neue Perspektive, die die Subjektivität menschlicher Weltbetrachtung in den Mittelpunkt stellt, bezeichnet Kant (nicht ganz unbescheiden) als „kopernikanische Wende der Philosophie“. Die Strukturen unserer Wahrnehmung bestimmen unser Erkenntnisvermögen, sie machen uns zum Schöpfer unserer eigenen Welt. Und diese Welt möchte Kant vermessen.   Ist die Metaphysik noch zu retten? Eine Frage liegt dem Professor für Metaphysik und Logik besonders am Herzen: Ist es grundsätzlich möglich, gesichertes Wissen auch „a priori“, also vor der Wahrnehmung zu erlangen? Wenn nicht, wäre die Metaphysik, wie von Hume behauptet, eine rein spekulative Angelegenheit und damit für die Philosophie unbrauchbar [ii] . Zur Analyse dieser Frage erstellt Kant ein einfaches Schema. Die erste Dimension „a priori“ und „a posteriori“ beschreibt Erkenntnis vor  und nach  empirischer Erfahrung. A priori-Wissen ist nicht an Bedingungen geknüpft, sondern immer gültig. A posteriori-Wissen ist bedingt und kontextabhängig. Die zweite Dimension des Schemas unterscheidet „analytisch“ und „synthetisch“. Analytische Betrachtungen zerlegen Wissen lediglich in ihre Bestandteile, liefern aber keine neuen Erkenntnisse; synthetisches Wissen hingegen erweitert den Erkenntnishorizont. Dimensionen der Erkenntnis nach Kant Analytisches a priori-Wissen ist beispielsweise die Feststellung „Die Kugel ist rund“. Wir benötigen keine empirische Überprüfung, um die Richtigkeit dieser Aussage zu bestätigen – schließlich ist es das Wesen einer Kugel, rund zu sein. Der Befund ist zwar immer wahr, erweitert mein Wissen aber nicht. Unstrittig ist zudem, dass die Erfahrung, der Einsatz meines Sinnesapparats, mein Wissen erweitert: Aus der Aussage „Die Kugel wiegt ein Kilogramm“ geht nicht zwingend hervor, dass dem auch so ist. Durch Wiegen lässt sich aber die Richtigkeit der Aussage überprüfen. Die dritte mögliche Konstellation, der Versuch, mittels Empirie analytisches Wissen zu gewinnen, ist unsinnig. Wir müssen nicht überprüfen, ob die Kugel rund ist. Wäre sie es nicht, wäre sie keine Kugel. Da empirische Erkenntnisse nichts Notwendiges enthalten, können sie immer nur a posteriori, also nach der Erfahrung, gewonnen werden.   Ist rein denkender Erkenntnisgewinn möglich? Die entscheidende Frage für Kant ist die letzte Möglichkeit: Kann erweiterndes Wissen rein durch den menschlichen Geist gewonnen werden? Von der Antwort hängt die Existenzberechtigung der Metaphysik als ernstzunehmende Wissenschaft ab. Kant beantwortet die Frage mit „ja“. Ein schlagendes Beispiel ist die Mathematik : 7 + 5 = 12. Die Richtigkeit dieser Aussage kann ohne Empirie bewiesen werden. Doch Kant ist überzeugt, dass sich synthetisches a priori-Wissen auch auf allgemeine Bereiche des Menschseins ausweiten lässt. D ie Transzendentale Ästhetik  – so bezeichnet Kant unser Vermögen, Wahrnehmungen in Raum und Zeit einordnen zu können – ist nicht von Erfahrung abhängig ( K ant verwendet den Begriff Ästhetik hier in seinem ursprünglichen Sinne als „sinnliche Wahrnehmung“).  Raum und Zeit, als Projektionen der äußeren und inneren Anschauung, sind keine Phänomene der Natur, deren Umgang wir erst erlernen müssten; ihr Verständnis ist uns vielmehr von Geburt an, also a priori, mitgegeben. Dies erst macht die Welt für uns vorstellbar. Der Erkenntnisprozess in Kants Transzendentalphilosophie Die Bewertung von Wahrnehmungen durch den Verstand ist für Kant nur deshalb möglich, weil in unserem Kopf Strukturen existieren, die die Dinge in Raum und Zeit einordnen, filtern und beurteilen. Das Instrument, mit dem dies geschieht sind Begriffe. Auch sie sind a priori-Wissen. Wir bewerten unsere Erfahrungen, indem wir ihnen Begriffe zuordnen. Kant fasst es so zusammen: „Gedanken ohne Inhalt sind leer, Anschauungen ohne Begriffe sind blind.“ [iv]   Die Strukturen, auf die der Verstand zugreift, um Empirisches und Rationales miteinander zu verbinden, bestimmen die „Bedingungen der Möglichkeit“. Das passende Raster hierfür findet Kant bei Aristoteles , der mehr als 2.000 Jahre zuvor in seiner Logik Quantität, Qualität, Relation und Modalität als Kategorien der Urteilsbeschreibung bereits aufgeführt hatte. Kant verfeinert dieses Konzept, indem er den vier Kategorien noch einmal jeweils drei Unterkategorien zuweist. So sind beispielsweise „Ursache und Wirkung“ eine Unterkategorie der Relation. In dieser zwölfteiligen Struktur – Kant bezeichnet sie als Transzendentale Logik – findet der Verstand die nötigen Begriffe, um seine Urteile zu bilden. Damit hatte Kant die Transzendentalphilosophie  geschaffen. Mit ihrer Hilfe lassen sich die empirischen und rationalistischen Bedingungen untersuchen, die uns zu neuen Erkenntnissen führen können. Zudem zeigt sie, dass Wissen a priori ohne spekulative Elemente erweitert werden kann, eine Erkenntnis, die die Metaphysik rettet und mit der sich die Grenzen der Erkenntnisfähigkeit ausloten lassen: Der realen Welt steht eine durch unser Bewusstsein erzeugte Welt der Erscheinungen gegenüber. Das seit Platon angestrebte Ideal, die reale Welt, das „ Ding an sich “, mit unseren Sinnen erkennen zu wollen, müssen wir aufgeben. [v]   Ein neues philosophisches Werkzeug Mit dem neuen Werkzeug der Transzendentalanalyse möchte Kant nun grundlegende Streitfragen der Philosophie untersuchen. Etwa die alte Antinomie   um die Existenz Gottes. Beide Aussagen, „Es gibt Gott“ und „Es gibt Gott nicht“ können richtig sein. Doch welche davon wahr ist, wird sich weder empirisch noch rationalistisch jemals überprüfen lassen. Alle historischen Versuche, die Existenz oder Nichtexistenz Gottes zu begründen, erweisen sich aus transzendentalphilosophischer Perspektive als unsinnig. Ein anderer klassischer Disput bringt den Königsberger Professor allerdings in Bedrängnis. Der These der Fr eiheitsantinomie „Die Welt ist nicht nur kausal bestimmt“ steht die Gegenthese: „Die Welt ist rein kausal“ gegenüber. Doch diese zweite Möglichkeit hätte eine furchtbare Implikation. Es gäbe dann keinen freien Willen   und damit wäre wiederum jegliche Ethik   sinnlos.   Dieser Vorstellung möchte Kant nicht folgen. Er verteidigt die Freiheit mit einer hypothetischen Annahme: In der für uns nicht erfahrbaren Welt des „Dings an sich“ existieren die Beschränkungen, die Sinn und Verstand uns auferlegen nicht. Dort gibt es weder Raum noch Zeit noch Begriffe oder Kausalität. Diese Welt ist das Reich der Freiheit. Für den Menschen bedeutet Freiheit, dass er die Wahl hat, sich bewusst moralischen Gesetzen zu unterwerfen – Gesetze, die die Vernunft gebietet und nicht die Natur. Der Mensch, der sich über seine Instinkte erhebt, ist Ursache, nicht Wirkung. Kant weiß, dass diese Behauptung angreifbar ist. Aber er benötigt dieses Postulat, um den freien Willen und damit die Ethik zu retten. Und darum sollten wir, so Kant, auch die Existenz Gottes annehmen. Ohne ihn hätten wir keinen Grund, das Gute auch zu wollen.   Wie soll der Mensch mit seiner Freiheit umgehen? Wie Platon   möchte auch Kant ein System erschaffen, das die Welt umfassend erklärt. Und so widmet er eine zweite kritische Schrift, die 1788 erschienene „Kritik der praktischen Vernunft“, der Frage, wie der Mensch mit seiner Freiheit umgehen soll. Die Aufgabe, vorbildliches Leben und Handeln in Einklang zu bringen, will Kant nicht mehr allein der Religion   überlassen. In der Antike   bedeutete Ethik in erster Linie „das Gute“ zu tun. Die schottischen Aufklärer David Hume und Adam Smith hatten eine Gefühlsethik   propagiert, nach der moralisches Handeln durch positive Vorbilder erlernt werden soll. Beides ist Kant nicht genug. Er sucht nach absoluten, rationalen und objektivierbaren Prinzipien, die a priori existieren. Die Handlungsanweisung, der Imperativ, darf weder subjektiv noch hypothetisch sein, noch soll er egoistischen Zielen dienen. Er muss für alle Menschen gleichermaßen und unter allen Bedingungen gelten, also kategorisch sein. Diese Bedingungen führen Kant zur Definition seines berühmten kategorischen Imperativs : „Handle so, dass die Maxime deines Willens jederzeit zugleich als Prinzip einer allgemeinen Gesetzgebung gelten könne.“ [vi] Dieses „Grundgesetz der praktischen Vernunft“ ist das vielleicht bekannteste Zitat des Königsberger Philosophen. Es stellt eine einfache, für alle leicht nachzuvollziehende Grundorientierung dar: Mein Verhalten ist dann richtig, wenn meine Moral   auch von allen anderen akzeptiert werden kann. Das geht über das Sprichwort „Was du nicht willst, das man dir tu, das füg auch keinem anderen zu“ hinaus. Denn diese in vielen Kulturkreisen bekannte „goldene Regel“ zielt allein auf Vermeidung. Kants Formulierung umfasst aber ebenso positives Verhalten – auch sich selbst gegenüber. Das Gute soll um seiner selbst willen getan werden. Oder wie Kant es formulierte: „Die Tugend [ist] nur darum so viel wert, weil sie so viel kostet, nicht weil sie etwas einbringt.“ [vii]   Moral, so Kant, bedarf keiner Erklärung durch Gott oder die Natur. Keine abstrakte Instanz muss uns sagen, was wir tun sollen – wir müssen es selbst wissen. Das moralische Gesetz ist absolut und daher nicht von bestimmten Situationen abhängig, denn im Reich der Freiheit unterliegt nichts den kausalen Zwängen der hiesigen Welt. Der kategorische Imperativ ist eine freiwillige Selbstverpflichtung, das Gute tun zu wollen. Im Einzelfall kann das auch bedeuten, dass das Handeln unbeabsichtigt negative Folgen hat – was allein zählt, ist der gute Wille und dass die Würde aller Beteiligten gewahrt wird. Der Mensch ist ein Zweck an sich und darf nicht als Mittel für die Zwecke anderer Menschen missbraucht werden. Was wie ein abstraktes, idealistisches Gedankenspiel klingt, prägt unser heutiges Rechtsverständnis entscheidend. Es ist genau dieses Bild der Menschenwürde von dem Artikel 1 des Grundgesetzes der Bundesrepublik Deutschland   spricht. Hier wirkt Kant bis heute. Am Ende der Kritik der praktischen Vernunft findet sich jenes Kant-Zitat, das auch den Grabstein des Philosophen ziert: „Zwei Dinge erfüllen das Gemüt mit immer neuer und zunehmender Bewunderung und Ehrfurcht, je öfter und anhaltender sich das Nachdenken damit beschäftigt: Der bestirnte Himmel über mir, und das moralische Gesetz in mir“ [viii] Hier stellt Kant noch einmal die beiden von ihm geschaffenen Welten gegenüber: Die große äußere Welt, in die wir als winziges Rädchen eingebettet sind und die wir versuchen, mit Sinn und Verstand zu erfassen; und die innere Welt, die Welt der Freiheit, die uns auffordert, das Gute zu tun.   Ein visionärer Geist Gott war für Kant ein Postulat der Vernunft und gerade die Tatsache, dass wir über seine Existenz kein Wissen haben können, schafft Raum für den Glauben. Das hielt den Philosophen in den 1790er Jahren nicht davon ab, sich wie zuvor Spinoza   und Hume in verschiedenen Schriften kritisch zu Religion und kirchlicher Bevormundung zu äußern. Provokante Thesen, wie die Forderung, die Aussagen der Bibel an den Maßstäben der praktischen Vernunft zu messen, sowie seine Kritik an dem Dogma der Erbsünde, führten in Preußen dazu, dass Kant seine religiösen Schriften nicht mehr publizieren durfte. Doch die Frage „ Was darf ich hoffen “ geht für Kant über die Religion hinaus. In zwei Aufsätzen, „Idee zu einer allgemeinen Geschichte in weltbürgerlicher Absicht“ (1784) und „Zum ewigen Frieden“ (1795), entwickelt er eine bemerkenswerte Vision. Die Geschichte begreift Kant darin als den Prozess der schrittweisen und zielgerichteten Entwicklung der Vernunft. Beeindruckt vom Freiheitsgedanken der Französischen Revolution   äußert er sich überzeugt, dass die Republik die einzige erstrebenswerte Staatsform sei. Mit diesen Gedanken begründet Kant die klassische Geschichtsphilosophie . Um dem Ideal eines ewigen Friedens schon im Diesseits näherzukommen, überträgt er die Kriterien seiner praktischen Vernunft auf alle Völker. Ein kosmopolitisches Regelwerk, ein Völkerrecht, institutionalisiert durch einen Völkerbund , soll den friedvollen Umgang der Nationen untereinander sicherstellen. Dazu gehören allseitiger Verzicht auf die Veränderungen von Staatsgrenzen und die Ächtung von Krieg und Kolonisierung als politischen Mitteln. Ließe man, was nur in einer Republik möglich ist, die Menschen selbst über Krieg und Frieden abstimmen, fände sich für den Krieg keine Mehrheit mehr. Ende des 18. Jahrhunderts ein wahrhaft visionärer Gedanke!   Den Blog entdecken   Wer mehr wissen will: Kant, Immanuel (2009): „Beantwortung der Frage: Was ist Aufklärung?“, Projekt Gutenberg-DE. Kant, Immanuel (1995): „Kritik der praktischen Vernunft“, Projekt Gutenberg-DE. Kant, Immanuel (1956): „Kritik der reinen Vernunft“, Meiner. Kant, Immanuel (1977): „Kritik der Urteilskraft“, Suhrkamp. Kant, Immanuel (1784):  „Idee zu einer allgemeinen Geschichte in weltbürgerlicher Absicht“, Berlinische Monatsschrift, November 1784, S. 385-411. Kant, Immanuel (1795): „Zum ewigen Frieden“, Projekt Gutenberg-DE.   Bildnachweise: [i]  Laplace entwickelte später unabhängig von Kant die gleiche Idee zur Planetenentstehung. Die Kant-Laplace-Theorie wurde später von James Clerk Maxwell widerlegt. [ii] Hier wird der Zeitgeist der Aufklärung deutlich: Während man Metaphysik grundsätzlich auch spekulativ betreiben könnte, war es Kant wichtig, sie als eine Wissenschaft zu positionieren, die sich mit Newtons fortschrittlicher Physik messen lassen konnte. [iii] [iv] Kant (1956) S.95.   [v] Kant nimmt damit wesentliche Erkenntnisse der neurobiologischen Forschung vorweg. [vi]  Kant (1995) Kapitel 7, § 7. [vii]  Kant (1995) Kapitel 32. [viii]  Kant (1995) Kapitel 34.

  • Donald Trumps Voodoo-Ökonomie

    Donald Trumps Voodoo-Ökonomie In meinem Blog geht es um Grundlagen des Weltverstehens. Ich bemühe mich hierfür die wichtigsten und einflussreichsten Welterklärungstheorien in elf Themengebieten so verständlich wie möglich darzustellen. In jedem zwölften Artikel, der Kategorie „ Dies und Das “ verarbeite ich keine Auszüge aus meinem Buch , sondern versuche bestimmte kapitelübergreifende Themen aufzugreifen und Querverbindungen darzustellen. Ich habe mich bisher – durchaus absichtlich – nicht mit aktuellen Themen befasst, denn ich möchte in erster Linie Modelle vorstellen, die uns helfen können, die Phänomene des Lebens und die Informationsflut um uns herum sinnvoll einzuordnen. Ich möchte diese selbst auferlegte Regel nun erstmalig brechen, weil mich persönlich – so wie viele andere Menschen auch – die aktuelle Präsidentschaft Donald Trumps sehr beschäftigt.   Dabei soll ausschließlich die Zollpolitik  des amerikanischen Präsidenten etwas beleuchtet werden, ein Thema, das uns wohl noch eine ganze Weile beschäftigen wird (am 23.05.2025 hat Trump seine Androhung von 50%igen Zöllen auf EU-Produkte noch einmal bekräftigt und die Börsen damit erneut auf Talfahrt geschickt.) Inwieweit lässt sich die Handelspolitik der Trump-Administration mit den gängigen ökonomischen Theorien in Einklang bringen? Und inwieweit können diese Theorien die Wirklichkeit erklären? Wer gewinnt das Kräftemessen? Oder verlieren nicht eher alle?   Ein Blick zurück: Die Rolle des Außenhandels in der klassischen Nationalökonomie In den Wirtschaftswissenschaften   geht es letztlich immer nur um zwei Fragen: Wie kann die Gesamt-Wohlfahrt in einer Gesellschaft maximal gesteigert und wie soll der so erwirtschaftete Reichtum am besten verteilt werden? Der Begründer der modernen Wirtschaftswissenschaften ist der schottische Philosoph Adam Smith . Er beschrieb bereits 1776 in einem berühmten Beispiel anhand einer Stecknadelmanufaktur, wie Arbeitsteilung  eine unfassbare Wohlstandsmehrung erzeugt. Internationaler Handel ist letztlich nichts anderes als Arbeitsteilung. Nicht zwischen Menschen in einem Unternehmen, sondern zwischen Unternehmen, die in verschiedenen Ländern beheimatet sind. Smith beschreibt in seinem fundamentalen Werk „ Der Wohlstand der Nationen “ , dass es sinnvoll ist, Außenhandel zu betreiben, wenn ein anderes Land ein Gut mit weniger Arbeitseinsatz herstellen kann. Wenn also etwa Kleidung in China billiger als in den USA hergestellt werden kann, dann profitieren alle davon. Die Chinesen, weil sie einen Teil ihrer Wirtschaftsleistung aufgrund ihres Kostenvorteils exportieren können und die Amerikaner, weil sie weniger für Kleidung ausgeben müssen und damit mehr Geld für den Konsum anderer Güter zur Verfügung haben. Ein weiterer Vertreter der klassischen Nationalökonomie hat diesen Gedanken weitergesponnen. In einem ebenfalls berühmten Beispiel zeigte David Ricardo , dass die internationale Arbeitsteilung selbst dann sinnvoll ist, wenn ein Land alle  Güter billiger herstellen kann als sein Handelspartner, nämlich dann, wenn sich das produktivere Land auf die Güter konzentriert, bei denen es einen komparativen Vorteil hat. Ricardo erklärte das Anfang des 19. Jahrhunderts anhand eines Beispiels mit Portugal und England, die beide Tuch und Wein herstellen, allerdings zu unterschiedlichen Bedingungen ( Das Beispiel wird hier ausführlich erklärt .) Die Quintessenz der klassischen Nationalökonomie lautet kurz gefasst, dass internationale Arbeitsteilung Produktivitätsverbesserungen erzeugen, von denen letztlich alle beteiligten Nationen profitieren.    Was will Trump? Nach einer Aussage Trumps sind Zölle das viertschönste Wort überhaupt (nach Gott, Religion und Liebe). Folgende Ziele sind grundsätzlich denkbar, die Trump mit seiner Handelskriegserklärung vom 2. April 2025 – von ihm selbst als „Liberation Day“ bezeichnet – im Auge haben könnte:   Rückholung von Industriearbeitsplätzen Erhöhung der Staatseinnahmen durch Zölle Autarkie der eigenen Wirtschaft Verringerung des Handelsdefizits der USA Demonstration politischer Handlungsfähigkeit gegenüber der eigenen Wählerschaft Verhandlungsvorteile durch wirtschaftliche Hebel Schwächung geopolitischer Rivalen durch wirtschaftlichen Druck   Betrachten wir jeden dieser Punkte kurz einzeln:    Rückholung von Industriearbeitsplätzen. Wenn aus dem Ausland importierte Waren sich durch Zölle massiv verteuern, so die Überlegung, wird es für inländisch Nachfrager natürlich attraktiver, mehr der nun relativ billiger gewordenen inländischen Produkte nachzufragen , was entsprechend die Schaffung neuer Arbeitsplätze in den USA nach sich ziehen würde. Es ist aber aus den folgenden Gründen sehr unwahrscheinlich, dass diese Rechnung aufgeht: Unsere globalisierte Welt ist extrem arbeitsteilig. Es gibt kaum noch Produkte, die von A bis Z ausschließlich in einem Land hergestellt werden. US-Amerikanische Autos bestehen zu etwa 40% aus Komponenten, die aus dem Ausland bezogen werden. Werden diese mit Zöllen belegt, erhöhen sich dadurch automatisch auch die inländischen Herstellungskosten, was die Wettbewerbsfähigkeit entsprechend mindert. Und ist ein BMW aus Spartanburg oder ein Mercedes aus Chattanooga (beide werden auch in Europa verkauft) nun ein amerikanisches oder ein deutsches Auto? Zölle schützen nicht die gesamte Volkswirtschaft, sondern immer nur bestimmte Branchen. Wenn etwa die wenig wettbewerbsfähige US- Stahlindustrie durch Zölle „geschützt“ werden soll, müssen alle Branchen, die Stahl verarbeiten, die teureren inländischen Produkte beziehen was wiederum ihre Produkte teurer macht.   Selbst wenn es zu Rückverlagerungen von Produktion kommt, werden dadurch nicht automatisch Arbeitsplätze geschaffen. Die Herstellung einfacher Konsumgüter, deren Produktion in den letzten dreißig Jahren massiv nach Mexico und nach China verlegt wurde, können in den USA nur dann wettbewerbsfähig hergestellt werden, wenn die Produktion in hohem Maße automatisiert wird. Dazu benötigt man sicherlich einige hochqualifizierte Ingenieure – aber kaum Heerscharen von Arbeitern. Kurzfristige Wirkung: die von Joseph Schumpeter   beschriebene zerstörerische Kraft des Kapitalismus kann dadurch nicht aufgehalten werden. In Großbritannien haben die Gewerkschaften in den 1960er Jahren durchgesetzt, dass nach der Umstellung des Bahnbetriebs von Dampflokomotiven auf E-Loks die Heizer weiterhin mitfahren dürfen. Den technischen Fortschritt hat dies indes nicht angefochten. Sicherlich keine einfache Situation für die Stahlarbeiter des „Rust Belt“. Doch auch in diesem Fall lässt sich das Rad der Geschichte wohl kaum zurückdrehen.   Weder aus Sicht der Spieltheorie noch im „richtigen Leben“ darf erwartet werden, dass das Verhängen von Zöllen durch den Importeur ohne Gegenmaßnahmen durch die Exporteure bleibt. China hat es vorgemacht und eben nicht, um den US-Präsidenten fast wörtlich zu zitieren, dessen „Allerwertesten“ geküsst, um weiter mit den USA Handel treiben zu dürfen (man verzeihe mir mein schlechtes Französisch). Die Gegenzölle erschweren den Export und kosten letztlich Arbeitsplätze in den USA.   Erhöhung der Staatseinnahmen durch Zölle Das von Trump zitierte Vorbild ist sein Amtsvorgänger William McKinley  (1843-1901). Als Kongressabgeordneter hatte dieser 1890 Zölle von 50% durchgesetzt und später als Präsident weitere Zollvorlagen des Kongresses gebilligt. Tatsächlich wurden damals rund die Hälfte des Bundeshaushalts durch Zolleinnahmen finanziert – allerdings nur deshalb, weil es noch keine Einkommenssteuer gab und der Staat keinerlei Sozialausgaben finanzieren musste. Die Vereinnahmung McKinleys hält also einer wirtschaftshistorischen Überprüfung nicht stand. Selbst wenn er durch Zölle seine Einnahmen steigert, wird Donald Trump damit rechnen müssen, dass durch geringere Profite US-amerikanischer Unternehmen die Gewerbesteuereinnahmen sinken werden. Dass sich damit die Einkommenssteuer abschaffen ließe, weil nun Ausländer den US-Staatshaushalt finanzieren, ist illusorisch.       Autarkie der eigenen Wirtschaft Die Corona-Pandemie hat geostrategische Verwundbarkeiten aufgezeigt, als etwa Deutschland feststellen musste, dass es nicht einmal einen Bruchteil seines plötzlichen Bedarfs an medizinischen Schutzmasken selbst herstellen konnte. Die US-Regierung könnte aus verständlichen Gründen versucht sein ebenfalls durch Rückverlagerungen sicherzustellen, dass für eine bestimmte Anzahl kritischer Produkte eine Autarkie erreicht wird. Die Vorteile dieser nationalen Resilienz könnte man als höheres Ziel werten, als die Nachteile durch die damit verbundenen höheren Konsumentenpreise. Doch die bereits erwähnte faktische globale Verflechtung der Produktionswege steht dem entgegen. Es ist außerordentlich schwer – letztlich faktisch unmöglich – alle Komponenten eines beliebigen, selbst einfachen Produkts unter eine rein nationale Kontrolle zu bekommen. Die definitiv bessere Option ist es, verlässliche Handelspartner zu haben.       Reduktion des Handelsdefizits der USA Offenbar ist Trump der Meinung, dass das Außenhandelsdefizit, welches die USA gegenüber vielen Handelspartnern haben, eine „Niederlage“ darstellt, einen „Deal“, bei dem die USA über den Tisch gezogen und ausgeplündert werden. Dies ist – mit Verlaub – eine äußerst merkwürdige Perspektive. Wenn ich im Supermarkt einkaufe, habe ich gegenüber dem Supermarkt ebenfalls ein Handelsdefizit – schließlich kauft mir der Supermarkt ja nichts ab. Hat er mich deshalb übers Ohr gehauen? Ich glaube nicht. Die Argumentation ist auch aus einer anderen Perspektive fragwürdig. Die Güter, die in Deutschland, der Schweiz, Österreich oder einem beliebigen anderen exportierenden Land hergestellt werden, stehen der jeweils heimischen Ökonomie ja nicht mehr zu Verfügung. Sie stellen in diesem Sinne entgangene Konsummöglichkeiten für die Inländer des Exporteurs dar. Sollten diese sich deswegen übervorteilt fühlen? Wenn ein Land mehr Güter importiert als exportiert, bedeutet das nicht, dass „ Geld “ verloren geht. Das importierende Land blutet nicht aus oder verliert etwas, sondern bekommt dafür Gegenleistungen in Form von importierten Waren und Dienstleistungen, die durch Marktpreise validiert worden sind. Die USA haben eine negative Außenhandelsbilanz, weil Amerikaner insgesamt ausländische Güter stärker schätzen als heimische Produkte. Sie mögen dafür gute Gründe haben.   Des Weiteren ist Trump als Immobilienfachwirt ganz offenbar auf den Gütermarkt fokussiert. Dass die USA gegenüber den meisten Industrienationen sowie einigen Schwellenländern wie China, Mexico und Vietnam ein Handelsdefizit haben ist Fakt. Ganz anders sieht die Situation aus, wenn man den Dienstleistungssektor betrachtet: Hier punkten die USA mit einem Außenhandelsüberschuss gegenüber vielen Ländern. Dies resultiert insbesondere aus der starken Position der USA in den Bereichen Tourismus, digitale Technologien und Finanzdienstleistungen. Zwar fallen die absoluten Zahlen gegenüber dem Güterverkehr insgesamt deutlich weniger ins Gewicht, doch hätte hier etwa die EU-einen ziemlich wirksamen Hebel, denn sie könnte schmerzhafte Gegenzölle auf amerikanische Dienstleistungen verhängen.         Ein weiterer Aspekt der Erhöhung der zollinduzierten Kosten für Exporteure könnte sein, dass die inländischen Konkurrenten in den USA relativ einfach ihre Preise erhöhen und damit die Inflation   anheizen. Wenn die Güter ausländischer Konkurrenten plötzlich 10%, 20% oder 50% mehr kosten wird es für die inländischen US-Wettbewerber relativ einfach sein ihre eigenen Preise um 5% zu erhöhen – Öl auf das Inflations-Feuer.   Güter-Außenhandelsbilanz der USA für die wichtigsten Partner   Dienstleistungs-Außenhandelsbilanz der USA für die wichtigsten Partner Demonstration politischer Handlungsfähigkeit gegenüber der eigenen Wählerschaft Hier geht es eher um einen psychologischen Effekt als um handfeste ökonomische Vor- oder Nachteile. Die öffentlich inszenierte Handelskriegserklärung mag auf den ersten Blick Tatkraft vermitteln. Mit sehr großer Wahrscheinlichkeit aber wird sich diese Form von Symbolpolitik für die allermeisten Amerikaner – gleich ob sie Trump gewählt haben oder nicht – aus den genannten Gründen als kontraproduktiv erweisen. Komplexe Sachverhalte werden auf einfache Narrative reduziert – die Gefahr, dass Trump seine Anhänger enttäuscht ist nicht zu unterschätzen. Wir werden es bei den Midterm Elections sehen.   Verhandlungsvorteile durch wirtschaftliche Hebel Die Drohkulisse soll offenbar die Handelspartner einschüchtern. Doch nach anfänglicher Irritation zeigt sich, dass sich die allermeisten Handelspartner von diesem Aufplustern nicht sonderlich beeindrucken lassen. Zwar repräsentieren die USA nominal mehr als ein Viertel des globalen BIP, doch letztlich haben sie damit immer noch knapp 75% der Welt gegen sich. Mit das wichtigste Kapital, das eine Nation aufbauen kann, ist Vertrauen  – genau dieses aber könnten die USA jetzt verspielen. Viele Handelspartner sind stark genug, sich auf eskalierende Handelskonflikte einzulassen. Eine Situation bei der alle – wie von Smith und Ricardo aufgezeigt – verlieren würden. Das wissen alle Beteiligten, der Grund warum die Trump-Administration bereits kurz nach dem „Liberation Day“ einen Rückzieher machen musste und die Zölle für 90 Tage aussetzte.   Schwächung geopolitischer Rivalen durch wirtschaftlichen Druck Seit einiger Zeit bereits haben die USA China als größten geopolitischen Rivalen ausgemacht (das nominale BIP  der USA betrug 2024 rund 29 Billionen US-Dollar; das von China knapp 19 Billionen US-Dollar – mit einer realen Wachstumsrate, die knapp das doppelte der Vereinigten Staaten beträgt.) Dass ein Handelskrieg den wirtschaftlichen Aufstieg Chinas dauerhaft bremsen wird, ist kaum anzunehmen. Zwar setzen die US-Zölle China gewaltig unter Druck – China sucht derzeit bereits nach neuen Absatzmärkten – doch die Einführung der Zölle hat bereits auch in den USA zu steigenden Preisen geführt und damit die Inflation angeheizt. Ein Szenario bei dem – gemäß der 200 Jahre alten Erkenntnis der klassischen Nationalökonomie alle Beteiligten verlieren werden. Dass in diesem Zusammenhang auch der Rest der westlichen Welt als geopolitischer Rivale behandelt wird (und zudem auch noch einige Pinguine), dürfte die Situation der USA ebenfalls nicht dauerhaft stärken.   Fazit Es ist zu befürchten, dass der amtierende Präsident der Vereinigten Staaten sowie seine Pferdeflüsterer grundlegende Erkenntnisse der ökonomischen Theorie nicht verinnerlicht haben: Falls er denkt, dass Zölle eine Steuer sind, die nur Ausländer bezahlen müssen, liegt er falsch. Freihandel macht alle Beteiligten grundsätzlich reicher. Zölle machen alle Beteiligten ärmer und hemmen den Fortschritt. Die Reaktion der Kapitalmärkte war diesbezüglich eindeutig und faktisch ist die US-Wirtschaft im ersten Quartal 2025 geschrumpft. Ein Handelskrieg erzeugt letztlich nur Verlierer. Dass die USA mit diesem Ansatz reindustrialisiert werden können ist ausgesprochen unwahrscheinlich. Zwar empfinden zahlreiche Trump-Wähler dessen Zoll-Politik als Schutz ihrer Arbeitsplätze. Doch aktuellen Schätzungen zufolge bedeutet das Vorgehen der US-Regierung für eine typische amerikanische Mittelstandsfamilie auch einen jährlichen Kaufkraftverlust von rund 4000 US-Dollar.   Der dramatischste Effekt aber ist der signifikante Vertrauensverlust, den die USA gerade durch das erratische Verhalten ihrer Regierung erleiden. Die wichtigste Währung in internationalen Beziehungen ist Vertrauen. Genau dieses Kapital aber wird gerade systematisch verspielt. In einer zunehmend komplexen Welt brauchen wir keine einfachen Parolen, sondern ein besseres Verständnis der Zusammenhänge.     Den Blog entdecken   Wer mehr wissen will: Betrachtungen von Hans-Werner Sinn zur amerikanischen Zollpolitik Betrachtungen des Nobelpreisträgers Paul Krugman zur amerikanischen Zollpolitik Betrachtung von John Oliver in seiner Late Night Show

  • Der Aufstieg des Kapitals

    Fortsetzung von: "Revolutionen und Kriege: Europa 1618-1815" Aufbruch in ein neues Zeitalter Als der englische Fabrikant Abraham Darby  in Coalbrookdale Anfang des 18. Jahrhunderts die Befeuerung seiner Eisenhütte von Holzkohle auf Steinkohle umstellt, ist ihm nicht bewusst, dass er damit das Tor zu einem neuen Zeitalter aufstößt. Coalbrookdale bei Nacht Der fossile Energieträger – seit Jahrmillionen gespeicherte Sonnenenergie   – ist dreimal so effizient, die Kosten der Eisenherstellung sinken deutlich. Doch der Steinkohleabbau hat ein neues Problem geschaffen: In die tiefen Förderschächte dringt Grundwasser ein. Thomas Newcomen   (1663-1729) entwickelt daraufhin eine mit Dampf betriebene Maschine, mit der sich das Wasser abpumpen lässt. In jahrzehntelanger Arbeit verbessert der Schotte James Watt  (1736-1819) die Kraftmaschine weiter, bis er schließlich eine Verdreifachung ihrer Effizienz erreicht. Nicht ihr Erfinder - aber er verschaffte der neuen Kraftmaschine den entscheidenden Durchbruch: James Watt Schon bald zeigt sich, dass sich damit nicht nur Bergwerke trocken halten lassen: 1804 stellt der Engländer Richard Trevithick  die erste funktionstüchtige Dampflokomotive vor; drei Jahre später konstruiert der Amerikaner Robert Fulton  das erste brauchbare Dampfschiff. Die Extraktion urzeitlichen Karbons zur Befeuerung neuzeitlicher Maschinen ist der tiefste Einschnitt in die Menschheitsgeschichte seit Beginn des Neolithikums . Seit 12.000 Jahren basieren die Ökonomien  aller sesshaften Gesellschaften auf Landwirtschaft, die Energieerzeugung fast ausschließlich auf menschlicher und tierischer Muskelkraft. Die fossilen Brennstoffe verändern nun alles. Die neue Energiequelle wirkt sich zunächst unmittelbar nur auf das Leben eines kleinen Teils der Weltbevölkerung aus; die mittelbaren Folgen aber werden schon bald überall auf der Erde zu spüren sein. Warum England? Watts Maschine: Fortschritt war nun nicht mehr von menschlicher oder tierischer Muskelkraft abhängig Dass die Industrielle Revolution  ihren Ausgang in Großbritannien   nimmt, ist kein Zufall. Das Land vereint eine Reihe einzigartiger Voraussetzungen: Eine gebildete Elite, die wissenschaftliches Denken   fördert und im Bereich der Mechanik eine Reihe bahnbrechender Innovationen hervorbringt; ein durch strenge puritanische Ethik geprägtes Unternehmertum; weitgehende Abwesenheit absolutistischen Denkens; eine privilegierte Insellage in der Nähe des Kontinents, die das Land einerseits vor Invasionen schützt und es so ermöglicht, Kriege statt im eigenen Land, auf fremden Territorien auszutragen, und die andererseits enge Handelsbeziehungen mit den europäischen Nachbarn erlaubt; eine besondere Geographie , bei der die tief eingeschnittenen Buchten zahlreiche natürliche Häfen bieten und dafür sorgen, dass kein Ort mehr als 113 km von der Küste entfernt liegt; eine mächtige Flotte, die den Überseehandel wirkungsvoll zu schützen vermag; weltumspannende Handelsbeziehungen, über die zahlreiche Rohstoffe aus den Kolonien in das Mutterland gelangen und nicht zuletzt ein Überschuss an Arbeitskräften, mechanischer Energie   und Kapital, um die Rohstoffe zu verarbeiten. Massenmärkte und Menschenmassen Die neue Zeit transformiert nicht nur Materie, sondern auch die Gesellschaft. Der schottische Philosoph Adam Smith   analysiert die entstehenden Massenmärkte   und stellt fest, dass weder Protektionismus noch kriegerische Eroberungen den Reichtum einer Nation mehren, sondern Fleiß, individuelle Freiheit und Rechtssicherheit . Entfernungen schrumpfen, Feldfrüchte werden zu landwirtschaftlichen Produkten, Stahl und Textilien zu billigen Gebrauchsgütern. Informationen, die bisher höchstens mit der Geschwindigkeit eines galoppierenden Pferdes oder eines schnittigen Segelschiffs übermittelt werden konnten, verbreiten sich dank der Telegraphie seit den 1840er Jahren im rasendem Tempo. Der moderne Kapitalismus , der sich nun rasch in den Staaten des nördlichen Atlantik ausbreitet, bringt allerdings keineswegs Wohlstand für alle. Kleinbauern können nicht mehr mit industrialisierten Landwirtschaftsbetrieben konkurrieren; Handwerker verlieren mit den letzten mittelalterlichen Privilegien auch ihren sozialen Status. Die Arbeiter beherrschen nun nicht mehr das Werkzeug – das Werkzeug beherrscht sie.   Diese Entwicklung lässt weite Teile der Bevölkerung verelenden. Intellektuelle wie Pierre-Joseph Proudhon , Karl Marx , Friedrich Engels  oder Ferdinand Lassalle  verleihen den besitzlosen proletarischen Massen des 19. Jahrhunderts eine Stimme. Ihre Ideen speisen sich aus den Idealen der Französischen Revolution   und Hegels   Geschichtsphilosophie , deren idealistischer Ansatz allerdings durch eine konsequent materielle Betrachtungsweise ersetzt wird. Das Ziel ist eine grundlegende Veränderung der Macht- und Einkommensverhältnisse. Elend und die Diktatur der Uhr Ein nicht geringer Teil des Elends ist auch dem rasanten Bevölkerungswachstum Europas geschuldet.   Zwischen   1800 und 1900 steigt die Zahl der Menschen von 170 Millionen auf 400 Millionen – mehr als doppelt so schnell wie im Rest der Welt. Bevölkerungsdruck und Armut führen dazu, dass Millionen Europäer ihre Heimat verlassen und ihr Glück in der Neuen Welt suchen. Die entstehenden Ballungszentren der alten und der neuen Welt verbindet schon bald ein Netz von Eisenbahnlinien. Was zu Zeiten der Pferdekutsche niemand wahrnehmen konnte, wird nun zum Problem: Jede Stadt hat ihre eigene, nach der Sonne gestellte Zeit. Die Einführung von Fahrplänen erzwingt die Gleichschaltung aller Uhren. 1880 wird die ursprünglich nur für den Schienenverkehr gedachte Bahnzeit in England zur nationalen Standardzeit; Deutschland folgt 1893. Die Diktatur der Pünktlichkeit erfasst die gesamte Industriegesellschaft: Fahrpläne, Stechuhren, Maschinenrhythmen, Werksirenen und Pausenklingeln geben den Menschen jetzt den Takt vor. Der Aufstieg der Hygiene Die ungeheure Verdichtung des menschlichen Zusammenlebens führt immer öfter zu Seuchen. Jede einzelne der fünf Cholera-Pandemien, die das 19. Jahrhundert begleiten, tötet weltweit mehrere Millionen Menschen. Mediziner, wie der Brite John Snow , der Ungar Ignaz Semmelweis , der Franzose Louis Pasteur  und der Deutsche Robert Koch  analysieren Verbreitungswege von Krankheiten, entdecken Erreger und entwickeln Impfstoffe. Das Wissen um die Konsequenzen verseuchten Trinkwassers und mangelhafter Hygiene erlaubt es, die Ursachen wirkungsvoll zu bekämpfen. Die Cholera-Epidemie, die 1892 Hamburg heimsucht und fast 9.000 Tote fordert, ist die letzte in Deutschland. Überall in Europa wird massiv in die Bekämpfung von Infektionskrankheiten investiert. Elendsviertel und Altstädte werden abgerissen, Hygieneinstitute gegründet, Kanalisationen eingerichtet und Trinkwasserleitungen saniert. Die weltweite Kommerzialisierung des Schmerzmittels Aspirin ab dem Jahre 1899 steht exemplarisch für den Aufstieg der neuen chemisch-pharmazeutischen Industrie. Hygienestandards sorgen dafür, dass die katastrophalen Infektionskrankheiten langsam verschwinden In Paris, London oder Berlin, wo vor kurzem noch verwinkelte, enge, dunkle Gassen von krummen Fachwerkhäusern gesäumt wurden, stehen nun die Gebäude der Gründerzeit entlang schnurgerader, breiter Prachtstraßen Spalier, während in den weniger guten Wohngegenden Mietskasernen das Stadtbild prägen. Die schöpferische Zerstörung des Kapitalismus   hat die letzten Erinnerungen an das Mittelalter   getilgt. Der Kapitalismus verdrängt den Feudalismus... In den vor allem von nordeuropäischen Einwanderern geprägten USA steht ein sich rasch industrialisierender Norden einem weitaus weniger dynamischen Süden gegenüber. Die Ökonomie des Südens beruht vor allem auf einer Landwirtschaft, in der ein Großteil der Arbeit noch immer von Sklaven geleistet wird, deren niedrige Arbeitskosten einer Mechanisierung und Modernisierung entgegenwirken. Für Marx der ein "schlagender" Beweis der Richtigkeit seiner Theorie: Der Kapitalismus zerquetscht den Feudalismus Als 1860 in dem zwischen Kapitalismus und Feudalismus gespaltenen Land der Republikaner Abraham Lincoln  (1809-1865), ein Gegner der Sklaverei, zum Präsidenten gewählt wird, kommt es zum Bruch. Elf Südstaaten erkennen Lincolns Wahlsieg nicht an und treten aus der Union aus. Der folgende Amerikanische Bürgerkrieg   ist der erste industrialisierte Konflikt – Maschinengewehre, Stacheldraht, Panzerschiffe, U-Boote und Eisenbahn kommen zum Einsatz. Mit einiger Mühe besiegt der bevölkerungs- und kapitalreiche Norden den rückständigen Süden und beendet die Sklaverei. Die Union bleibt erhalten; aus dem Staatenbund wird eine Nation, in dem sich der Süden neu orientieren und modernisieren muss. So gehen die USA aus dem Sezessionskrieg letztlich gestärkt hervor; der Krieg wird zum Geburtshelfer einer künftigen Weltmacht. Für den aufmerksamen Beobachter Karl Marx ist der nordamerikanische Konflikt die Bestätigung der von ihm vorhergesagten zwangsläufigen geschichtlichen Entwicklung: Der Kapitalismus muss den Feudalismus verdrängen, um sich selbst ausbreiten zu können. ...allerdings nicht in Lateinamerika Mittel- und Südamerika, deren Oberschichten überwiegend aus eingewanderten Spaniern, Portugiesen und Italienern bestehen, gehen einen anderen Weg. So wie wenige Jahrzehnte zuvor die USA, erstreiten sich zwischen 1809 und 1825 zwar auch die spanischen Kolonien ihre Unabhängigkeit – zentrale Figur dieser Revolutionen ist Simón Bolívar  (1783-1830), ein glühender Bewunderer der nordamerikanischen Demokratie. Allerdings zerfällt die von ihm gegründete Republik Großkolumbien schon bald nach seinem Tod in die Staaten Kolumbien, Venezuela und Ecuador. Wollte der lateinische George Washington werden - und scheiterte: Simon Bolivar In Brasilien wird sich die 1820 vom portugiesischen Königshaus eingesetzte kaiserliche Monarchie noch fast 70 Jahre lang behaupten und das Land vor jeder Form von Modernität bewahren. Erst 1888 schafft Brasilien als letztes westliches Land die Sklaverei ab; ein Jahr später stürzt das durch die positivistische Lehre Auguste Comtes beeinflusste Militär den Kaiser; nun wird auch Brasilien eine Republik. Trotz hoffnungsvoller Anfänge verfehlen die jungen Republiken südlich des Rio Grande den Übergang zu einer pluralistischen, auf Wettbewerb und Rechtsstaatlichkeit basierenden Gesellschaftsordnung. Bürgerliche Entwicklungen, die sich mit denen Englands, der Vereinigten Staaten oder Frankreichs vergleichen ließen, werden von korrupten Oligarchen -Eliten verhindert. Institutionen, die die Privilegien der herrschenden Klasse einschränken, kontrollieren oder gar abschaffen könnten, können sich nicht etablieren. Die Machthaber agieren im Wesentlichen wie mittelalterlicher Feudaladel und konzentrieren sich darauf, Gewinne aus den Rohstoffen und Agrarprodukten ihrer Länder zu ziehen. Damit bleiben die dynamischen Kräfte dauerhaft gelähmt; wissenschaftliches Denken und unternehmerische Konkurrenz können sich kaum entwickeln. Anders als in Norden entscheidet in Lateinamerika die autokratisch-feudalistische Oberschicht den Machtkampf gegen die bürgerlich-liberale Elite für sich. [i]   Den Blog entdecken Anmerkungen [i] Vgl. Acemoglu / Robinson (2013) S. 116-121.   Wer mehr wissen will:  Acemoglu, Daron / Robinson, James A. (2014): „Warum Nationen scheitern“, Fischer. Marx, Karl (1979): „Das Kapital“, Dietz.

  • Makroökonomie: Die sichtbare Hand des Staates

    Fortsetzung von " Zerstörerischer Fortschritt: Wie destruktiv ist der Kapitalismus?" Schwarzer Freitag Den Schwarzen Freitag   hat es nie gegeben. Der Dow-Jones-Index kam vielmehr bereits am Mittwoch, dem 22. Oktober 1929 ins Rutschen. Am folgenden Donnerstag fiel er von 326 auf 299 Punkte. Der Absturz auf 230 Zähler erfolgte am Montag und Dienstag der folgenden Woche. Tatsächlich schaffte der Index am Freitag, den 25.Oktober sogar ein kleines Plus. Auch wenn der Freitag dafür fälschlich angeklagt wurde: Der New Yorker Börsencrash Ende Oktober hatte die größte Wirtschaftskrise der Neuzeit eingeläutet; die wilden Zwanziger Jahre waren mit einem Schlag vorbei. Das kommende Jahrzehnt würde ein ganz anderes Gesicht haben: Ein mehrjähriger Abschwung führte zu einer massiven Deflation , während der sich die Geldmenge   in den USA um 30% verringerte. Die Industrieproduktion halbierte sich fast und nahezu jede zweite Bank ging in Konkurs. 1933, am Tiefpunkt der Krise, wies der Handel zwischen den Industrienationen nur noch ein Drittel des Wertes von 1929 auf. Die dramatischste Folge aber war eine lang anhaltende Massenarbeitslosigkeit in Europa und Nordamerika. Vier Jahre nach Beginn der Depression waren in den Vereinigten Staaten jeder vierte und in Deutschland jeder dritte Werktätige arbeitslos. In vielen Ländern, insbesondere in Frankreich und Deutschland erhielten radikale Parteien massiven Zulauf. Die USA und Deutschland, als die am stärksten betroffenen Staaten, sollten die Große Depression erst in der zweiten Hälfte der 1930er Jahre überwinden.   Hier geht gerade ihr Reichtum flöten: Aktionäre in der Wallstreet im Oktober 1929 Der Arbeitsmarkt tickt anders Die Welt war aus den Fugen und die herrschende ökonomische Theorie hatte weder Erklärung noch Rat. Nach den Dogmen der Neoklassik   hätten die aus dem Lot gebrachten Märkte innerhalb kürzester Zeit ihr Gleichgewicht von allein wiederfinden müssen. Doch ausgerechnet der Arbeitsmarkt , bei dem die Haushalte die Anbieter und die Unternehmen die Nachfrager sind, gehorchte offenbar anderen Regeln. Es gab Sand im Getriebe des wirtschaftlichen Räderwerks: Ein riesiges Arbeitsangebot stand dauerhaft einer zu geringen Nachfrage gegenüber. Der Klassiker Jean-Baptiste Say  hatte noch behauptet, dass dies unmöglich sei, da jedes Angebot seine eigene Nachfrage schaffe: Haushalte stellen den Unternehmen ihre Arbeitskraft zur Verfügung. Die Unternehmen kombinieren diese mit den beiden anderen Produktionsfaktoren Boden und Kapital zu Gütern und Dienstleistungen, die sie wiederum an die Haushalte verkaufen. Da dieser Kreislauf nicht mehr Güter herstellen kann, als die Haushalte später mit ihren Löhnen zu kaufen vermögen, war nach Says Überzeugung ein Überangebot schlicht unmöglich. Einfacher Wirtschaftskreislauf mit zwei Sektoren Dass die Selbstheilungskräfte des Marktes dauerhaft versagen und infolgedessen ganze Volkswirtschaften in einer Depression verharren können, ließ Zweifel an der bisherigen ökonomischen Theorie aufkommen. So wie ein Organismus anderen Gesetzen gehorcht als eine einzelne Zelle, waren makroökonomische Erscheinungen offenbar etwas grundlegend anderes als die bloße Aggregation mikroökonomischer Prozesse. Auch hier war das Ganze mehr als die Summe seiner Teile.   Keynes stellt die Makroökonomie auf eine neue Grundlage Der Engländer John Maynard Keynes  (1883-1946), im gleichen Jahr wie Joseph Schumpeter  geboren, revolutionierte in den 1930er Jahren die Wirtschaftswissenschaften, indem er die auf Haushalte und Unternehmen fokussierte neoklassische Betrachtung zu einem umfassenden makroökonomischen Kreislaufmodell erweiterte. Im Zentrum dieser Erweiterung stand ein gewichtiger neuer Akteur: der Staat . In der Tat ist der Staat tief mit modernen Volkswirtschaften verwoben. Mit den von Bürgern und Unternehmen erhobenen Steuern und Abgaben organisiert er zum einen mittels Transferleistungen die Umverteilung der Vermögensverhältnisse und wirkt damit der von Pareto beschriebenen Konzentration von Reichtum im Interesse des sozialen Friedens entgegen. Zum andern finanziert er mit seinen Einnahmen staatstypische Dienste. Neben innerer und äußerer Sicherheit sowie allgemeiner Verwaltung bietet er vor allem Leistungen an, die eine landesweite, teure Infrastruktur erfordern, wie Schulen, Eisenbahnen, Post- und Telekommunikation. Hier tritt er teils als Monopolist auf, teils steht er in Konkurrenz zu privaten Anbietern. Auf der Nachfrageseite agiert der Staat vor allem als der zumeist mit Abstand größte Arbeitgeber einer Nation.  John Maynard Keynes Die Sonderrollen von Vater Staat Eine ganz besondere Rolle kommt Vater Staat zu, weil er die Währung kontrolliert. Er druckt das Geld , das den Güteraustausch ermöglicht und steht mit seiner institutionellen Macht für dessen Wert ein. Durch sein Notenpressen-Monopol beherrscht er die im Umlauf befindliche Geldmenge. Eine außerordentlich schwierige Aufgabe. Denn ein Euro, Dollar oder Yuan repräsentiert im Wirtschaftskreislauf letztlich den soundsovielten Teil des Wertes aller Waren und Dienstleistungen, die in einem gegebenen Zeitraum durch die Bevölkerung eines Landes geschaffen werden. Da sich der gemeinsam erwirtschaftete Reichtum von Jahr zu Jahr verändert, muss auch die Geldmenge laufend an die wirtschaftliche Entwicklung angepasst werden. Was diese Aufgabe schwierig macht, ist, dass der Geldmengenbedarf sowohl von der Anzahl der hergestellten Güter als auch von deren Preisänderungen abhängt. Passen Geldmengenerhöhung und Wirtschaftswachstum nicht zueinander, entsteht Inflation  oder Deflation . Inflation bedeutet einen Kaufkraftverlust, das heißt, sie reduziert die Fähigkeit aller Beteiligten, Geld in Güter umtauschen zu können. Würde der Staat über Nacht die Geldmenge verdoppeln, entstünde eine Teuerung von 100%. Für die Menschen hätte dieser hypothetische Fall allerdings keine praktische Bedeutung: Das Güterangebot wäre unverändert und neben den Konsumgüterpreisen würden sich auch die Löhne verdoppeln. [i]  Anders sieht es aus, wenn das staatlich kontrollierte Geldmengenwachstum geringfügig über dem liegt, was nötig wäre, um Wirtschaftswachstum und Teuerung auszugleichen. Sofern sie nicht durch Lohnsteigerungen kompensiert wird, kommt diese Form der Inflation faktisch einer Enteignung gleich. Inflation ist grundsätzlich immer ein Problem. Bei moderaten Inflationsraten von 2%-3% sprechen die Ökonomen von der Geldwertillusion, weil die   schleichende Entwertung des Geldvermögens von den Haushalten oft nicht als solche wahrgenommen wird. Tatsächlich aber sieht ein Haushalt, der bei konstantem Einkommen jedes Jahr 3% mehr für den gleichen Warenkorb ausgeben muss, seine Kaufkraft nach etwa 24 Jahren halbiert.   Inflation – die schleichende Enteignung Bei Inflationsraten um die 10% verlieren die Preise ihre Signalfunktion für Kaufentscheidungen. Es entstehen Lohn-Preis-Spiralen : Die Arbeitnehmer fordern höhere Löhne, auf die die Arbeitgeber wiederum mit Preiserhöhungen reagieren, die ihrerseits wieder höhere Lohnforderungen nach sich ziehen. Gerät die Inflation ganz außer Kontrolle, kann sie Staaten dramatisch destabilisieren, so wie im Deutschland der frühen 1920er Jahre oder in Simbabwe, wo fast 100 Jahre später die jährliche Inflationsrate bei 500% lag. Inflationsraten der Eurozone seit 1991 Das durch den Staat in Umlauf gebrachte Geld spielt im kapitalistischen Wirtschaftssystem noch eine weitere wichtige Rolle. Da die Produktion bei hochgradig arbeitsteiligen Herstellungsprozessen dem Konsum zeitlich weit vorausgeht, müssen die Unternehmen ihre Investitionen  und Löhne zunächst mit fremdem Geld finanzieren, bevor sie selbst Einnahmen erzielen. Das für diese „Produktionsumwege“ nötige Geld stellen überwiegend die Haushalte zur Verfügung. Der Teil ihres Einkommens, der nicht in den Konsum fließt, wird durch Institutionen aufgenommen, die die makroökonomische Theorie etwas umständlich als „Kapitalsammelstellen“ oder „Finanzintermediäre“ bezeichnet. Diese Einrichtungen, vor allem Banken , haben die Aufgabe Geldangebot und Geldnachfrage zusammenzuführen, um damit kapitalintensive Bedürfnisse von Unternehmen und privaten Haushalten, wie Großinvestitionen und Immobilienprojekte, über Kredite  zu finanzieren. Ohne solche Finanzbeziehungen wäre der Kapitalismus   undenkbar.   Was sind eigentlich Zinsen? Aus Sicht der Finanzmärkte ist Geld ein Gut wie jedes andere: Es hat einen Preis, der sich aus Angebot und Nachfrage ergibt. Dieser Preis ist der Zins . Mit ihm kommt der Faktor Zeit in die ökonomische Betrachtung, eine Dimension, der die neoklassische Theorie noch wenig Beachtung geschenkt hatte. Der Zins bringt zum Ausdruck, dass ein Betrag heute und derselbe Betrag morgen nicht das gleiche sind. 3% Zinsen pro Jahr bedeuten, dass ein Kreditnehmer, der heute 100 Euro erhält, dem Kreditgeber in einem Jahr 103 Euro zurückzahlen muss. Für beide sind 100 Euro heute und 103 Euro in einem Jahr somit äquivalent. So wie die Inflation ist auch der Zins eine zentrale Größe der makroökonomischen Theorie. Er setzt sich aus drei wichtigen Komponenten zusammen. Er beinhaltet erstens eine Prämie auf den Verzicht des Kreditgebers das Geld zum jetzigen Zeitpunkt selbst anderweitig verwenden zu können; es berücksichtigt also dessen Opportunitätskosten . Zweitens enthält er eine Risikoprämie dafür, dass manche Kreditnehmer das Geld nicht zurückzahlen werden. (Der italienische Ökonom Ferdinando Galiani bezeichnete den Zins bereits Mitte des 18. Jahrhunderts als den „Preis für das Herzklopfen“ des Gläubigers.) [ii]  Die dritte Komponente des Zinses ist die Kompensation für den inflationsbedingten Kaufkraftverlust: Bei einer Inflationsrate von 2% schmilzt der nominale Betrag von 3% auf einen realen Zins von nur 1%. Auch bei der Entstehung des Geldpreises hat der Staat seine Finger im Spiel. Über die Leitzinsen bestimmt er die Bedingungen, zu denen sich die Geschäftsbanken  bei der staatlichen Zentralbank  verschulden können. Er nimmt somit wesentlichen Einfluss auf den Zinsmarkt, an dem sich die Kreditkonditionen für Investitionsprojekte der Haushalte und Unternehmen bilden.   Auch den Außenhandel möchte der Staat gerne steuern – nicht erste seit Trump Der letzte wichtige Sektor der makroökonomischen Kreislaufanalyse ist das Ausland . Ihm hatte bereits die klassische Theorie einige Aufmerksamkeit gewidmet, indem sie die Vorteile des internationalen Handels  für alle Beteiligten hervorhob. Aus makroökonomischer Sicht interessieren vor allem die Nettoexporte, der Saldo der Zahlungsströme aller Güter, die ins Ausland verkauft werden abzüglich jener, die aus dem Ausland bezogen werden. Da die Verkäufer Rechnungen normalerweise in ihrer Landeswährung stellen, gibt es auch für Fremdwährungen einen Marktmechanismus. Angebot und Nachfrage bestimmen den Wechselkurs, der den Preis für eine andere Währung  festlegt. Je grösser die Nachfrage, desto höher der Kurs und desto teurer die Importe. Erweiterter Wirtschaftskreislauf mit fünf Sektoren Auch der Auslandssektor ist nicht frei von staatlicher Einflussnahme. Zum einen können bestimmte Güter subventioniert werden, um ihren Export zu erleichtern oder um sie vor billigen ausländischen Importen zu schützen. Zum anderen kann der Staat ausländische Güter, in ebenfalls bester merkantilistischer Manier, mit Zöllen belegen. Für Exportnationen, also Länder, die mehr exportieren als importieren, besteht von staatlicher Seite zudem die Versuchung, etwa durch massive Aufkäufe von Fremdwährungen oder Erhöhung der Geldmenge, den Wechselkurs der eigenen Währung zu schwächen. Aus neoklassischer Sicht   führen all diese Eingriffe allerdings lediglich dazu, dass die natürlichen Knappheitssignale der Preise verzerrt werden. Ein komplexes Kreislaufmodell Aus dem ursprünglich einfachen Modell ist ein komplexes Beziehungsgeflecht geworden; ein makroökonomischer Kreislauf, in dem neben Haushalten und Unternehmen auch Staat, Kapitalsammelstellen und Ausland durch vielfältige Geld-, und Güterströme miteinander verbunden sind. Dabei ist es allein dem Staat möglich, auf alle anderen Sektoren spürbaren Einfluss zu nehmen. Wie kann nun für ein solch verwobenes System der von Adam Smith   beschriebene Reichtum einer Nation gemessen werden? Auch hierfür stammt das grundlegende Konzept von Keynes. Indem er Finanzbuchhaltung der Unternehmen und Quesnays Kreislaufanalyse verband, schuf er den Kern dessen, was wir heute als „ Volkswirtschaftliche Gesamtrechnung “ bezeichnen. Ihre Aufgabe ist es, das Volkseinkommen zu bestimmen, gemessen in Form des Bruttoinlandsprodukts  (BIP). Im Wesentlichen ist das BIP der aufsummierte Wert aller Waren und Dienstleistungen, die in einer Volkswirtschaft in einem bestimmten Zeitraum hergestellt wurden. [iii]  Konkret setzt es sich aus vier Elementen zusammen: dem Konsum der Haushalte, den Investitionen der Unternehmen, dem Nettoexport, sowie den Staatsausgaben. Betrachten wir ein stark vereinfachtes Beispiel, um eine Vorstellung davon zu bekommen, wie das BIP entsteht und wie sich nominales und reales Volkseinkommen voneinander unterscheiden (Das Beispiel basiert auf David Ricardos Darstellung der komparativen Vorteile , mehr dazu hier .)  Wenn Portugal in einem bestimmten Jahr nichts anderes produziert als 100 Fässer Wein und diese für 200 Euro pro Fass verkauft, beträgt das Bruttoinlandsprodukt 20.000 Euro. Das BIP kann durch die Haushalte konsumiert, durch den Staat aufgekauft oder ins Ausland exportiert werden. [iv]  Werden im folgenden Jahr 110 Fässer zu einem Stückpreis von 220 Euro verkauft, steigt das Volkseinkommen dadurch auf 24.200 Euro, ein nominaler Zuwachs von 21%. Wie bei Löhnen und bei Zinsen, muss aber auch in diesem Fall zwischen realem Wachstum und dem Schleier, den das Geld über die Betrachtung legt, unterschieden werden.  Reales und nominales Bruttoinlandsprodukt   Ein Teil des Anstiegs ist nämlich durch Inflation entstanden, denn jedes Fass kostet nun 10% mehr als im Jahr zuvor. Einen unverfälschten Blick auf die Leistungsfähigkeit der Volkswirtschaft erhalten wir erst durch die Betrachtung des realen BIP. Dazu müssen wir den Inflationseffekt herausrechnen, indem wir die hergestellten Mengen mit den Preisen des Vorjahres bewerten. Bei einem Preis von 200 Euro ergibt sich für die 110 Fässer ein reales, das heißt inflationsbereinigtes Volkseinkommen von 22.000 Euro, das die um 10% gestiegene Fassproduktion widerspiegelt.   Keynes‘ „General Theory“ Mit dem makroökonomischen Kreislaufmodell und der Volkswirtschaftlichen Gesamtrechnung hatte Keynes nun Werkzeuge an der Hand, mit denen sich die Einflussfaktoren der Konjunkturzyklen analysieren ließen. Im Mittelpunkt stand die Suche nach möglichen Wegen aus der Großen Depression. 1936 erschien „ The General Theory of Employment, Interest and Money “ – Die allgemeine Theorie der Beschäftigung, des Zinses und des Geldes, bis heute eines der zentralen Werke der Wirtschaftswissenschaften. Ausgangspunkt von Keynes‘ Überlegungen waren die Besonderheiten des Arbeitsmarkts . Nach neoklassischer Vorstellung müssten bei einem Überangebot die Löhne sinken, bis ein neues Gleichgewicht entsteht, das den Markt wieder räumt. Während eine gewisse Arbeitslosigkeit, bedingt durch Fluktuation und den von Schumpeter beschriebenen strukturellen Wandel auch in gut funktionierenden Volkswirtschaften nie vollständig vermieden werden kann, hatte die Weltwirtschaftskrise erstmalig allen vor Augen geführt, dass eine Depression eine langjährige massenhafte Unterbeschäftigung mit verheerenden gesellschaftlichen Folgen bedeutet. Die Ursache des Problems sah Keynes in der Starrheit der Löhne. Die Arbeitnehmer, oft gewerkschaftlich organisiert, sind nicht bereit, Kürzungen ihrer Einkommen hinzunehmen. [v]  Die dadurch entstehende Staumauer verhindert den natürlichen Kräfteausgleich. Da die Löhne nicht gesenkt werden können, haben die Unternehmen nur die Möglichkeit, Menschen zu entlassen. Damit beginnt eine Abwärtsspirale für den gesamten Wirtschaftskreislauf: Die Arbeitslosen schwächen die Nachfrage, die Produzenten müssen weitere Arbeitnehmer entlassen, die das Heer der Menschen, die angstvoll in die Zukunft blicken, weiter vergrößern. Wenn sich bei Haushalten und Unternehmen dann ein allgemeiner Pessimismus breitmacht, der Konsum und Investitionen lähmt, wird die Rezession zu einer Depression . [vi]  Es fehlt dann jeglicher Impuls, um Angebot und Nachfrage wieder auf ein höheres Niveau zu bringen. Der Ausweg, den Keynes in seiner „General Theory“ vorschlägt, erscheint ungewöhnlich: Wenn Haushalte und Unternehmen in der Depression verharren, muss der Staat in die Bresche springen. Er kann den Teufelskreislauf durchbrechen, indem er seine Nachfrage trotz der widrigen Umstände massiv erhöht. Tatsächlich hatten fast alle Regierungen während der Weltwirtschaftskrise genau das Gegenteil davon getan: Sie hatten, wie Haushalte und Unternehmen, aufgrund massiv eingebrochener Einnahmen ebenfalls ihre Ausgaben eingeschränkt und die Anzahl der Staatsbediensteten reduziert.   Blutspende statt Aderlass Wie Quesnay   200 Jahre zuvor, hatte Keynes erkannt, dass ein weiterer Aderlass für einen bereits geschwächten Patienten nicht unbedingt die beste Medizin ist. Keynes bezeichnete seine Therapie als „ deficit spending“ . Die staatlichen Investitionen sollen den Konjunkturmotor wieder anwerfen und die Richtung der Spirale umdrehen. Als erstes würden die Hersteller staatlicher Investitionsgüter neue Arbeitnehmer einstellen, die ihrerseits die Nachfrage nach Konsumgütern beleben. Der Funke soll auf die Konsumgüterhersteller überspringen, die dann ebenfalls neue Arbeitskräfte rekrutieren. Dieser Impuls muss zwangsläufig durch die Aufnahme von Schulden finanziert werden. In Zeiten guter Konjunktur , wenn Steuern und Abgaben erneut sprudeln, soll der Staat dann die während der Krise aufgenommenen Kredite wieder zurückzahlen. Zudem kann in Hochphasen eine zurückhaltende staatliche Ausgabenpolitik den Motor vor Überhitzung schützen und der Wirtschaft bei sich abkühlender Konjunktur zu einer „weichen Landung“ verhelfen. Keynes‘ Anspruch war überaus vermessen. Letztlich verhieß er nicht weniger, als dass der Staat Konjunktur machen kann, wie ein Regengott den Regen. Bei der Darstellung seiner Gedanken hatte Keynes, obwohl selbst studierter Mathematiker, konsequent auf jegliche Differentialgleichung verzichtet. Da dies nicht den Gepflogenheiten der herrschenden ökonomischen Theorie entsprach, sah sich sein Landsmann John Richard Hicks  genötigt, eine mathematisierte Darstellung der keynesianischen Idee zu veröffentlichen, das IS-LM-Modell . Es fasst die Quintessenz des Keynesianismus auf recht einfache Weise zusammen:  So soll der Staat uns alle reicher machen: Das IS-LM-Modell Obwohl es auf den ersten Blick ähnlich aussieht, darf das IS-LM-Modell keinesfalls mit Marshalls Marktmodell  verwechselt werden. Das neoklassische Marktdiagramm stellt immer nur einen bestimmten Markt dar. Das IS-LM-Modell hingegen ist die Repräsentation des Zusammenhangs zweier besonderer Märkte: Die Ordinate stellt den Geldmarkt dar, mit dem Zinssatz als dem Preis des Geldes; die Abszisse zeigt das reale Bruttoinlandsprodukt, den inflationsbereinigten Wert aller im Land hergestellten Waren und Dienstleistungen. Die von oben nach unten verlaufende IS-Kurve ist die graphische Darstellung aller Gleichgewichtszustände auf dem Investitionsgütermarkt, die sich für die verschiedenen Kombinationen von Zins und realem Volkseinkommen ergeben. Das „I“ steht dabei für Investitionen, das „S“ für Ersparnisse (savings). Grundsätzlich besagt die Kurve, dass Haushalte, Unternehmen und Staat bei niedrigeren Zinsen mehr investieren und damit das Bruttoinlandsprodukt vergrößern. Der zweite Markt wird durch die von unten nach oben verlaufende LM-Kurve dargestellt. Dabei steht „L“ für Liquiditätspräferenz und „M“ für das Geldangebot (money supply). Der Kurvenverlauf besagt, dass mit steigenden Zinsen die Bereitschaft der Haushalte zunimmt, auf gegenwärtigen Konsum zu verzichten und das Ersparte dem Finanzmarkt zur Verfügung zu stellen. Die LM-Kurve ist somit die Abbildung aller Gleichgewichte von Geldangebot und Geldnachfrage, wobei die Keynesianer von einer konstanten Geldmenge ausgehen. Am Schnittpunkt der beiden Kurven stimmen die Bereitschaft der Sparer den Investoren Geld zur Verfügung zu stellen und der Wunsch der Anleger, dieses Geld auch zu investieren, überein. Finanzmarkt und Gütermarkt sind in einem Gleichgewicht, aus dem sich ein bestimmtes Niveau des Volkseinkommens ergibt. Erhöht der Staat nun durch seine expansive Ausgabenpolitik die Nachfrage nach Investitionsgütern, verschiebt sich die IS-Kurve nach rechts. Der neue Gleichgewichtspunkt mit der LM-Kurve entspricht einem höheren Volkseinkommen – allerdings um den Preis eines höheren Gleichgewichtszinses. Dieser Effekt soll die Volkswirtschaft aus der Depression holen.   Der Staat als mächtigster Player einer Volkswirtschaft? Keynes‘ Paradigmenwechsel der Makroökonomie wollte den neoklassischen Nachtwächterstaat   aus seinem Dornröschenschlaf wecken und ihm im Wirtschaftskreislauf eine aktive Rolle zuweisen. Um den Preis einer vorübergehenden Verschuldung sollte der Staat das konjunkturelle Feuer neu entfachen. Es sollte nicht lange dauern, bis diese Forderung heftigen Widerspruch hervorrief. Mehr dazu im nächsten Wirtschaftsblog…   Den Blog entdecken   Wer mehr wissen will: Keynes, John Maynard (2017) „Allgemeine Theorie der Beschäftigung, des Zinses und des Geldes“, Duncker & Humblot. Geier Sturzflug: Bruttosozialprodukt Bildnachweise Historische Inflationsraten der Eurozone Anmerkungen [i]  Auf natürlichem Weg entsteht Inflation etwa, wenn eine hohe Nachfrage es den Anbietern erlaubt, die Preise zu erhöhen oder es ihnen gelingt, höhere Kosten über den Preis an die Verbraucher weiterzugeben. [ii] Vgl. Galiani (1750) S. 353. [iii] Illegale Aktivitäten wie Schwarzarbeit oder Drogenhandel und unbezahlte Tätigkeiten, wie sie etwa innerhalb der Haushalte oder durch Ehrenämter erbracht werden, sind bei der Berechnung ausgeschlossen. Erfasst werden also nur Leistungen, denen eine bezahlte legale Gegenleistung gegenübersteht. Inwieweit das BIP einen sinnvollen Wohlstandsindikator darstellt, ist unter Ökonomen umstritten, da es Aspekte wie allgemeine Lebensqualität, Verteilungsgerechtigkeit oder Umweltschutz nicht berücksichtigt. [iv] Wir unterstellen in dem einfachen Beispiel also, dass die Winzer in diesem Jahr nichts investieren. [v] Aus ökonomischer Sicht sind Gewerkschaften Interessenverbände von Konkurrenten zur Durchsetzung gemeinsamer Ziele und stellen in diesem Sinne Kartelle dar. Die Weigerung, der Arbeitnehmer, Einkommenseinbußen hinzunehmen, lässt sich gut mit Kahnemans Verlustaversion erklären.   [vi] Eine Rezession liegt nach der heute üblichen Definition dann vor, wenn das Bruttoinlandsprodukt während zwei aufeinanderfolgender Quartale gegenüber den Vorquartalen schrumpft. Von einer Depression spricht man, wenn eine Volkswirtschaft auf einem Konjunkturtief ungewöhnlich lange verharrt.

  • Dimensionen der Macht

    Fortsetzung von "Der Geist des Kapitalismus" Dimensionen der Macht Das Phänomen Macht ist seit der Antike   zentraler Aspekt der politischen Philosophie . Doch erst mit der Entstehung der modernen Soziologie   um 1900 wird sie zu einem eigenen Untersuchungsgegenstand. „Macht bedeutet jede Chance, innerhalb einer sozialen Beziehung den eigenen Willen auch gegen Widerstreben durchzusetzen […].“ [i] Diese Definition Max Webers   macht deutlich, dass der Machtbegriff über diktatorische Strukturen und die Möglichkeit physische Gewalt auszuüben, hinausgeht. In der zweiten Hälfte des 20. Jahrhunderts werden drei Soziologen zeigen, dass Macht gerade auch in Demokratien   sehr viel subtilere Ausdrucksformen annehmen kann.   Luhmanns Perspektive auf die Macht - die Ohnmacht der Politiker Für den deutschen Soziologen Niklas Luhmann  (1927-1998) war Macht ein zentraler Aspekt seiner sehr umfassenden Gesellschaftstheorie. Darin positioniert er sie als das „Medium“ des gesellschaftlichen Teilsystems „ Politik “. Systeme sind bei Luhmann Beziehungszusammenhänge, die eine Differenz zu einer wie auch immer definierten Umwelt darstellen. Lebende Zellen sind demnach ebenso Systeme wie Gesellschaften. Moderne Gesellschaften sind komplexe Gesamtsysteme, die ihrerseits wiederum aus verschiedenen, hochspezialisierten Teilsystemen bestehen, wie Wirtschaft, Religion , Rechtssystem, Wissenschaft, Medien, Sport oder Politik. Die Zerlegung in Teilsysteme reduziert die Komplexität des Gesamtsystems; ihre hochgradige Effizienz verdanken die Teilsysteme einer starken Spezialisierung. Sie haben aber den Nachteil, dass alle anderen Teilsysteme nur noch als „Umwelt“ betrachtet werden. Da s heißt konkret, dass das jeweilige Teilsystem zwar über   ein anderes Teilsystem sprechen kann aber nicht mit ihm – einfach, weil man sprachlich nicht auf derselben Wellenlänge liegt. Niklas Luhmann: Manche sahen ihn als "Armchair-Expert" Gemäß Luhmann verfügt jedes Teilsystem über eigene Medien und so genannte „ binäre Codes “, die die internen Kommunikationsmöglichkeiten kennzeichnen. Die Wirtschaft etwa bedient sich des Mediums „ Geld “ und des binären Codes „haben“ oder „nichthaben“. Das Medium der Wissenschaft ist die Wahrheit; ihr binärer Code lautet „wahr“ oder „falsch“. Da die Systeme unterschiedliche Sprachen sprechen und in ihrer jeweiligen Logik leben, übersetzt etwa die Wirtschaft, wenn sie sich mit der Wissenschaft befasst, deren Aktivitäten in monetäre Größen, während die Wissenschaft bei der Betrachtung der Wirtschaft deren Postulate in die Kategorien wahr oder falsch einteilt. Die Möglichkeiten, sich gegenseitig zu verständigen und zu koordinieren, sind also begrenzt; man redet sozusagen in seinen jeweiligen binären Codes im wahrsten Sinne „systematisch“ aneinander vorbei.       Gesellschaftliche Teilsysteme nach Luhmann - ist es wirklich so einfach? Das Teilsystem Politik ist davon nicht ausgenommen. Seine mediale Währung ist die Macht ; sein binärer Code besteht darin, Macht ausüben zu können oder eben nicht. An das Politiksystem darf man keine höheren Erwartungen haben als an andere Teilsysteme. Kommunikation   ist in Luhmanns pessimistischer Sicht kein verbindendes, sondern ein trennendes Element. Die Politik leidet an denselben kommunikativen Beschränkungen wie die anderen Teilsysteme auch; die Möglichkeiten, ihre Umwelt durch die Ausübung von Macht zu koordinieren oder direkt zu beeinflussen, sind stark eingeschränkt. Politik verfügt zwar über Macht, kann aber in einer komplexen, modernen Gesellschaft nur relativ wenig damit anfangen. Die Politik leide, so Luhmann, an eine r „ Kontrollillusion “. [ii]   Bourdieus Perspektive auf die Macht - die feinen Unterschiede Ganz andere Perspektiven auf die Macht entwickelten jeweils zwei französische Zeitgenossen Luhmanns, Pierre Bourdieu  (1930-2002) und Michel Foucault  (1926-1984). Bourdieu arbeitete im Gegensatz zu Luhmanns rationalistischem Ansatz empirisch. In seinem Klassiker „Die feinen Unterschiede“ untersuchte der aus einfachen Verhältnissen stammende studierte Philosoph und Soziologe die realen Handlungsmöglichkeiten der einzelnen Gesellschaftsmitglieder. Dazu positioniert er sie in einem „ sozialen Raum “. Die erste Achse beschreibt die Menge des Kapitals, über das ein Individuum verfügt. Die Natur des Kapitals kann im traditionellen Sinne aus Geld, Land oder Immobilien bestehen oder aus kulturellem Kapital, das sich in Form von Kulturgütern, als Bildung oder als institutionalisiertes Kapital manifestieren kann. Kulturgüter, wie Gemälde oder Statuen, sind materiell übertragbar, das heißt, sie können mit ökonomischem Kapital erworben werden. Bildung, die zweite Form des kulturellen Kapitals, lässt sich nicht finanziell übertragen, sondern muss zeitaufwändig erworben und verinnerlicht werden. Institutionalisiertes Kapital sind Titel, Zertifikate oder Diplome, die kulturelle Kompetenzen formell nachweisen. In diesem Koordinatensystem ist die Position jedes Einzelnen in einer modernen westlichen Gesellschaft in erster Linie durch die soziale Klassenzugehörigkeit bestimmt. Bourdieu erweitert an dieser Stelle Webers Schichtentheorie. Die Bourgeoise als herrschende Klasse besitzt ein hohes Volumen an kulturellem und ökonomischen Kapital. Die zweite Klasse, die Mittelschicht, beziehungsweise das Kleinbürgertum, ist diesbezüglich durchschnittlich ausgestattet, während die dritte Klasse, die Volks- oder Arbeiterklasse sowohl in quantitativer als auch qualitativer Hinsicht nur über geringes Kapital verfügt. Ein Student hat zwar ein ähnlich bescheidenes ökonomisches Vermögen wie ein Hilfsarbeiter, dafür aber bereits ein deutlich besser entwickeltes kulturelles Kapital. Ein Universitätsprofessor besitzt ein großes kulturelles Guthaben, während das eines erfolgreichen Anwalts eher ökonomischer Natur ist. Der soziale Raum nach Bourdieu Angehörige einer Klasse sind bestrebt, sich durch schichtspezifisches Verhalten gegen andere Klassen abzugrenzen. Das dominierende Verhaltensmerkmal der herrschenden Klasse ist die Distinktion . Sie äußert sich unter anderem in einer „elaborierten“ Sprache , im Konsum bestimmter hochwertiger Güter oder der Ausübung elitärer Sportarten. Es geht stets darum, die anderen Bevölkerungsschichten auf Abstand zu halten. Popularisiert sich eine distinguierte Praxis im Laufe der Zeit – etwa Skifahren oder Ferien am Meer – sucht sich die Oberschicht neue Sportarten und verbringt ihren Urlaub nunmehr auf dem Lande. Das vorherrschende Verhaltensmerkmal der Mittelschicht ist die Prätention ; sie möchte den Stil der Oberschicht kopieren. Die Mittelschicht hat einen ausgeprägten Wunsch die Klassenschranken zu überwinden und aufzusteigen. Die oftmals prekären Verhältnisse des Arbeitermilieus wiederum bedingen einen „Notwendigkeitsgeschmack“. Tischsitten oder Kleidung kommt kein symbolischer Wert zu. Die Angehörigen der untersten Schichten haben keine Ambitionen den Lebensstil höherer Klassen zu imitieren, ihre Konsumgewohnheiten orientieren sich an sehr praktischen Erwägungen. Die klassenspezifischen Lebensstile bezeichnet Bourdieu als den Habitus . Er bestimmt unsere Körpersprache, unser Selbstbewusstsein   und grundlegende Denk- und Handlungsschemata ebenso wie den Freundeskreis oder die persönlichen Maßstäbe für Ethik und Ästhetik. Der Habitus ist dabei nur teilweise ein Ergebnis der persönlichen Bildungsgeschichte. Er resultiert ganz überwiegend aus einer machtvollen Prägung durch soziale Ordnung und das klassenspezifische Umfeld, in dem man aufwächst. Die schichtspezifischen Einflussfaktoren prägen Geschmacksvorlieben und Wahrnehmungsmuster, führen aber auch zu einer selektiven Wahrnehmung. Damit sorgt der Habitus innerhalb einer Klasse für Zusammenhalt, zwischen den Klassen aber für Abgrenzung. Pierre Bourdieu 1996 Die dritte Dimension des sozialen Raums ist die Zeit . Die Zeitachse beschreibt Veränderungen im Laufe eines einzelnen Lebens und über Generationen hinweg. Um die eigene Position im sozialen Raum zu verbessern, oder einen Abstieg zu vermeiden, müssen die Individuen Investitionen in die verschiedenen Kapitalarten tätigen. Wenn es gelingt, die eigene Position nach oben zu verschieben, bedeutet dies immer auch einen Machtzuwachs. Bourdieu lenkt unsere Aufmerksamkeit darauf, dass die Ungleichheit der Machtverhältnisse   nicht nur im wirtschaftlichen, sondern auch im kulturellen Kapital begründet liegt – die Intellektuellen, die gerne die gesellschaftlichen Verhältnisse anprangern, sind trotz ökonomischer Beschränkungen selbst Teil der Machtelite. Hingegen sind die Möglichkeiten, die eigene Position im gesellschaftlichen Koordinatensystem zu verbessern, für die unteren Schichten in mehrfacher Hinsicht beschränkt. Der klassenspezifische Habitus baut massive soziale Grenzen auf, die sich nur schwer überwinden lassen; wer die klassenspezifischen Codes nicht beherrscht, ist ausgegrenzt. Ein wesentlicher Punkt in Bourdieus Theorie ist, dass ausgerechnet jene Einrichtungen, die helfen könnten, soziale Barrieren zu überwinden, die Unterschiede eher zementieren und reproduzieren. Insbesondere das Erziehungs- und Bildungssystem verschärft Ungleichheiten, statt sie zu beseitigen. Ursache ist das Leistungsprinzip, das die Schüler in Begabte, mäßig Begabte und Unbegabte einteilt. Begabte   Kinder aus einem benachteiligten Milieu, denen ihr Umfeld suggeriert, dass sie durch die Schule sowieso nichts erreichen können, werden mit hoher Wahrscheinlichkeit auch schlechte Leistungen bringen, die eingeschränkten sprachlichen Ausdrucksmöglichkeiten werden zum Handicap. Das Bildungssystem wird dadurch letztlich zu einem Machtinstrument der herrschenden Klasse. Bourdieus Gesellschaft ist ein in weiten Teilen unsichtbares Kastensystem . Tatsächlich stützen empirische Daten den von Bourdieu behaupteten deterministischen Zusammenhang zwischen Herkunft und Erfolgschancen. Bis heute lassen sich in Frankreich, Deutschland und vielen andern westlichen Ländern starke Korrelationen zwischen sozialer Herkunft und Bildungserfolg nachweisen. Der Mensch kann also auch in einer Demokratie nicht so einfach Rousseaus „Ketten“ sprengen, er ist in verschiedenen Gravitationsfeldern des sozialen Raums gefangen . Selbst wer sich das nötige ökonomische und kulturelle Kapital mühsam erworben hat, kann immer noch an den Abschottungsmechanismen der etablierten Klasse scheitern, weil es ihm an „sozialem Kapital“ fehlt, raffinierten, oft verborgenen Netzwerken, durch die die Akteure der Oberschicht untereinander verbunden sind. Doch auch die dominierende Klasse kämpft untereinander permanent um die Positionen im sozialen Raum. Denn Intellektuelle vertreten in Bourdieus Augen nicht die Interessen der Unterschicht (deren Habitus sie ohnehin nicht verstehen) sondern nur ihre eigenen. Damit entpuppen sich bei genauerer Betrachtung praktisch alle Revolutionen der Geschichte als ein Kampf der intellektuellen Oberschicht gegen die besitzende Oberschicht.   Michel Foucault 1974 Foucaults Perspektive auf die Macht - verborgene Strukturen Michel Foucault beleuchtet das Thema Macht schließlich aus einer dritten Perspektive. Seine Theorie gründet weder wie bei Luhmann auf rationalistischen Überlegungen noch wie bei Bourdieu auf Empirik, sondern auf umfangreicher historischer Forschung. Foucault war der Wandel im Strafvollzug aufgefallen, der sich infolge der Aufklärung in der ersten Hälfte des 19. Jahrhunderts vollzogen hatte. In seinem 1975 veröffentlichten Werk „Überwachen und Strafen“ legt Foucault dar, wie sich die jeweiligen Machtformen einer Epoche im Handeln der staatlichen Institutionen niederschlagen. Von der Antike über den mittelalterlichen Feudalismus   bis in das 18. Jahrhundert hinein demonstrierten die autoritären und absolutistischen Herrscher ihren Machtanspruch nach einem einheitlichen Schema: Urteile wurden im Geheimen, unter Ausschluss der Öffentlichkeit gefällt; die Vollstreckung der Strafe hingegen wurde in der Öffentlichkeit regelrecht zelebriert. Hinrichtungen gingen je nach Verbrechen und Stand des Delinquenten oftmals lange, qualvolle körperliche Torturen voraus. Ein ehemaliges Panoptikum-Gefängnis auf Kuba, erbaut nach den Plänen von Jeremy Bentham In den ersten Jahrzehnten des 19. Jahrhunderts vollzog sich jedoch in der Strafpraxis ein radikaler Wandel .  Die neuen Justizs ysteme, die nach der Französischen Revolution  überall in Europa   eingeführt wurden, vollzogen Strafen, einschließlich Hinrichtungen, auf eine sehr viel humanere Art. Gerichtsverhandlungen wurden öffentlich; für die Urteile wurden Gutachten angefertigt und die Urteilsbegründung dokumentiert, so dass sie für jedermann nachvollziehbar war. Der Vollzug aber geschah von nun an unter Publikumsausschluss. Dem Wunsch der Reformer entsprechend, sollte die Strafe nicht mehr den Körper, sondern die Seele   treffen, wobei es erklärtes Ziel war, den Delinquenten zum Guten zu bekehren und ihn nach erfolgreicher Disziplinierung der Gemeinschaft wieder als nützliches Mitglied zuzuführen. Der Strafvollzug selbst war durch einen minutiös geregelten Tagesablauf charakterisiert, der die Gefangenen einer pausenlosen, anonymen Überwachung unterwarf. Eine besondere Gefängnisarchitektur ermöglichte es, dass die Sträflinge für die Wächter jederzeit vollkommen sichtbar waren, aber selbst nie wussten, ob sie gerade beobachtet wurden. (Jeremy Bentham hatte für die modernen Panoptikum-Gefängnisse eigenhändig detaillierte Pläne entworfen, die in mehreren Ländern auch tatsächlich realisiert wurden.) Foucault erkennt in dem reformierten Strafvollzug nicht wie andere Philosophen und Historiker einen durch die Aufklärung   beförderten humanistischen Fortschritt, sondern eine neue Form , Macht auszuüben. Die neue Macht gründet auf Wissen. Die Moderne kennzeichnet, dass Macht nicht mehr an die brutale Vollstreckung des Herrscherwillens gebunden ist, sondern an Informationen. Nur deshalb werden über den Delinquenten von Beginn des Strafprozesses bis nach Abschluss des Vollzugs ohne Unterlass Akten angelegt und laufend vervollständigt. Die neue Machtform bezeichnet Foucault als „ Disziplinarmacht “. Der Sträfling wird vollkommen transparent, der dahinterstehende Apparat hingegen bleibt weitestgehend unsichtbar. Die Strukturen der Macht begegnen uns in Formen, die sich nicht immer sofort zu erkennen geben... Keine Macht ohne Wissen – kein Wissen ohne Macht. Die Informations-Sammelwut findet sich daher nicht nur im Strafvollzug, sondern  durchzieht weite Teile der Gesellschaft. Sie prägt das Militär, die Arbeit in den Fabriken, das Lernen   in den Schulen und selbst die Organisation der Krankenhäuser. Überall finden sich stark reglementierte, durchgetaktete, standardisierte Abläufe. Da überall alles ständig aufgezeichnet wird, entstehen so ungeheure Datenmengen über jedes Mitglied der Gesellschaft. Letztlich dient dieses Disziplinarregime der ökonomischen Ausbeutung . Für Foucault ist dies kein temporäres Phänomen des 19. Jahrhunderts, die Strukturen sind vielmehr bis heute wirksam. Ein System permanenter Überwachung und ständiger Prüfungen klassifiziert Menschen als schuldig oder unschuldig, tauglich oder untauglich, begabt oder unbegabt, gesund oder krank. Das die gesamte Gesellschaft durchziehende Streben nach Transparenz schafft eine „ Mikrophysik der Macht “. Foucault bewertet dieses mächtige Netz nicht grundsätzlich negativ. Er sieht in ihm auch Chancen für gesellschaftliche Veränderungen zum Guten, die die vormodernen Machtformen nicht boten. Foucault konnte in den 1970er Jahren noch nicht ahnen, welche Ausmaße die Datensammelwut nur wenige Jahrzehnte später annehmen würde. Die lückenlose Aufzeichnung und Auswertung von Mobiltelefonen, GPS-Bewegungen, Kreditkartentransaktionen, Kamerabildern oder DNS-Sequenzen   von Milliarden Menschen unterliegt heute praktisch keinen technischen Limitationen mehr. Foucault erinnert uns daran, dass diese Entwicklung bereits vor 200 Jahren begonnen hat. Die einst vertikalen Machtstrukturen sind in den westlichen Demokratien der Neuzeit   durch horizontale Kräfte abgelöst worden, die die Gesellschaft nicht mehr stabilisieren, sondern dynamisieren. In den daraus entstandenen permanenten Transformations- und Optimierungsprozessen sind wir alle zugleich Opfer und Täter. Die moderne Macht trifft den Menschen nicht mehr physisch, sondern fließt gleichsam durch ihn hindurch. Der Mensch bleibt kompliziert Luhmann, Bourdieu und Foucault haben Webers klassische Machtdefinition um überraschende Aspekte menschlichen Zusammenlebens bereichert.   Ihre Entwürfe der Dimensionen der Macht gehören ebenso wie die von Durkheim, Tönnies und Weber zum heutigen soziologischen Bildungskanon. Sie machen aber auch deutlich, dass wir von einer allgemein akzeptierten Gesellschaftstheorie, die sich etwa mit dem Konsens eines physikalischen Weltbildes vergleichen ließe, noch immer weit entfernt sind. Der Grund hierfür liegt nicht nur in der Komplexität der Zusammenhänge, sondern auch in unterschiedlichen Auffassungen über die Natur des Menschen. Bis auf Weiteres können wir daher nur versuchen unsere Spezies zu verstehen – erklären können wir sie nicht.     Den Blog entdecken   Wer mehr wissen will: Weber, Max (1922): „Wirtschaft und Gesellschaft“, Mohr. Luhmann, Niklas (1984): „Soziale Systeme“, Suhrkamp. Luhmann, Niklas (1998): „Die Gesellschaft der Gesellschaft“, Suhrkamp. Luhmann, Niklas (2002): „Die Politik der Gesellschaft“, Suhrkamp. Bourdieu, Pierre (1987): „Die feinen Unterschiede“, Suhrkamp. Foucault, Michel (1974): „Die Ordnung der Dinge“, Suhrkamp. Foucault, Michel (1994): „Überwachen und Strafen“, Suhrkamp.   Bildnachweise: Niklas Luhmann Pierre Bourdieu [i] Weber (1922) Wirtschaft und Gesellschaft Kapitel 1, § 16. [ii] Vgl. Luhmann (2002) S.23 f.

  • Wie funktionieren Sprachen? Eine kleine Geschichte der Kommunikationstheorien

    Fortsetzung von: „Die Erfindung der Schrift – ein Stück Unsterblichkeit“   Humboldts Sprachtheorie Wilhelm von Humboldt  (1767-1835), der um zwei Jahre ältere Bruder des berühmten Naturfor schers, beherrschte ein gutes Dutzend Sprachen , darunter Tschechisch, Litauisch und Ungarisch. Eine Sprache, die es ihm ganz besonders angetan hatte, war das Baskische. Das Baskische war nicht nur, wie auch das Ungarische, mit keiner indoeuropäischen Sprache verwandt, sondern anders als Ungarisch, überhaupt keiner Sprachfamilie   zuzuordnen. Humboldts grammatikalische Analysen sollten ihn zum Begründer der vergleichenden Sprachwissenschaften  machen. Sprache war für den preußischen Gelehrten „gleichsam die äußere Erscheinung der Völker; ihre Sprache ist ihr Geist und ihr Geist ihre Sprache, man kann sie beide nie identisch genug denken.“ [i]  Wenn Sprache aber das „Medium des Denkens und der Weltauffassung“ war, drängte sich sofort die Frage auf, inwieweit einzelne Sprachen das Denken   ermöglichen oder einschränken. Wilhelm von Humboldt war ein Sprachengenie Von dieser Überlegung ausgehend schuf Humboldt eine Theorie, die Sprachen nach drei vermeintlichen Entwicklungsstufen klassifiziert : Isolierende Sprachen , wie das Chinesische oder Thai, stellen die unterste Stufe dar. Sie kennen keine Flexionen ; alle Wörter sind unveränderlich und grammatische Unterscheidungen werden zumeist durch feste Wortstellungen ausgedrückt. Nach Humboldts Vorstellung muss die fehlende grammatische Struktur vom Sprecher hinzugedacht werden, was den Gedankenfluss verlangsamt. Agglutinierende Sprachen , zu denen etwa das Türkische und das Ungarische zählen , stellen die nächsthöhere Entwicklungsstufe dar. Sie beruhen auf dem Prinzip, dass grammatische Unterscheidungen, wie Fälle, Anzahl der Personen oder Zeiten durch an den Wortstamm angefügte Affixe (meist in Form von Vor- und Nachsilben) zum Ausdruck gebracht werden. Die höchste Form der E ntwicklung haben die flektierenden Sprachen   erreicht, zu denen die indoeuropäische und semitische Familie zählen. Während in den agglutinierenden Sprachen jede grammatische Kategorie wie Genus, Kasus oder Numerus durch selbstständige, aneinandergereihte Affixe zum Ausdruck gebracht wird, fusionieren die flektierenden Sprachen die verschiedenen Kategorien in einem gemeinsamen Affix. Humboldts Typologie ordnet jeder Sprache eine „historische Bedingung des Denkens“ zu, wobei in der Realität alle natürlichen Sprachen Mischformen sind, die sich den drei Idealtypen nur mehr oder minder annähern.   Humboldts Sprachtypologie Humboldt war sich natürlich bewusst, dass eine Einteilung, die für jede neue Entwicklungsstufe eine höhere Beweglichkeit des Geistes unterstellt, nicht erklären kann, warum trotz der offenbaren Simplizität ihrer Grammatik   die Chinesen eine hoch entwickelte Kultur hervorgebracht hatten. Auch die auffälligen isolierenden Tendenzen einiger indogermanischer Sprachen, insbesondere des Englischen, passten nicht in dieses Bild. Humboldt versuchte daher, seine Theorie durch die Vorstellung zu retten, dass ein durch eine entwickelte Sprache beweglich gemachter Geist in der Lage sei, komplexe grammatische Sachverhalte auch ohne Flexionen zu erfassen. Nachdem die Sprache den Geist gleichsam über die verschiedenen Entwicklungsstufen in die Höhe gezogen habe, sei es diesem nun wieder möglich, sich einer einfacheren Grammatik zu bedienen.   In welchem Verhältnis steht die Sprache zur Welt? Mitte des 19. Jahrhunderts waren die Grundlagen der historisch-vergleichenden Sprachforschung gelegt: William Jones   hatte die indogermanische Sprachfamilie entdeckt, der Franzose Jean-François Champollion  die Hieroglyphen   entziffert, Herder  und Humboldt ihre Theorien zu Entstehung und historischer Entwicklung der Sprache vorgelegt und August Schleicher seine Stammbaumtheorie veröffentlicht. Erst Ende des 19. Jahrhunderts begannen die Sprachforscher sich einer ganz neuen Frage zuzuwenden: In welchem Verhältnis stehen Sprache und Welt eigentlich zueinander? Der Schweizer Ferdinand de Saussure  war einer der Ersten, der die Linguistik   aus rein zeichentheoretischer Sicht betrachtete. Er führte hierzu die grundlegende Unterscheidung zwischen dem angeschauten Objekt (signifié, Signifikat , das Bezeichnete) und dem verwendeten Zeichen   (signifiant, Signifikant , das Bezeichnende) ein. Der Baum als pflanzliches Gewächs ist das Signifikat , der Betrachtungsgegenstand als solcher. Die Zeichenfolge „Baum“ (baʊ̯m) ist ein Signifikant , ein dem Objekt letztlich willkürlich zugeordnetes Lautbild. Dass Sender und Empfänger sich über das Ding verständigen können, beruht allein auf einer Übereinkunft zwischen den Angehörigen einer Gruppe, die untereinander einen gemeinsamen Zeichenvorrat teilen. Da andere Sprachgemeinschaften andere Konventionen haben, heißt ein Baum bei ihnen daher boom, tree, abre, albero, 树, ដើមឈើ oder was auch immer sonst vereinbart wurde. Ferdinand de Saussure: In welchem Verhältnis steht Sprache zur Welt? De Saussures Unterscheidung zwischen  dem Bezeichneten und seiner Bezeichnung war ein erster pragmatischer Schritt auf dem Weg zur Klärung des Verhältnisses von Sprache und Wirklichkeit. Doch dieses einfache Modell hat eine Schwäche: Es sagt nichts darüber aus, ob Sprecher und Hörer auch ein gemeinsames Verständnis des betrachteten Objekts haben. 1923 stellten die beiden britischen Sprachwissenschaftler Charles Ogden  und Ivor Richards  ein Modell vor, das die bipolare Sicht de Saussures um diesen fehlenden Aspekt erweiterte: Das semiotische Dreieck  unterscheidet zwischen dem Ding als solchem, dem ihm zugewiesenen Zeichen und dem Begriff, den wir uns von dem bezeichneten Ding machen.           Signifikat und Signifikant Semiotisches Dreieck Der Begriff ist das, was gemeint ist, die durch das Zeichen hervorgerufene mentale Repräsentation. Seine Interpretation kann bei jedem Menschen unterschiedlich sein und von der „Wahrheit“ oder einer lexikalischen Definition abweichen. Nur wenn Ding, Zeichen und Begriff – also das, was ist, wie man es nennt und was gemeint ist – übereinstimmen, ist die Bedeutung aus semantischer Sicht eindeutig geklärt. Organonmodell Kommunikationsmodelle Das Organonmodell , das der deutsche Psychologe und Linguist Karl Bühler  1934 vorstellte, ging noch einen Schritt weiter. Da es zusätzlich noch die Beziehung zwischen Sender und Empfänger berücksichtigt, geht es über reine Semiotik   hinaus und wird damit zu einem Kommunikationsmodell. Botschaften werden aus drei verschiedenen Blickwinkeln betrachtet: Bei der Darstellungsfunktion steht die reine Informationsvermittlung im Sinne des semiotischen Dreiecks im Vordergrund. Bei der Ausdrucksfunktion teilt der Sender etwas über sich mit; seine Zeichen sind stets auch Symptome einer Selbstoffenbarung. Die Appellfunktion nutzt der Sender, um den Empfänger zu etwas aufzufordern. Der Aussagesatz „Es ist kalt im Zimmer“ mag auf der sachlichen Informationsebene bedeuten, dass die Raumtemperatur 15 Grad Celsius beträgt. Der Sprecher möchte damit aber vielleicht offenbaren, dass er friert und verbindet dies mit dem Appell an sein Gegenüber, die Heizung aufzudrehen. Das Zeichen ist bei Bühler nicht nur Symbol, sondern auch Symptom und Signal, wobei das Kind – so wie in Kennedys berühmter Rede – nicht immer beim Namen genannt wird. [ii]  Meist steht bei der Botschaft eine der drei Dimensionen im Vordergrund, doch die beiden anderen schwingen stets mit. Ausdruck und Appell können nur verstanden werden, wenn Sender und Empfänger sich jeweils in die Sichtweise des anderen hineinversetzen können, also über eine „ Theory of Mind “ verfügen. Dann können auch Ironie , Sarkasmus  oder Hintersinn entschlüsselt werden. [iii] Bühlers Bewusstmachung verborgener Kommunikationsebenen wurde in den 1960er Jahren wiederum durch den österreichischen Psychologen und Kommunikationstheoretiker Paul Watzlawick  erweitert. Watzlawick definierte fünf Axiome der Kommunikation , von denen die ersten beiden lauten: „Man kann nicht nicht kommunizieren“ und „Jede Kommunikation hat einen Inhalts- und einen Beziehungsaspekt“. Das erste Axiom stellt klar, dass Verständigung nicht allein an Sprache gebunden ist. Durch unsere Mimik  und Gestik  senden wir zu jedem Zeitpunkt Signale an unsere Umwelt wie wir uns befinden und was wir wollen. Auch Teilnahmslosigkeit ist ein Signal. Kurz: Wir kommunizieren immer. Das zweite Axiom   besagt, dass neben der von Bühler beschriebenen Inhalts-, Darstellungs- und Appellfunktion stets auch das Verhältnis zwischen Sender und Empfänger mitschwingt: Vertraut man sich? Steht man auf der gleichen sozialen Stufe? Wie denkt man über den anderen? Nimmt man ihn ernst? War das Lob vielleicht vergiftet? [iv]     Bestimmt unsere Sprache unser Denken? 1939 erregte der Artikel „ Die Beziehungen des Gewohnheitsdenkens und des Verhaltens zur Sprache “ des amerikanischen Ingenieurs und Freizeit-Linguisten Benjamin Whorf  in Fachkreisen einiges Aufsehen. Wohl ohne dessen Schriften gekannt zu haben, griff der Autor Humboldts Idee der Sprachabhängigkeit des Denkens erneut auf. Nach der „ Sapir-Whorf-Hypothese “ ist jede Sprache eine ganz eigene Kartographie der Wirklichkeit , ein vorgegebenes Raster, das letztlich auch festlegt, was sich überhaupt denken lässt. Tatsächlich haben neuere Studien bestätigt, dass die Muttersprache maßgeblichen Einfluss darauf hat, wie grundlegende Dimensionen menschlicher Erfahrungen, wie Raum, Zeit, Kausalität und die Beziehung zu anderen wahrgenommen werden. Die in Nordaustralien gesprochene Aborigine-Sprache Kuuk Thaayorre , kennt keine relativen Raumbeziehungen wie links oder rechts, sondern nur das absolute Nord, Süd, Ost, West. Aufgrund des fehlenden relativen Bezugs müssen ihre Sprecher sich also stets über die Himmelsrichtungen im Klaren sein und tatsächlich verfügen sie im Vergleich zu Sprechern anderer Sprachen über ein deutlich besseres Orientierungsvermögen. In diesem Fall sieht es so aus, als ob eine kognitive Fähigkeit durch eine spezifische Sprachstruktur erzwungen wurde. [v] Manche Aborigines würden dich dezent darauf hinweisen, dass auf deinem südwestlichen Bein ein Skorpion sitzt! Wörter wie Sonne, Mond oder Brücke haben in den romanischen Sprachen jeweils das gegenteilige Geschlecht wie im Deutschen. Werden deutsche Muttersprachler gebeten, eine Brücke zu beschreiben, greifen sie typischerweise auf Attribute wie „schön“ oder „elegant“ zurück. Sprecher romanischer Sprachen hingegen nennen bevorzugt typisch männliche Eigenschaften wie „stark“ oder „mächtig“. Neben solchen grammatikabhängigen Konnotationen  kennt jede Sprache zahlreiche Ausdrücke, die in anderen Sprachen nicht einfach so „gedacht “ werden können. Die deutschen Wörter „Heimat“, „Fernweh“, „Wanderlust“, „Waldeinsamkeit“ oder „Schadenfreude“ haben im Englischen, Französischen, Spanischen und Italienischen keine direkte Entsprechung und können dort jeweils nur wortreich umschrieben werden (im Englischen würde eine Umschreibung für Schadenfreude etwa lauten: " pleasure derived by someone from another person's misfortune") . Je abstrakter ein Begriff, umso grösser die Wahrscheinlichkeit, dass vermehrt unterschiedliche kulturelle Dimensionen mitschwingen . Die verschiedenen lexikalischen Definitionen gerade des Wortes „Kultur“ im Deutschen, Englischen und Französischen sind ein gutes Beispiel hierfür; die italienische Übersetzung von „ Völkerwanderung “ – „invasioni barbariche“ – macht zudem deutlich, dass Vieles auch einfach nur eine Frage der Perspektive ist.  Wanderer oder Invasoren? Alles eine Frage der Perspektive Wie universell ist unsere Kommunikation? In völligem Gegensatz zu Whorfs sprachlichem Determinismus befinden sich die Thesen des amerikanischen Linguisten Noam Chomsky . Seine in den 1950er Jahren entwickelte Theorie einer universellen Grammatik   geht davon aus, dass das menschliche Gehirn über ein angeborenes kulturunabhängiges Modul verfügt, das den Spracherwerb nach einem stereotypen Regelwerk organisiert. Die Unterschiede zwischen den Sprachen der Welt sind demnach letztlich oberflächlich. [vi]  Dass während der ersten acht oder neun Lebensjahre jedes Kind jede beliebige Sprache erlernen kann, ist gemäß Chomsky nur möglich, weil allen natürlichen Sprachen ein gemeinsames grammatisches System zugrunde liegt und nur noch die spezifische Konfiguration der jeweiligen Sprache erlernt werden muss. Glaubt an Sprachuniversalien: Noam Chomsky Chomsky zufolge würde ein außerirdischer Wissenschaftler feststellen, dass alle Erdlinge nur unterschiedliche Dialekte derselben Sprache sprechen. [vii]  Belege sehen Chomsky und die Verfechter seiner These insbesondere beim kindlichen Spracherwerb, der intuitiv unsinnige grammatikalische Konstrukte vermeidet, sowie in Sprachuniversalien, also Strukturen, die alle Sprachen miteinander teilen . [viii]   Whorfs und Chomskys Theorien stellen heute unter Linguisten heiß umstrittene Extrempositionen dar. Ein wichtiger Einwand gegen Whorfs These ist, dass es trotz aller sprachspezifischen Ausdrücke letztlich kein Problem ist, das zugrundeliegende Konzept eines Wortes auch Sprechern einer anderen Sprache zu vermitteln. Schließlich empfinden auch Japaner oder Peruaner Schadenfreude. Ebenso sind wir in der Lage, die Unterscheidung der englischen Wörter „if“ und „when“, die im Deutschen beide mit „wenn“ übersetzt werden können, zu verstehen und korrekt zu verwenden. [ix] Gegen Chomskys These spricht zunächst der offenbare Mangel an echten Sprachuniversalien. Des Weiteren sehen viele Linguisten gar keine Notwendigkeit für eine solche Theorie; die dem Spracherwerb zugrundeliegenden kognitiven Prozesse seien bekannt und erklären das Phänomen hinreichend genau. Zudem verändere sich Sprache durch die kulturelle Evolution   wesentlich schneller als durch die Biologie; es sei daher nicht erklärbar, wie und warum Spracherwerb genetisch fixiert worden sein soll. [x]   Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt: Wittgensteins Sprachphilosophie Zwei ganz andere Betrachtungen der Sprache verdanken wir dem österreichischen Philosophen Ludwig Wittgenstein . Sein Anknüpfungspunkt war Freges Unterscheidung von „Sinn“ und „Bedeutung“. Wittgensteins erste Abhandlung, den Tractatus Logico-Philosophicus, verfasste der studierte Ingenieur während des Ersten Weltkriegs in einem Schützengraben. Darin behandelt er den Zusammenhang von Sprache, Denken und Wirklichkeit auf einer streng logischen Grundlage. Der Tractatus beginnt mit einer Reihe von Feststellungen : „1. Die Welt ist alles was der Fall ist. […] 1.2: Die Welt zerfällt in Tatsachen. […] 2. Was der Fall ist, die Tatsache, ist das Bestehen von Sachverhalten. […] 3. Das logische Bild der Tatsachen ist der Gedanke […] 4. Der Gedanke ist der sinnvolle Satz.“ [xi]   Da wir unser Denken nur durch Sprache zum Ausdruck bringen können, war Ingenieur, Philosoph, Volkschullehrer, Sprachkritiker: Ludwig Wittgenstein Wittgenstein überzeugt, dass wir keine Metaphysik   oder Erkenntnistheorie betreiben können, ohne vorher Sprachkritik  betrieben zu haben. Nicht alle Sätze, die möglich sind, stellt Wittgenstein fest, leisten einen sinnvollen Beitrag, zum Verständnis der Realität . Sinnvoll sind nur Sätze, die aufgrund bestehender Sachverhalte als wahr oder falsch bestätigt werden können, etwa die Behauptung: „Draußen scheint die Sonne“. Tautologien  wie: „Draußen scheint die Sonne oder draußen scheint die Sonne nicht“ sind sinnlos. Sie sagen nichts aus, da sie immer sowohl wahre als auch falsche Anteile enthalten und keine Realität benötigen. Neben sinnlosen gibt es auch unsinnige Sätze: „Der Satz, den ich hiermit ausspreche, ist falsch“ ist in der Wittgensteinschen Logik Unsinn, weil er kein vernünftiges Bild von den Tatsachen der Welt liefert und es keine Wirklichkeit gibt, anhand derer sich der Wahrheitsgehalt überprüfen ließe. Es ist schlichtweg zwecklos über sinnlose und unsinnige Dinge zu sprechen. [xii]  Daraus ergibt sich aber eine geradezu dramatische Konsequenz: Da Philosophie keine Naturwissenschaft ist, lassen sich auch ihre Behauptungen nicht an der Realität überprüfen; sie sind damit weder wahr noch falsch. Das aber macht die ganze Philosophie letztlich sinnlos. Die Möglichkeiten einer sinnhaften Weltbeschreibung fasste Wittgenstein in seinen beiden bekanntesten Zitaten zusammen: „Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt“. Und: „Was sich überhaupt sagen lässt, lässt sich klar sagen; und wovon man nicht sprechen kann, darüber muss man schweigen.“ [xiii] Etliche Jahre später revidierte Wittgenstein diese radikale Position allerdings. Seine zeitweise Arbeit als Volksschullehrer hatte dem strengen Ingenieur bewusstgemacht, dass der konkrete tägliche Gebrauch von Sprache nicht mit den Aussagen seines Tractatus vereinbar war. Die Nützlichkeit der Worte liegt nicht darin, dass sie die Welt beschreiben, sondern darin, dass sie uns erlauben uns mitzuteilen. In seinem Spätwerk, den „Philosophischen Untersuchungen“ stellte er daher fest: „Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache.“ [xiv]  Wenn Bedeutungen aber unscharf sind, können sie auch keinen rational-logischen Ansprüchen gerecht werden. Letztlich ist die Sprache ein Spiel, das funktioniert, weil man sich auf bestimmte Regeln – Zeichen für die Dinge und Syntax   des Satzbaus – geeinigt hat. Nur wer die Regeln kennt, kann an dem Spiel teilnehmen und seine Ideen mitteilen. Es ist demnach müßig in der Sprache einen tieferen Zweck zu suchen, oder aus ihr ein vollkommenes Weltbeschreibungswerkzeug formen zu wollen. Wittgenstein illustriert die Grenzen objektiver Beschreibbarkeit am Beispiel des Wortes „Spiel“. Es gibt Brettspiele, Ballspiele, Kampfspiele, Theaterspiele, Kinderspiele, Olympische Spiele. Nicht immer geht es um Gewinnen und Verlieren, nicht immer muss man zu mehreren spielen, nicht immer geht es um Geschicklichkeit oder um Glück. Letztlich findet sich kein Merkmal, das allen Spielen gemein ist. Dennoch wissen wir, was ein Spiel ist und was nicht. Die Begriffe sind durch eine „ Familienähnlichkeit “ miteinander verbunden, ohne dass es möglich wäre, diese Ähnlichkeit genau zu erfassen. Manche sehen in Wittgensteins Ausloten sprachlicher Grenzen einen der letzten Höhepunkte der abendländischen Philosophiegeschichte . Doch wo nahm das systematische Denken seinen Anfang und wie hat es sich seitdem entwickelt? Die Spurensuche führt uns einmal mehr ins antike Griechenland. (Die im Artikel erwähnte Sprachtheorie von Johann Gottfried Herder ist hier ausführlicher beschrieben ).   Mit diesem Artikel endet die Serie zur Kategorie Sprache   Den Blog entdecken   Wer mehr wissen will: Humboldt, Wilhelm von (1836) „Über die Kawi-Sprache auf der Insel Java“. Saussure, Ferdinand de (1967): „Grundfragen der allgemeinen Sprachwissenschaft“, De Gruyter. Bühler, Karl. (1934): „Sprachtheorie. Die Darstellung der Sprache“, Fischer. Steiner, George (1972): „Whorf, Chomsky and the Student of Literature”, New Literary History Vol. 4, No. 1, Seiten 15-34. Dabrowska, Ewa (2015): "What exactly is Universal grammar, and has anyone seen it?, Frontiers in Psychology 6, Article 852. Deutscher, Guy (2010): „Through the language glass“, Metropolitan Books. Wittgenstein, Ludwig (1922) „Tractatus logico-philosophicus”, tractatus-online.appspot.com . Wittgenstein, Ludwig (2003) „Philosophische Untersuchungen”, Suhrkamp.     Bildnachweise: Noam Chomsky [i]  Humboldt (1836) S. 53. [ii]  Vgl. Bühler (1934) S.28. [iii]  Es gibt ein für Sarkasmus zuständiges Gehirnareal. Menschen, bei denen dieses Areal beschädigt ist, können sarkastische Anspielungen nicht verstehen. [iv] Der Kommunikationspsychologe Friedemann Schulz von Thun erweiterte Bühlers Modell um Watzlawicks Beziehungsaspekt zu einem vierdimensionalen Modell mit den Seiten „Selbstoffenbarung“, „Sachebene“, „Appell“ und „Beziehung“. [vi]  Vgl. Steiner (1972) S. 15. [vii]  Vgl. Deutscher (2010) S.6. [viii] Vgl. Dabrowska (2015), S.2 f. [ix] Vgl. Deutscher (2010) S. 14 f, 147. [x] Vgl. Dabrowska (2015) und Tomasello (2003) [xi]  Wittgenstein (1922). [xii] Damit zeigt Wittgenstein ein anderes Verständnis von Logik als bis heute in der Mathematik üblich: neben den binären Kategorien „wahr“ und „falsch“ gibt es auch noch die Kategorien „sinnlos“ und „unsinnig“ [xiii] Wittgenstein (1922) 5.6; 7. [xiv]  Wittgenstein (2003) S. 40.

bottom of page