top of page

Suchergebnisse

104 Ergebnisse gefunden mit einer leeren Suche

  • Anatomie der Atome: die Entdeckungsgeschichte der Quantenphysik (Teil 1)

    Fortsetzung von „Wie ein eidgenössischer Patentprüfer dritter Klasse die Welt aus den Angeln hob“   Die Anatomie der Atome Werner Heisenberg , ein erst 23-jähriger Dozent für theoretische Physik, hatte in der Abgeschiedenheit Helgolands viel Zeit. Auf der kleinen Nordseeinsel sollte er sich auf Anraten seiner Ärzte, im Mai 1925 von den quälenden Attacken seiner Heuschnupfenallergie erholen. Dank der reinen Luft konnte sich Heisenberg bald wieder konzentrieren. Er las Goethe und unternahm ausgedehnte Klettertouren in den Felsen. Und er hatte Zeit über Atome  nachzudenken. Die Welt der allerkleinsten Maßstäbe schien ein eigenes Universum zu sein, das sich weder mit Newtons   Analysis   noch mit Einsteins abstrakter Geometrie vermessen ließ. Wie musste man sich die atomare Mechanik vorstellen, die die dingliche Welt entstehen lässt? Unscharf: Werner Heisenberg In den vorangegangenen drei Jahrzehnten war deutlich geworden, dass das Atom noch immer zahlreiche Geheimnisse barg. 1896 war dem französischen Physiker Antoine Henri Becquerel  aufgefallen, dass Uransalze eine rätselhafte Strahlung erzeugen, die so intensiv war, dass zufällig in der Nähe befindliche Fotoplatten durch sie belichtet wurden. Zwei Jahre später entdeckte das polnisch-französische Forscherehepaar Marie und Pierre Curie  zwei neue Elemente , Polonium und Radium, die noch deutlicher als Uran  die bis dahin unbekannte Eigenschaft zeigten. Die Physikergemeinschaft war ratlos. Nach dem bisherigen Verständnis konnten nur von außen kommende elektromagnetische Strahlen solche Veränderungen hervorrufen. Offenbar gab es aber noch eine weitere Form von Energie, die in den schweren Metallatomen selbst wohnte.   Marie Curie: offizielles Nobelpreisfoto von 1911 Eine einfache Formel Im Jahre 1900 machte der deutsche Physiker Max Planck  die nächste merkwürdige Beobachtung. Wohlmeinende Professoren hatten seinerzeit dem musikalisch hochbegabten Abiturienten noch von der Physik abgeraten: Es gäbe hier nicht mehr viel zu entdecken, alle wesentlichen Zusammenhänge seien bereits bekannt. Dennoch entschied sich Planck gegen das Musikstudium. Nun, ein Vierteljahrhundert später, brütete er über einem thermodynamischen Phänomen, das der Physikergemeinschaft als Schwarzkörperstrahlung  bekannt war: Wenn ein Körper– etwa ein Stück Stahl – stark erhitzt wird, verändert sich die Farbe seiner Glut: von Rot über Gelb bis Weiß. Die damals gültigen physikalischen Theorien konnten jedoch den Verlauf der Strahlungsintensität bei verschiedenen Wellenlängen nicht korrekt erklären. Vor allem im Bereich des ultravioletten Lichts sagten sie eine eigentlich nicht zu begründende hohe Energieabstrahlung voraus – ein Problem, das als Ultraviolett-Katastrophe bezeichnet wurde. Planck suchte nach einer Beschreibung, die den gemessenen Verlauf korrekt wiedergab – und fand sie mit der einfachen Formel: E = h · f. Diese einfache Gleichung beschreibt einen grundlegenden Zusammenhang: Die Energie „E“ der Strahlung ist proportional zur Frequenz „f“ des Lichts. Der Proportionalitätsfaktor h (h weil sie für Planck zunächst eine unerklärliche Hilfsgrösse darstellte) ist heute als das Plancksche Wirkungsquantum bekannt. Mit einem Wert von etwa 6,626 × 10⁻³⁴ Joule · Sekunden stellt es die kleinste bekannte physikalische Wirkung dar – ein Produkt aus Energie und Zeit. Brachte den Stein ins Rollen: Max Planck Die simple Formel entpuppte sich als radikale Aussage über das Wesen der Natur: Energie wird nicht kontinuierlich, sondern in diskreten Portionen übertragen – in sogenannten Quanten. Damit war die über zweitausend Jahre alte Vorstellung erschüttert, dass Naturvorgänge stets stetig und bruchlos ablaufen. Energie floss offenbar nicht wie ein Strom, sondern wurde schubweise übertragen – vergleichbar mit Tropfen aus einem Wasserhahn. Diese Idee wirkte auf viele Physiker irritierend. Planck selbst blieb skeptisch, was die physikalische Deutung seiner Formel betraf. Erst Albert Einstein wagte den nächsten Schritt: 1905 erklärte er den photoelektrischen Effekt, ein Phänomen, das bereits 1887 von Heinrich Hertz beschrieben worden war. Wird eine Metalloberfläche mit Licht bestrahlt, kann dieses – unter bestimmten Bedingungen – Elektronen aus dem Metall herausschlagen. Entscheidend ist dabei nicht die Intensität, sondern die Frequenz des Lichts: Nur kurzwelliges, energiereiches Licht wie Blau oder Violett bewirkt eine Elektronenemission; rotes Licht, so stark es auch strahlt, bleibt wirkungslos. Einstein deutete das Licht als Strom von Teilchen – später wird man sie als Photonen bezeichnen – und zeigte, dass deren Energie nur dann ausreicht, um Elektronen aus dem Metall zu lösen, wenn sie mindestens den Wert h · f überschreitet. In seiner Gleichung zur Beschreibung des Effekts war das Plancksche Wirkungsquantum exakt die Steigung des Zusammenhangs zwischen Lichtfrequenz und Elektronenenergie. Damit war klar: Licht zeigt Eigenschaften von Teilchen, und die Quantennatur der Energie ist nicht nur bei ihrer Abgabe, sondern auch bei ihrer Aufnahme wirksam. Das kleine „h“ hatte den Anfang einer neuen Physik markiert – der Quantenmechanik – und die Vorstellung einer stetigen, kontinuierlichen Welt endgültig zu Nichte gemacht.   Welle oder Teilchen? Die allerkleinsten Maßstäbe der Physik waren offenbar bislang völlig unbekannten Spielregeln unterworfen: Mal verhielt sich Licht wie eine Masse und sprang von einem Zustand in den nächsten, mal agierte es wie eine masselose Welle. Es schien auf einmal, dass sowohl Huygens als auch Newton   recht gehabt hatten: Licht war Welle und Teilchen zugleich! Der von Einstein entdeckte Dualismus war ein erster Schlüssel zum Verständnis der Quantenwelt. Was da unten geschah, war ebenso wenig vorstellbar, wie die verbogenen Räume der Relativitätstheorie. Die Doppelnatur der Quanten, ihr „Sowohl-als-Auch-Charakter“ war weder mit der alltäglichen menschlichen Entweder-Oder“-Wahrnehmung noch mit Newtons Mechanik in Einklang zu bringen. Den merkwürdigen Dualismus der Photonen, wie die Lichtteilchen auch bezeichnet werden, macht eine moderne Variante des Youngschen Doppelspaltexperiments   deutlich: Werden die Teilchen nacheinander durch den Doppelspalt geschossen, entsteht mit der Zeit ein Interferenzmuster – Ausdruck ihres Wellencharakters. Bringt man aber einen Sensor an, der misst, ob ein einzelnes Photon durch den linken oder den rechten Spalt fliegt, materialisiert sich der Zustand des Teilchens und es entsteht das für Materie typische Doppelspaltenmuster. Fast erscheinen die Teilchen menschlich: Sie verhalten sich unterschiedlich, je nachdem ob man sie beobachtet oder nicht. [ii]     Das Doppelspaltexperiment ohne Photonen-Messung (links) und mit Messung (rechts) Der „Sowohl-als-auch-Charakter“ des Lichts war für den jungen Dänen Niels Bohr  1913 der Anstoß, eine entscheidende Erweiterung des rutherfordschen Atommodells vorzuschlagen. In Bohrs Vorstellung bewegten sich Elektronen auf unterschiedlichen, wohldefinierten Bahnen, die jeweils verschiedenen Energieniveaus entsprachen. Bohr bezeichnete sie als „ Elektronenschalen “. Je weiter außen eine Schale liegt, desto höher das Energieniveau. Wie alle massebehafteten Teilchen sind auch Elektronen bestrebt, Energie abzugeben, um an Stabilität zu gewinnen. So wie eine in einer Schüssel rotierende Kugel dem Schüsselboden als dem Punkt mit der niedrigsten Lageenergie zustrebt, möchten sich auch die Elektronen stets auf einer möglichst niedrigen Bahn bewegen.   Beschrieb den berühmten "Quantensprung": Nils Bohr Quantensprünge Trifft ein Lichtteilchen auf ein Elektron, erhält das Elektron dadurch einen Impuls, der es von einer energieärmeren Bahn auf eine höhere, energiereichere Schale katapultiert. Dabei kommt es zu einer folgenreichen Wechselwirkung: Das Elektron nimmt die Photonenenergie vollständig in sich auf, das Photon selbst wird dabei vernichtet. Das aus dem Gleichgewicht gebrachte Atom aber möchte die erhaltene Energie so rasch wie möglich wieder loswerden, um zu seinem stabilen Grundzustand zurückkehren zu können. Das Elektron stürzt auf die weiter innen liegende Umlaufbahn, dabei entsteht ein neues Photon. Das Licht wird mit der gleichen Frequenz und Energie emittiert, mit der es vorher absorbiert wurde – es enthält genau die Energiedifferenz zwischen dem kurzfristig erhöhten Zustand und dem Ausgangszustand. Dieser Vorgang ist der berühmte „ Quantensprung “, wobei die Physiker heute lieber von „Übergängen“ sprechen. Fast nebenbei hatte Bohr mit seinem Atommodell auch eine quantenbasierte Theorie zur Entstehung elektromagnetischer Wellen geliefert. Später sollte sich zeigen, dass jedes chemische Element aufgrund von Zahl und Anordnung seiner Elektronen eine charakteristische Spektrallinie des Lichts emittiert, die es so eindeutig kennzeichnet wie ein Fingerabdruck. Doch auch Bohrs Modell hatte noch immer eine entscheidende Schwäche: Es konnte nicht erklären, warum es überhaupt Atome gab. Nach allen Regeln der klassischen Physik müssten die negativen Elektronen eigentlich in den positiv geladenen Atomkern stürzen. Warum also fiel das Atom nicht einfach in sich zusammen?  Bedeutsame Insel: Helgoland Die Teilchen mehren sich 1917, ein Jahr nach Veröffentlichung der allgemeinen Relativitätstheorie, konnte Ernest Rutherford  dem lückenhaften Bild vom Atom ein weiteres Puzzleteil hinzufügen. Er hatte im Atomkern das Proton entdeckt und damit den positiven Gegenspieler der Elektronenladung genau lokalisiert. Rasch wurde klar, dass die Anzahl der Protonen im Kern die chemische Identität des Atoms bestimmt. Rutherfords Messdaten legten zudem nahe, dass es im Kern noch eine weitere Teilchenart geben musste, die ebenfalls stark zur Masse beitrug, aber elektrisch neutral war. Bis dahin hatten sich die Quantenphysiker vor allem mit dem Licht beschäftigt: Die Photonen hatten zwar keine Masse, verhielten sich aber dennoch wie Materie. Zudem hatte die Sonnenfinsternis von 1919 einen Zusammenhang zwischen der allgemeinen Relativitätstheorie und der Quantenphysik aufgezeigt: Auch Licht unterlag der Wirkung der Gravitation. 1924 stellte der französische Physiker Louis de Broglie  dann die These auf, dass auch massebehaftete Teilchen, wie Elektronen und Protonen, demselben Welle-Teilchen-Dualismus unterliegen wie das Licht. So wie Energie Teilcheneigenschaften hatte, hatte Materie auch Wellencharakter! Langsam zeichnete sich ab, dass die Welt der Elementarteilchen und die Anatomie der Atome um einiges komplexer war, als sich irgendjemand bislang vorzustellen vermocht hatte. (Fortsetzung folgt)   Den Blog entdecken   Wer mehr wissen will: Zeilinger, Anton (2005): „Einsteins Schleier – Die neue Welt der Quantenphysik“, Goldmann.     Bildnachweise: Helgoland Anmerkungen: [i] Für die Analyse des photoelektrischen Effekts erhielt Einstein 1921 den Nobelpreis für Physik (also nicht für die zu diesem Zeitpunkt noch nicht völlig etabliert Relativitätstheorie). Der photoelektrische Effekt bildet unter anderem die Grundlage der heutigen Photovoltaik, der Umwandlung von Licht in Strom. [ii]  Der österreichische Quantenphysiker Erwin Schrödinger  hat in einem berühmten Gedankenexperiment illustriert, was es bedeuten würde, wenn die Quanteneffekte auch in unserer Makrowelt wirksam wären: Eine Katze wird in eine Kiste eingeschlossen. In der Kiste befinden sich außerdem ein radioaktives Atom, ein Hammer, ein Geigerzähler (benannt nach Hans Geiger) und eine Giftampulle. Wenn das Atom zerfällt, löst der Geigerzähler einen Hammerschlag aus, der die Giftampulle zerschlägt; das freigesetzte Gift tötet die Katze sofort. Die Halbwertzeit besagt, dass das Atom innerhalb einer Minute mit 50%iger Wahrscheinlichkeit zerfällt. Nach einer Minute beträgt die Wahrscheinlichkeit, dass die Katze tot ist also 50%. Nach dieser Zeit wird das Experiment abgebrochen. Lebt die Katze in der Kiste oder ist sie tot? Solange man die Kiste nicht öffnet und nachschaut ist die Katze beides: halb lebendig und halb tot. Erst der Messprozess ändert diesen Zustand: Wenn wir nachschauen, finden wir entweder eine lebende oder eine tote Katze. Genauso befinden sich Quanten vor dem Messen in einem undefinierten Zustand, der erst durch die konkrete Messung geklärt werden kann.

  • Donald Trumps Voodoo-Ökonomie

    Donald Trumps Voodoo-Ökonomie In meinem Blog geht es um Grundlagen des Weltverstehens. Ich bemühe mich hierfür die wichtigsten und einflussreichsten Welterklärungstheorien in elf Themengebieten so verständlich wie möglich darzustellen. In jedem zwölften Artikel, der Kategorie „ Dies und Das “ verarbeite ich keine Auszüge aus meinem Buch , sondern versuche bestimmte kapitelübergreifende Themen aufzugreifen und Querverbindungen darzustellen. Ich habe mich bisher – durchaus absichtlich – nicht mit aktuellen Themen befasst, denn ich möchte in erster Linie Modelle vorstellen, die uns helfen können, die Phänomene des Lebens und die Informationsflut um uns herum sinnvoll einzuordnen. Ich möchte diese selbst auferlegte Regel nun erstmalig brechen, weil mich persönlich – so wie viele andere Menschen auch – die aktuelle Präsidentschaft Donald Trumps sehr beschäftigt.   Dabei soll ausschließlich die Zollpolitik  des amerikanischen Präsidenten etwas beleuchtet werden, ein Thema, das uns wohl noch eine ganze Weile beschäftigen wird (am 23.05.2025 hat Trump seine Androhung von 50%igen Zöllen auf EU-Produkte noch einmal bekräftigt und die Börsen damit erneut auf Talfahrt geschickt.) Inwieweit lässt sich die Handelspolitik der Trump-Administration mit den gängigen ökonomischen Theorien in Einklang bringen? Und inwieweit können diese Theorien die Wirklichkeit erklären? Wer gewinnt das Kräftemessen? Oder verlieren nicht eher alle?   Ein Blick zurück: Die Rolle des Außenhandels in der klassischen Nationalökonomie In den Wirtschaftswissenschaften   geht es letztlich immer nur um zwei Fragen: Wie kann die Gesamt-Wohlfahrt in einer Gesellschaft maximal gesteigert und wie soll der so erwirtschaftete Reichtum am besten verteilt werden? Der Begründer der modernen Wirtschaftswissenschaften ist der schottische Philosoph Adam Smith . Er beschrieb bereits 1776 in einem berühmten Beispiel anhand einer Stecknadelmanufaktur, wie Arbeitsteilung  eine unfassbare Wohlstandsmehrung erzeugt. Internationaler Handel ist letztlich nichts anderes als Arbeitsteilung. Nicht zwischen Menschen in einem Unternehmen, sondern zwischen Unternehmen, die in verschiedenen Ländern beheimatet sind. Smith beschreibt in seinem fundamentalen Werk „ Der Wohlstand der Nationen “ , dass es sinnvoll ist, Außenhandel zu betreiben, wenn ein anderes Land ein Gut mit weniger Arbeitseinsatz herstellen kann. Wenn also etwa Kleidung in China billiger als in den USA hergestellt werden kann, dann profitieren alle davon. Die Chinesen, weil sie einen Teil ihrer Wirtschaftsleistung aufgrund ihres Kostenvorteils exportieren können und die Amerikaner, weil sie weniger für Kleidung ausgeben müssen und damit mehr Geld für den Konsum anderer Güter zur Verfügung haben. Ein weiterer Vertreter der klassischen Nationalökonomie hat diesen Gedanken weitergesponnen. In einem ebenfalls berühmten Beispiel zeigte David Ricardo , dass die internationale Arbeitsteilung selbst dann sinnvoll ist, wenn ein Land alle  Güter billiger herstellen kann als sein Handelspartner, nämlich dann, wenn sich das produktivere Land auf die Güter konzentriert, bei denen es einen komparativen Vorteil hat. Ricardo erklärte das Anfang des 19. Jahrhunderts anhand eines Beispiels mit Portugal und England, die beide Tuch und Wein herstellen, allerdings zu unterschiedlichen Bedingungen ( Das Beispiel wird hier ausführlich erklärt .) Die Quintessenz der klassischen Nationalökonomie lautet kurz gefasst, dass internationale Arbeitsteilung Produktivitätsverbesserungen erzeugen, von denen letztlich alle beteiligten Nationen profitieren.    Was will Trump? Nach einer Aussage Trumps sind Zölle das viertschönste Wort überhaupt (nach Gott, Religion und Liebe). Folgende Ziele sind grundsätzlich denkbar, die Trump mit seiner Handelskriegserklärung vom 2. April 2025 – von ihm selbst als „Liberation Day“ bezeichnet – im Auge haben könnte:   Rückholung von Industriearbeitsplätzen Erhöhung der Staatseinnahmen durch Zölle Autarkie der eigenen Wirtschaft Verringerung des Handelsdefizits der USA Demonstration politischer Handlungsfähigkeit gegenüber der eigenen Wählerschaft Verhandlungsvorteile durch wirtschaftliche Hebel Schwächung geopolitischer Rivalen durch wirtschaftlichen Druck   Betrachten wir jeden dieser Punkte kurz einzeln:    Rückholung von Industriearbeitsplätzen. Wenn aus dem Ausland importierte Waren sich durch Zölle massiv verteuern, so die Überlegung, wird es für inländisch Nachfrager natürlich attraktiver, mehr der nun relativ billiger gewordenen inländischen Produkte nachzufragen , was entsprechend die Schaffung neuer Arbeitsplätze in den USA nach sich ziehen würde. Es ist aber aus den folgenden Gründen sehr unwahrscheinlich, dass diese Rechnung aufgeht: Unsere globalisierte Welt ist extrem arbeitsteilig. Es gibt kaum noch Produkte, die von A bis Z ausschließlich in einem Land hergestellt werden. US-Amerikanische Autos bestehen zu etwa 40% aus Komponenten, die aus dem Ausland bezogen werden. Werden diese mit Zöllen belegt, erhöhen sich dadurch automatisch auch die inländischen Herstellungskosten, was die Wettbewerbsfähigkeit entsprechend mindert. Und ist ein BMW aus Spartanburg oder ein Mercedes aus Chattanooga (beide werden auch in Europa verkauft) nun ein amerikanisches oder ein deutsches Auto? Zölle schützen nicht die gesamte Volkswirtschaft, sondern immer nur bestimmte Branchen. Wenn etwa die wenig wettbewerbsfähige US- Stahlindustrie durch Zölle „geschützt“ werden soll, müssen alle Branchen, die Stahl verarbeiten, die teureren inländischen Produkte beziehen was wiederum ihre Produkte teurer macht.   Selbst wenn es zu Rückverlagerungen von Produktion kommt, werden dadurch nicht automatisch Arbeitsplätze geschaffen. Die Herstellung einfacher Konsumgüter, deren Produktion in den letzten dreißig Jahren massiv nach Mexico und nach China verlegt wurde, können in den USA nur dann wettbewerbsfähig hergestellt werden, wenn die Produktion in hohem Maße automatisiert wird. Dazu benötigt man sicherlich einige hochqualifizierte Ingenieure – aber kaum Heerscharen von Arbeitern. Kurzfristige Wirkung: die von Joseph Schumpeter   beschriebene zerstörerische Kraft des Kapitalismus kann dadurch nicht aufgehalten werden. In Großbritannien haben die Gewerkschaften in den 1960er Jahren durchgesetzt, dass nach der Umstellung des Bahnbetriebs von Dampflokomotiven auf E-Loks die Heizer weiterhin mitfahren dürfen. Den technischen Fortschritt hat dies indes nicht angefochten. Sicherlich keine einfache Situation für die Stahlarbeiter des „Rust Belt“. Doch auch in diesem Fall lässt sich das Rad der Geschichte wohl kaum zurückdrehen.   Weder aus Sicht der Spieltheorie noch im „richtigen Leben“ darf erwartet werden, dass das Verhängen von Zöllen durch den Importeur ohne Gegenmaßnahmen durch die Exporteure bleibt. China hat es vorgemacht und eben nicht, um den US-Präsidenten fast wörtlich zu zitieren, dessen „Allerwertesten“ geküsst, um weiter mit den USA Handel treiben zu dürfen (man verzeihe mir mein schlechtes Französisch). Die Gegenzölle erschweren den Export und kosten letztlich Arbeitsplätze in den USA.   Erhöhung der Staatseinnahmen durch Zölle Das von Trump zitierte Vorbild ist sein Amtsvorgänger William McKinley  (1843-1901). Als Kongressabgeordneter hatte dieser 1890 Zölle von 50% durchgesetzt und später als Präsident weitere Zollvorlagen des Kongresses gebilligt. Tatsächlich wurden damals rund die Hälfte des Bundeshaushalts durch Zolleinnahmen finanziert – allerdings nur deshalb, weil es noch keine Einkommenssteuer gab und der Staat keinerlei Sozialausgaben finanzieren musste. Die Vereinnahmung McKinleys hält also einer wirtschaftshistorischen Überprüfung nicht stand. Selbst wenn er durch Zölle seine Einnahmen steigert, wird Donald Trump damit rechnen müssen, dass durch geringere Profite US-amerikanischer Unternehmen die Gewerbesteuereinnahmen sinken werden. Dass sich damit die Einkommenssteuer abschaffen ließe, weil nun Ausländer den US-Staatshaushalt finanzieren, ist illusorisch.       Autarkie der eigenen Wirtschaft Die Corona-Pandemie hat geostrategische Verwundbarkeiten aufgezeigt, als etwa Deutschland feststellen musste, dass es nicht einmal einen Bruchteil seines plötzlichen Bedarfs an medizinischen Schutzmasken selbst herstellen konnte. Die US-Regierung könnte aus verständlichen Gründen versucht sein ebenfalls durch Rückverlagerungen sicherzustellen, dass für eine bestimmte Anzahl kritischer Produkte eine Autarkie erreicht wird. Die Vorteile dieser nationalen Resilienz könnte man als höheres Ziel werten, als die Nachteile durch die damit verbundenen höheren Konsumentenpreise. Doch die bereits erwähnte faktische globale Verflechtung der Produktionswege steht dem entgegen. Es ist außerordentlich schwer – letztlich faktisch unmöglich – alle Komponenten eines beliebigen, selbst einfachen Produkts unter eine rein nationale Kontrolle zu bekommen. Die definitiv bessere Option ist es, verlässliche Handelspartner zu haben.       Reduktion des Handelsdefizits der USA Offenbar ist Trump der Meinung, dass das Außenhandelsdefizit, welches die USA gegenüber vielen Handelspartnern haben, eine „Niederlage“ darstellt, einen „Deal“, bei dem die USA über den Tisch gezogen und ausgeplündert werden. Dies ist – mit Verlaub – eine äußerst merkwürdige Perspektive. Wenn ich im Supermarkt einkaufe, habe ich gegenüber dem Supermarkt ebenfalls ein Handelsdefizit – schließlich kauft mir der Supermarkt ja nichts ab. Hat er mich deshalb übers Ohr gehauen? Ich glaube nicht. Die Argumentation ist auch aus einer anderen Perspektive fragwürdig. Die Güter, die in Deutschland, der Schweiz, Österreich oder einem beliebigen anderen exportierenden Land hergestellt werden, stehen der jeweils heimischen Ökonomie ja nicht mehr zu Verfügung. Sie stellen in diesem Sinne entgangene Konsummöglichkeiten für die Inländer des Exporteurs dar. Sollten diese sich deswegen übervorteilt fühlen? Wenn ein Land mehr Güter importiert als exportiert, bedeutet das nicht, dass „ Geld “ verloren geht. Das importierende Land blutet nicht aus oder verliert etwas, sondern bekommt dafür Gegenleistungen in Form von importierten Waren und Dienstleistungen, die durch Marktpreise validiert worden sind. Die USA haben eine negative Außenhandelsbilanz, weil Amerikaner insgesamt ausländische Güter stärker schätzen als heimische Produkte. Sie mögen dafür gute Gründe haben.   Des Weiteren ist Trump als Immobilienfachwirt ganz offenbar auf den Gütermarkt fokussiert. Dass die USA gegenüber den meisten Industrienationen sowie einigen Schwellenländern wie China, Mexico und Vietnam ein Handelsdefizit haben ist Fakt. Ganz anders sieht die Situation aus, wenn man den Dienstleistungssektor betrachtet: Hier punkten die USA mit einem Außenhandelsüberschuss gegenüber vielen Ländern. Dies resultiert insbesondere aus der starken Position der USA in den Bereichen Tourismus, digitale Technologien und Finanzdienstleistungen. Zwar fallen die absoluten Zahlen gegenüber dem Güterverkehr insgesamt deutlich weniger ins Gewicht, doch hätte hier etwa die EU-einen ziemlich wirksamen Hebel, denn sie könnte schmerzhafte Gegenzölle auf amerikanische Dienstleistungen verhängen.         Ein weiterer Aspekt der Erhöhung der zollinduzierten Kosten für Exporteure könnte sein, dass die inländischen Konkurrenten in den USA relativ einfach ihre Preise erhöhen und damit die Inflation   anheizen. Wenn die Güter ausländischer Konkurrenten plötzlich 10%, 20% oder 50% mehr kosten wird es für die inländischen US-Wettbewerber relativ einfach sein ihre eigenen Preise um 5% zu erhöhen – Öl auf das Inflations-Feuer.   Güter-Außenhandelsbilanz der USA für die wichtigsten Partner   Dienstleistungs-Außenhandelsbilanz der USA für die wichtigsten Partner Demonstration politischer Handlungsfähigkeit gegenüber der eigenen Wählerschaft Hier geht es eher um einen psychologischen Effekt als um handfeste ökonomische Vor- oder Nachteile. Die öffentlich inszenierte Handelskriegserklärung mag auf den ersten Blick Tatkraft vermitteln. Mit sehr großer Wahrscheinlichkeit aber wird sich diese Form von Symbolpolitik für die allermeisten Amerikaner – gleich ob sie Trump gewählt haben oder nicht – aus den genannten Gründen als kontraproduktiv erweisen. Komplexe Sachverhalte werden auf einfache Narrative reduziert – die Gefahr, dass Trump seine Anhänger enttäuscht ist nicht zu unterschätzen. Wir werden es bei den Midterm Elections sehen.   Verhandlungsvorteile durch wirtschaftliche Hebel Die Drohkulisse soll offenbar die Handelspartner einschüchtern. Doch nach anfänglicher Irritation zeigt sich, dass sich die allermeisten Handelspartner von diesem Aufplustern nicht sonderlich beeindrucken lassen. Zwar repräsentieren die USA nominal mehr als ein Viertel des globalen BIP, doch letztlich haben sie damit immer noch knapp 75% der Welt gegen sich. Mit das wichtigste Kapital, das eine Nation aufbauen kann, ist Vertrauen  – genau dieses aber könnten die USA jetzt verspielen. Viele Handelspartner sind stark genug, sich auf eskalierende Handelskonflikte einzulassen. Eine Situation bei der alle – wie von Smith und Ricardo aufgezeigt – verlieren würden. Das wissen alle Beteiligten, der Grund warum die Trump-Administration bereits kurz nach dem „Liberation Day“ einen Rückzieher machen musste und die Zölle für 90 Tage aussetzte.   Schwächung geopolitischer Rivalen durch wirtschaftlichen Druck Seit einiger Zeit bereits haben die USA China als größten geopolitischen Rivalen ausgemacht (das nominale BIP  der USA betrug 2024 rund 29 Billionen US-Dollar; das von China knapp 19 Billionen US-Dollar – mit einer realen Wachstumsrate, die knapp das doppelte der Vereinigten Staaten beträgt.) Dass ein Handelskrieg den wirtschaftlichen Aufstieg Chinas dauerhaft bremsen wird, ist kaum anzunehmen. Zwar setzen die US-Zölle China gewaltig unter Druck – China sucht derzeit bereits nach neuen Absatzmärkten – doch die Einführung der Zölle hat bereits auch in den USA zu steigenden Preisen geführt und damit die Inflation angeheizt. Ein Szenario bei dem – gemäß der 200 Jahre alten Erkenntnis der klassischen Nationalökonomie alle Beteiligten verlieren werden. Dass in diesem Zusammenhang auch der Rest der westlichen Welt als geopolitischer Rivale behandelt wird (und zudem auch noch einige Pinguine), dürfte die Situation der USA ebenfalls nicht dauerhaft stärken.   Fazit Es ist zu befürchten, dass der amtierende Präsident der Vereinigten Staaten sowie seine Pferdeflüsterer grundlegende Erkenntnisse der ökonomischen Theorie nicht verinnerlicht haben: Falls er denkt, dass Zölle eine Steuer sind, die nur Ausländer bezahlen müssen, liegt er falsch. Freihandel macht alle Beteiligten grundsätzlich reicher. Zölle machen alle Beteiligten ärmer und hemmen den Fortschritt. Die Reaktion der Kapitalmärkte war diesbezüglich eindeutig und faktisch ist die US-Wirtschaft im ersten Quartal 2025 geschrumpft. Ein Handelskrieg erzeugt letztlich nur Verlierer. Dass die USA mit diesem Ansatz reindustrialisiert werden können ist ausgesprochen unwahrscheinlich. Zwar empfinden zahlreiche Trump-Wähler dessen Zoll-Politik als Schutz ihrer Arbeitsplätze. Doch aktuellen Schätzungen zufolge bedeutet das Vorgehen der US-Regierung für eine typische amerikanische Mittelstandsfamilie auch einen jährlichen Kaufkraftverlust von rund 4000 US-Dollar.   Der dramatischste Effekt aber ist der signifikante Vertrauensverlust, den die USA gerade durch das erratische Verhalten ihrer Regierung erleiden. Die wichtigste Währung in internationalen Beziehungen ist Vertrauen. Genau dieses Kapital aber wird gerade systematisch verspielt. In einer zunehmend komplexen Welt brauchen wir keine einfachen Parolen, sondern ein besseres Verständnis der Zusammenhänge.     Den Blog entdecken   Wer mehr wissen will: Betrachtungen von Hans-Werner Sinn zur amerikanischen Zollpolitik Betrachtungen des Nobelpreisträgers Paul Krugman zur amerikanischen Zollpolitik Betrachtung von John Oliver in seiner Late Night Show

  • Der Aufstieg des Kapitals

    Fortsetzung von: "Revolutionen und Kriege: Europa 1618-1815" Aufbruch in ein neues Zeitalter Als der englische Fabrikant Abraham Darby  in Coalbrookdale Anfang des 18. Jahrhunderts die Befeuerung seiner Eisenhütte von Holzkohle auf Steinkohle umstellt, ist ihm nicht bewusst, dass er damit das Tor zu einem neuen Zeitalter aufstößt. Coalbrookdale bei Nacht Der fossile Energieträger – seit Jahrmillionen gespeicherte Sonnenenergie   – ist dreimal so effizient, die Kosten der Eisenherstellung sinken deutlich. Doch der Steinkohleabbau hat ein neues Problem geschaffen: In die tiefen Förderschächte dringt Grundwasser ein. Thomas Newcomen   (1663-1729) entwickelt daraufhin eine mit Dampf betriebene Maschine, mit der sich das Wasser abpumpen lässt. In jahrzehntelanger Arbeit verbessert der Schotte James Watt  (1736-1819) die Kraftmaschine weiter, bis er schließlich eine Verdreifachung ihrer Effizienz erreicht. Nicht ihr Erfinder - aber er verschaffte der neuen Kraftmaschine den entscheidenden Durchbruch: James Watt Schon bald zeigt sich, dass sich damit nicht nur Bergwerke trocken halten lassen: 1804 stellt der Engländer Richard Trevithick  die erste funktionstüchtige Dampflokomotive vor; drei Jahre später konstruiert der Amerikaner Robert Fulton  das erste brauchbare Dampfschiff. Die Extraktion urzeitlichen Karbons zur Befeuerung neuzeitlicher Maschinen ist der tiefste Einschnitt in die Menschheitsgeschichte seit Beginn des Neolithikums . Seit 12.000 Jahren basieren die Ökonomien  aller sesshaften Gesellschaften auf Landwirtschaft, die Energieerzeugung fast ausschließlich auf menschlicher und tierischer Muskelkraft. Die fossilen Brennstoffe verändern nun alles. Die neue Energiequelle wirkt sich zunächst unmittelbar nur auf das Leben eines kleinen Teils der Weltbevölkerung aus; die mittelbaren Folgen aber werden schon bald überall auf der Erde zu spüren sein. Warum England? Watts Maschine: Fortschritt war nun nicht mehr von menschlicher oder tierischer Muskelkraft abhängig Dass die Industrielle Revolution  ihren Ausgang in Großbritannien   nimmt, ist kein Zufall. Das Land vereint eine Reihe einzigartiger Voraussetzungen: Eine gebildete Elite, die wissenschaftliches Denken   fördert und im Bereich der Mechanik eine Reihe bahnbrechender Innovationen hervorbringt; ein durch strenge puritanische Ethik geprägtes Unternehmertum; weitgehende Abwesenheit absolutistischen Denkens; eine privilegierte Insellage in der Nähe des Kontinents, die das Land einerseits vor Invasionen schützt und es so ermöglicht, Kriege statt im eigenen Land, auf fremden Territorien auszutragen, und die andererseits enge Handelsbeziehungen mit den europäischen Nachbarn erlaubt; eine besondere Geographie , bei der die tief eingeschnittenen Buchten zahlreiche natürliche Häfen bieten und dafür sorgen, dass kein Ort mehr als 113 km von der Küste entfernt liegt; eine mächtige Flotte, die den Überseehandel wirkungsvoll zu schützen vermag; weltumspannende Handelsbeziehungen, über die zahlreiche Rohstoffe aus den Kolonien in das Mutterland gelangen und nicht zuletzt ein Überschuss an Arbeitskräften, mechanischer Energie   und Kapital, um die Rohstoffe zu verarbeiten. Massenmärkte und Menschenmassen Die neue Zeit transformiert nicht nur Materie, sondern auch die Gesellschaft. Der schottische Philosoph Adam Smith   analysiert die entstehenden Massenmärkte   und stellt fest, dass weder Protektionismus noch kriegerische Eroberungen den Reichtum einer Nation mehren, sondern Fleiß, individuelle Freiheit und Rechtssicherheit . Entfernungen schrumpfen, Feldfrüchte werden zu landwirtschaftlichen Produkten, Stahl und Textilien zu billigen Gebrauchsgütern. Informationen, die bisher höchstens mit der Geschwindigkeit eines galoppierenden Pferdes oder eines schnittigen Segelschiffs übermittelt werden konnten, verbreiten sich dank der Telegraphie seit den 1840er Jahren im rasendem Tempo. Der moderne Kapitalismus , der sich nun rasch in den Staaten des nördlichen Atlantik ausbreitet, bringt allerdings keineswegs Wohlstand für alle. Kleinbauern können nicht mehr mit industrialisierten Landwirtschaftsbetrieben konkurrieren; Handwerker verlieren mit den letzten mittelalterlichen Privilegien auch ihren sozialen Status. Die Arbeiter beherrschen nun nicht mehr das Werkzeug – das Werkzeug beherrscht sie.   Diese Entwicklung lässt weite Teile der Bevölkerung verelenden. Intellektuelle wie Pierre-Joseph Proudhon , Karl Marx , Friedrich Engels  oder Ferdinand Lassalle  verleihen den besitzlosen proletarischen Massen des 19. Jahrhunderts eine Stimme. Ihre Ideen speisen sich aus den Idealen der Französischen Revolution   und Hegels   Geschichtsphilosophie , deren idealistischer Ansatz allerdings durch eine konsequent materielle Betrachtungsweise ersetzt wird. Das Ziel ist eine grundlegende Veränderung der Macht- und Einkommensverhältnisse. Elend und die Diktatur der Uhr Ein nicht geringer Teil des Elends ist auch dem rasanten Bevölkerungswachstum Europas geschuldet.   Zwischen   1800 und 1900 steigt die Zahl der Menschen von 170 Millionen auf 400 Millionen – mehr als doppelt so schnell wie im Rest der Welt. Bevölkerungsdruck und Armut führen dazu, dass Millionen Europäer ihre Heimat verlassen und ihr Glück in der Neuen Welt suchen. Die entstehenden Ballungszentren der alten und der neuen Welt verbindet schon bald ein Netz von Eisenbahnlinien. Was zu Zeiten der Pferdekutsche niemand wahrnehmen konnte, wird nun zum Problem: Jede Stadt hat ihre eigene, nach der Sonne gestellte Zeit. Die Einführung von Fahrplänen erzwingt die Gleichschaltung aller Uhren. 1880 wird die ursprünglich nur für den Schienenverkehr gedachte Bahnzeit in England zur nationalen Standardzeit; Deutschland folgt 1893. Die Diktatur der Pünktlichkeit erfasst die gesamte Industriegesellschaft: Fahrpläne, Stechuhren, Maschinenrhythmen, Werksirenen und Pausenklingeln geben den Menschen jetzt den Takt vor. Der Aufstieg der Hygiene Die ungeheure Verdichtung des menschlichen Zusammenlebens führt immer öfter zu Seuchen. Jede einzelne der fünf Cholera-Pandemien, die das 19. Jahrhundert begleiten, tötet weltweit mehrere Millionen Menschen. Mediziner, wie der Brite John Snow , der Ungar Ignaz Semmelweis , der Franzose Louis Pasteur  und der Deutsche Robert Koch  analysieren Verbreitungswege von Krankheiten, entdecken Erreger und entwickeln Impfstoffe. Das Wissen um die Konsequenzen verseuchten Trinkwassers und mangelhafter Hygiene erlaubt es, die Ursachen wirkungsvoll zu bekämpfen. Die Cholera-Epidemie, die 1892 Hamburg heimsucht und fast 9.000 Tote fordert, ist die letzte in Deutschland. Überall in Europa wird massiv in die Bekämpfung von Infektionskrankheiten investiert. Elendsviertel und Altstädte werden abgerissen, Hygieneinstitute gegründet, Kanalisationen eingerichtet und Trinkwasserleitungen saniert. Die weltweite Kommerzialisierung des Schmerzmittels Aspirin ab dem Jahre 1899 steht exemplarisch für den Aufstieg der neuen chemisch-pharmazeutischen Industrie. Hygienestandards sorgen dafür, dass die katastrophalen Infektionskrankheiten langsam verschwinden In Paris, London oder Berlin, wo vor kurzem noch verwinkelte, enge, dunkle Gassen von krummen Fachwerkhäusern gesäumt wurden, stehen nun die Gebäude der Gründerzeit entlang schnurgerader, breiter Prachtstraßen Spalier, während in den weniger guten Wohngegenden Mietskasernen das Stadtbild prägen. Die schöpferische Zerstörung des Kapitalismus   hat die letzten Erinnerungen an das Mittelalter   getilgt. Der Kapitalismus verdrängt den Feudalismus... In den vor allem von nordeuropäischen Einwanderern geprägten USA steht ein sich rasch industrialisierender Norden einem weitaus weniger dynamischen Süden gegenüber. Die Ökonomie des Südens beruht vor allem auf einer Landwirtschaft, in der ein Großteil der Arbeit noch immer von Sklaven geleistet wird, deren niedrige Arbeitskosten einer Mechanisierung und Modernisierung entgegenwirken. Für Marx der ein "schlagender" Beweis der Richtigkeit seiner Theorie: Der Kapitalismus zerquetscht den Feudalismus Als 1860 in dem zwischen Kapitalismus und Feudalismus gespaltenen Land der Republikaner Abraham Lincoln  (1809-1865), ein Gegner der Sklaverei, zum Präsidenten gewählt wird, kommt es zum Bruch. Elf Südstaaten erkennen Lincolns Wahlsieg nicht an und treten aus der Union aus. Der folgende Amerikanische Bürgerkrieg   ist der erste industrialisierte Konflikt – Maschinengewehre, Stacheldraht, Panzerschiffe, U-Boote und Eisenbahn kommen zum Einsatz. Mit einiger Mühe besiegt der bevölkerungs- und kapitalreiche Norden den rückständigen Süden und beendet die Sklaverei. Die Union bleibt erhalten; aus dem Staatenbund wird eine Nation, in dem sich der Süden neu orientieren und modernisieren muss. So gehen die USA aus dem Sezessionskrieg letztlich gestärkt hervor; der Krieg wird zum Geburtshelfer einer künftigen Weltmacht. Für den aufmerksamen Beobachter Karl Marx ist der nordamerikanische Konflikt die Bestätigung der von ihm vorhergesagten zwangsläufigen geschichtlichen Entwicklung: Der Kapitalismus muss den Feudalismus verdrängen, um sich selbst ausbreiten zu können. ...allerdings nicht in Lateinamerika Mittel- und Südamerika, deren Oberschichten überwiegend aus eingewanderten Spaniern, Portugiesen und Italienern bestehen, gehen einen anderen Weg. So wie wenige Jahrzehnte zuvor die USA, erstreiten sich zwischen 1809 und 1825 zwar auch die spanischen Kolonien ihre Unabhängigkeit – zentrale Figur dieser Revolutionen ist Simón Bolívar  (1783-1830), ein glühender Bewunderer der nordamerikanischen Demokratie. Allerdings zerfällt die von ihm gegründete Republik Großkolumbien schon bald nach seinem Tod in die Staaten Kolumbien, Venezuela und Ecuador. Wollte der lateinische George Washington werden - und scheiterte: Simon Bolivar In Brasilien wird sich die 1820 vom portugiesischen Königshaus eingesetzte kaiserliche Monarchie noch fast 70 Jahre lang behaupten und das Land vor jeder Form von Modernität bewahren. Erst 1888 schafft Brasilien als letztes westliches Land die Sklaverei ab; ein Jahr später stürzt das durch die positivistische Lehre Auguste Comtes beeinflusste Militär den Kaiser; nun wird auch Brasilien eine Republik. Trotz hoffnungsvoller Anfänge verfehlen die jungen Republiken südlich des Rio Grande den Übergang zu einer pluralistischen, auf Wettbewerb und Rechtsstaatlichkeit basierenden Gesellschaftsordnung. Bürgerliche Entwicklungen, die sich mit denen Englands, der Vereinigten Staaten oder Frankreichs vergleichen ließen, werden von korrupten Oligarchen -Eliten verhindert. Institutionen, die die Privilegien der herrschenden Klasse einschränken, kontrollieren oder gar abschaffen könnten, können sich nicht etablieren. Die Machthaber agieren im Wesentlichen wie mittelalterlicher Feudaladel und konzentrieren sich darauf, Gewinne aus den Rohstoffen und Agrarprodukten ihrer Länder zu ziehen. Damit bleiben die dynamischen Kräfte dauerhaft gelähmt; wissenschaftliches Denken und unternehmerische Konkurrenz können sich kaum entwickeln. Anders als in Norden entscheidet in Lateinamerika die autokratisch-feudalistische Oberschicht den Machtkampf gegen die bürgerlich-liberale Elite für sich. [i]   Den Blog entdecken Anmerkungen [i] Vgl. Acemoglu / Robinson (2013) S. 116-121.   Wer mehr wissen will:  Acemoglu, Daron / Robinson, James A. (2014): „Warum Nationen scheitern“, Fischer. Marx, Karl (1979): „Das Kapital“, Dietz.

  • Makroökonomie: Die sichtbare Hand des Staates

    Fortsetzung von " Zerstörerischer Fortschritt: Wie destruktiv ist der Kapitalismus?" Schwarzer Freitag Den Schwarzen Freitag   hat es nie gegeben. Der Dow-Jones-Index kam vielmehr bereits am Mittwoch, dem 22. Oktober 1929 ins Rutschen. Am folgenden Donnerstag fiel er von 326 auf 299 Punkte. Der Absturz auf 230 Zähler erfolgte am Montag und Dienstag der folgenden Woche. Tatsächlich schaffte der Index am Freitag, den 25.Oktober sogar ein kleines Plus. Auch wenn der Freitag dafür fälschlich angeklagt wurde: Der New Yorker Börsencrash Ende Oktober hatte die größte Wirtschaftskrise der Neuzeit eingeläutet; die wilden Zwanziger Jahre waren mit einem Schlag vorbei. Das kommende Jahrzehnt würde ein ganz anderes Gesicht haben: Ein mehrjähriger Abschwung führte zu einer massiven Deflation , während der sich die Geldmenge   in den USA um 30% verringerte. Die Industrieproduktion halbierte sich fast und nahezu jede zweite Bank ging in Konkurs. 1933, am Tiefpunkt der Krise, wies der Handel zwischen den Industrienationen nur noch ein Drittel des Wertes von 1929 auf. Die dramatischste Folge aber war eine lang anhaltende Massenarbeitslosigkeit in Europa und Nordamerika. Vier Jahre nach Beginn der Depression waren in den Vereinigten Staaten jeder vierte und in Deutschland jeder dritte Werktätige arbeitslos. In vielen Ländern, insbesondere in Frankreich und Deutschland erhielten radikale Parteien massiven Zulauf. Die USA und Deutschland, als die am stärksten betroffenen Staaten, sollten die Große Depression erst in der zweiten Hälfte der 1930er Jahre überwinden.   Hier geht gerade ihr Reichtum flöten: Aktionäre in der Wallstreet im Oktober 1929 Der Arbeitsmarkt tickt anders Die Welt war aus den Fugen und die herrschende ökonomische Theorie hatte weder Erklärung noch Rat. Nach den Dogmen der Neoklassik   hätten die aus dem Lot gebrachten Märkte innerhalb kürzester Zeit ihr Gleichgewicht von allein wiederfinden müssen. Doch ausgerechnet der Arbeitsmarkt , bei dem die Haushalte die Anbieter und die Unternehmen die Nachfrager sind, gehorchte offenbar anderen Regeln. Es gab Sand im Getriebe des wirtschaftlichen Räderwerks: Ein riesiges Arbeitsangebot stand dauerhaft einer zu geringen Nachfrage gegenüber. Der Klassiker Jean-Baptiste Say  hatte noch behauptet, dass dies unmöglich sei, da jedes Angebot seine eigene Nachfrage schaffe: Haushalte stellen den Unternehmen ihre Arbeitskraft zur Verfügung. Die Unternehmen kombinieren diese mit den beiden anderen Produktionsfaktoren Boden und Kapital zu Gütern und Dienstleistungen, die sie wiederum an die Haushalte verkaufen. Da dieser Kreislauf nicht mehr Güter herstellen kann, als die Haushalte später mit ihren Löhnen zu kaufen vermögen, war nach Says Überzeugung ein Überangebot schlicht unmöglich. Einfacher Wirtschaftskreislauf mit zwei Sektoren Dass die Selbstheilungskräfte des Marktes dauerhaft versagen und infolgedessen ganze Volkswirtschaften in einer Depression verharren können, ließ Zweifel an der bisherigen ökonomischen Theorie aufkommen. So wie ein Organismus anderen Gesetzen gehorcht als eine einzelne Zelle, waren makroökonomische Erscheinungen offenbar etwas grundlegend anderes als die bloße Aggregation mikroökonomischer Prozesse. Auch hier war das Ganze mehr als die Summe seiner Teile.   Keynes stellt die Makroökonomie auf eine neue Grundlage Der Engländer John Maynard Keynes  (1883-1946), im gleichen Jahr wie Joseph Schumpeter  geboren, revolutionierte in den 1930er Jahren die Wirtschaftswissenschaften, indem er die auf Haushalte und Unternehmen fokussierte neoklassische Betrachtung zu einem umfassenden makroökonomischen Kreislaufmodell erweiterte. Im Zentrum dieser Erweiterung stand ein gewichtiger neuer Akteur: der Staat . In der Tat ist der Staat tief mit modernen Volkswirtschaften verwoben. Mit den von Bürgern und Unternehmen erhobenen Steuern und Abgaben organisiert er zum einen mittels Transferleistungen die Umverteilung der Vermögensverhältnisse und wirkt damit der von Pareto beschriebenen Konzentration von Reichtum im Interesse des sozialen Friedens entgegen. Zum andern finanziert er mit seinen Einnahmen staatstypische Dienste. Neben innerer und äußerer Sicherheit sowie allgemeiner Verwaltung bietet er vor allem Leistungen an, die eine landesweite, teure Infrastruktur erfordern, wie Schulen, Eisenbahnen, Post- und Telekommunikation. Hier tritt er teils als Monopolist auf, teils steht er in Konkurrenz zu privaten Anbietern. Auf der Nachfrageseite agiert der Staat vor allem als der zumeist mit Abstand größte Arbeitgeber einer Nation.  John Maynard Keynes Die Sonderrollen von Vater Staat Eine ganz besondere Rolle kommt Vater Staat zu, weil er die Währung kontrolliert. Er druckt das Geld , das den Güteraustausch ermöglicht und steht mit seiner institutionellen Macht für dessen Wert ein. Durch sein Notenpressen-Monopol beherrscht er die im Umlauf befindliche Geldmenge. Eine außerordentlich schwierige Aufgabe. Denn ein Euro, Dollar oder Yuan repräsentiert im Wirtschaftskreislauf letztlich den soundsovielten Teil des Wertes aller Waren und Dienstleistungen, die in einem gegebenen Zeitraum durch die Bevölkerung eines Landes geschaffen werden. Da sich der gemeinsam erwirtschaftete Reichtum von Jahr zu Jahr verändert, muss auch die Geldmenge laufend an die wirtschaftliche Entwicklung angepasst werden. Was diese Aufgabe schwierig macht, ist, dass der Geldmengenbedarf sowohl von der Anzahl der hergestellten Güter als auch von deren Preisänderungen abhängt. Passen Geldmengenerhöhung und Wirtschaftswachstum nicht zueinander, entsteht Inflation  oder Deflation . Inflation bedeutet einen Kaufkraftverlust, das heißt, sie reduziert die Fähigkeit aller Beteiligten, Geld in Güter umtauschen zu können. Würde der Staat über Nacht die Geldmenge verdoppeln, entstünde eine Teuerung von 100%. Für die Menschen hätte dieser hypothetische Fall allerdings keine praktische Bedeutung: Das Güterangebot wäre unverändert und neben den Konsumgüterpreisen würden sich auch die Löhne verdoppeln. [i]  Anders sieht es aus, wenn das staatlich kontrollierte Geldmengenwachstum geringfügig über dem liegt, was nötig wäre, um Wirtschaftswachstum und Teuerung auszugleichen. Sofern sie nicht durch Lohnsteigerungen kompensiert wird, kommt diese Form der Inflation faktisch einer Enteignung gleich. Inflation ist grundsätzlich immer ein Problem. Bei moderaten Inflationsraten von 2%-3% sprechen die Ökonomen von der Geldwertillusion, weil die   schleichende Entwertung des Geldvermögens von den Haushalten oft nicht als solche wahrgenommen wird. Tatsächlich aber sieht ein Haushalt, der bei konstantem Einkommen jedes Jahr 3% mehr für den gleichen Warenkorb ausgeben muss, seine Kaufkraft nach etwa 24 Jahren halbiert.   Inflation – die schleichende Enteignung Bei Inflationsraten um die 10% verlieren die Preise ihre Signalfunktion für Kaufentscheidungen. Es entstehen Lohn-Preis-Spiralen : Die Arbeitnehmer fordern höhere Löhne, auf die die Arbeitgeber wiederum mit Preiserhöhungen reagieren, die ihrerseits wieder höhere Lohnforderungen nach sich ziehen. Gerät die Inflation ganz außer Kontrolle, kann sie Staaten dramatisch destabilisieren, so wie im Deutschland der frühen 1920er Jahre oder in Simbabwe, wo fast 100 Jahre später die jährliche Inflationsrate bei 500% lag. Inflationsraten der Eurozone seit 1991 Das durch den Staat in Umlauf gebrachte Geld spielt im kapitalistischen Wirtschaftssystem noch eine weitere wichtige Rolle. Da die Produktion bei hochgradig arbeitsteiligen Herstellungsprozessen dem Konsum zeitlich weit vorausgeht, müssen die Unternehmen ihre Investitionen  und Löhne zunächst mit fremdem Geld finanzieren, bevor sie selbst Einnahmen erzielen. Das für diese „Produktionsumwege“ nötige Geld stellen überwiegend die Haushalte zur Verfügung. Der Teil ihres Einkommens, der nicht in den Konsum fließt, wird durch Institutionen aufgenommen, die die makroökonomische Theorie etwas umständlich als „Kapitalsammelstellen“ oder „Finanzintermediäre“ bezeichnet. Diese Einrichtungen, vor allem Banken , haben die Aufgabe Geldangebot und Geldnachfrage zusammenzuführen, um damit kapitalintensive Bedürfnisse von Unternehmen und privaten Haushalten, wie Großinvestitionen und Immobilienprojekte, über Kredite  zu finanzieren. Ohne solche Finanzbeziehungen wäre der Kapitalismus   undenkbar.   Was sind eigentlich Zinsen? Aus Sicht der Finanzmärkte ist Geld ein Gut wie jedes andere: Es hat einen Preis, der sich aus Angebot und Nachfrage ergibt. Dieser Preis ist der Zins . Mit ihm kommt der Faktor Zeit in die ökonomische Betrachtung, eine Dimension, der die neoklassische Theorie noch wenig Beachtung geschenkt hatte. Der Zins bringt zum Ausdruck, dass ein Betrag heute und derselbe Betrag morgen nicht das gleiche sind. 3% Zinsen pro Jahr bedeuten, dass ein Kreditnehmer, der heute 100 Euro erhält, dem Kreditgeber in einem Jahr 103 Euro zurückzahlen muss. Für beide sind 100 Euro heute und 103 Euro in einem Jahr somit äquivalent. So wie die Inflation ist auch der Zins eine zentrale Größe der makroökonomischen Theorie. Er setzt sich aus drei wichtigen Komponenten zusammen. Er beinhaltet erstens eine Prämie auf den Verzicht des Kreditgebers das Geld zum jetzigen Zeitpunkt selbst anderweitig verwenden zu können; es berücksichtigt also dessen Opportunitätskosten . Zweitens enthält er eine Risikoprämie dafür, dass manche Kreditnehmer das Geld nicht zurückzahlen werden. (Der italienische Ökonom Ferdinando Galiani bezeichnete den Zins bereits Mitte des 18. Jahrhunderts als den „Preis für das Herzklopfen“ des Gläubigers.) [ii]  Die dritte Komponente des Zinses ist die Kompensation für den inflationsbedingten Kaufkraftverlust: Bei einer Inflationsrate von 2% schmilzt der nominale Betrag von 3% auf einen realen Zins von nur 1%. Auch bei der Entstehung des Geldpreises hat der Staat seine Finger im Spiel. Über die Leitzinsen bestimmt er die Bedingungen, zu denen sich die Geschäftsbanken  bei der staatlichen Zentralbank  verschulden können. Er nimmt somit wesentlichen Einfluss auf den Zinsmarkt, an dem sich die Kreditkonditionen für Investitionsprojekte der Haushalte und Unternehmen bilden.   Auch den Außenhandel möchte der Staat gerne steuern – nicht erste seit Trump Der letzte wichtige Sektor der makroökonomischen Kreislaufanalyse ist das Ausland . Ihm hatte bereits die klassische Theorie einige Aufmerksamkeit gewidmet, indem sie die Vorteile des internationalen Handels  für alle Beteiligten hervorhob. Aus makroökonomischer Sicht interessieren vor allem die Nettoexporte, der Saldo der Zahlungsströme aller Güter, die ins Ausland verkauft werden abzüglich jener, die aus dem Ausland bezogen werden. Da die Verkäufer Rechnungen normalerweise in ihrer Landeswährung stellen, gibt es auch für Fremdwährungen einen Marktmechanismus. Angebot und Nachfrage bestimmen den Wechselkurs, der den Preis für eine andere Währung  festlegt. Je grösser die Nachfrage, desto höher der Kurs und desto teurer die Importe. Erweiterter Wirtschaftskreislauf mit fünf Sektoren Auch der Auslandssektor ist nicht frei von staatlicher Einflussnahme. Zum einen können bestimmte Güter subventioniert werden, um ihren Export zu erleichtern oder um sie vor billigen ausländischen Importen zu schützen. Zum anderen kann der Staat ausländische Güter, in ebenfalls bester merkantilistischer Manier, mit Zöllen belegen. Für Exportnationen, also Länder, die mehr exportieren als importieren, besteht von staatlicher Seite zudem die Versuchung, etwa durch massive Aufkäufe von Fremdwährungen oder Erhöhung der Geldmenge, den Wechselkurs der eigenen Währung zu schwächen. Aus neoklassischer Sicht   führen all diese Eingriffe allerdings lediglich dazu, dass die natürlichen Knappheitssignale der Preise verzerrt werden. Ein komplexes Kreislaufmodell Aus dem ursprünglich einfachen Modell ist ein komplexes Beziehungsgeflecht geworden; ein makroökonomischer Kreislauf, in dem neben Haushalten und Unternehmen auch Staat, Kapitalsammelstellen und Ausland durch vielfältige Geld-, und Güterströme miteinander verbunden sind. Dabei ist es allein dem Staat möglich, auf alle anderen Sektoren spürbaren Einfluss zu nehmen. Wie kann nun für ein solch verwobenes System der von Adam Smith   beschriebene Reichtum einer Nation gemessen werden? Auch hierfür stammt das grundlegende Konzept von Keynes. Indem er Finanzbuchhaltung der Unternehmen und Quesnays Kreislaufanalyse verband, schuf er den Kern dessen, was wir heute als „ Volkswirtschaftliche Gesamtrechnung “ bezeichnen. Ihre Aufgabe ist es, das Volkseinkommen zu bestimmen, gemessen in Form des Bruttoinlandsprodukts  (BIP). Im Wesentlichen ist das BIP der aufsummierte Wert aller Waren und Dienstleistungen, die in einer Volkswirtschaft in einem bestimmten Zeitraum hergestellt wurden. [iii]  Konkret setzt es sich aus vier Elementen zusammen: dem Konsum der Haushalte, den Investitionen der Unternehmen, dem Nettoexport, sowie den Staatsausgaben. Betrachten wir ein stark vereinfachtes Beispiel, um eine Vorstellung davon zu bekommen, wie das BIP entsteht und wie sich nominales und reales Volkseinkommen voneinander unterscheiden (Das Beispiel basiert auf David Ricardos Darstellung der komparativen Vorteile , mehr dazu hier .)  Wenn Portugal in einem bestimmten Jahr nichts anderes produziert als 100 Fässer Wein und diese für 200 Euro pro Fass verkauft, beträgt das Bruttoinlandsprodukt 20.000 Euro. Das BIP kann durch die Haushalte konsumiert, durch den Staat aufgekauft oder ins Ausland exportiert werden. [iv]  Werden im folgenden Jahr 110 Fässer zu einem Stückpreis von 220 Euro verkauft, steigt das Volkseinkommen dadurch auf 24.200 Euro, ein nominaler Zuwachs von 21%. Wie bei Löhnen und bei Zinsen, muss aber auch in diesem Fall zwischen realem Wachstum und dem Schleier, den das Geld über die Betrachtung legt, unterschieden werden.  Reales und nominales Bruttoinlandsprodukt   Ein Teil des Anstiegs ist nämlich durch Inflation entstanden, denn jedes Fass kostet nun 10% mehr als im Jahr zuvor. Einen unverfälschten Blick auf die Leistungsfähigkeit der Volkswirtschaft erhalten wir erst durch die Betrachtung des realen BIP. Dazu müssen wir den Inflationseffekt herausrechnen, indem wir die hergestellten Mengen mit den Preisen des Vorjahres bewerten. Bei einem Preis von 200 Euro ergibt sich für die 110 Fässer ein reales, das heißt inflationsbereinigtes Volkseinkommen von 22.000 Euro, das die um 10% gestiegene Fassproduktion widerspiegelt.   Keynes‘ „General Theory“ Mit dem makroökonomischen Kreislaufmodell und der Volkswirtschaftlichen Gesamtrechnung hatte Keynes nun Werkzeuge an der Hand, mit denen sich die Einflussfaktoren der Konjunkturzyklen analysieren ließen. Im Mittelpunkt stand die Suche nach möglichen Wegen aus der Großen Depression. 1936 erschien „ The General Theory of Employment, Interest and Money “ – Die allgemeine Theorie der Beschäftigung, des Zinses und des Geldes, bis heute eines der zentralen Werke der Wirtschaftswissenschaften. Ausgangspunkt von Keynes‘ Überlegungen waren die Besonderheiten des Arbeitsmarkts . Nach neoklassischer Vorstellung müssten bei einem Überangebot die Löhne sinken, bis ein neues Gleichgewicht entsteht, das den Markt wieder räumt. Während eine gewisse Arbeitslosigkeit, bedingt durch Fluktuation und den von Schumpeter beschriebenen strukturellen Wandel auch in gut funktionierenden Volkswirtschaften nie vollständig vermieden werden kann, hatte die Weltwirtschaftskrise erstmalig allen vor Augen geführt, dass eine Depression eine langjährige massenhafte Unterbeschäftigung mit verheerenden gesellschaftlichen Folgen bedeutet. Die Ursache des Problems sah Keynes in der Starrheit der Löhne. Die Arbeitnehmer, oft gewerkschaftlich organisiert, sind nicht bereit, Kürzungen ihrer Einkommen hinzunehmen. [v]  Die dadurch entstehende Staumauer verhindert den natürlichen Kräfteausgleich. Da die Löhne nicht gesenkt werden können, haben die Unternehmen nur die Möglichkeit, Menschen zu entlassen. Damit beginnt eine Abwärtsspirale für den gesamten Wirtschaftskreislauf: Die Arbeitslosen schwächen die Nachfrage, die Produzenten müssen weitere Arbeitnehmer entlassen, die das Heer der Menschen, die angstvoll in die Zukunft blicken, weiter vergrößern. Wenn sich bei Haushalten und Unternehmen dann ein allgemeiner Pessimismus breitmacht, der Konsum und Investitionen lähmt, wird die Rezession zu einer Depression . [vi]  Es fehlt dann jeglicher Impuls, um Angebot und Nachfrage wieder auf ein höheres Niveau zu bringen. Der Ausweg, den Keynes in seiner „General Theory“ vorschlägt, erscheint ungewöhnlich: Wenn Haushalte und Unternehmen in der Depression verharren, muss der Staat in die Bresche springen. Er kann den Teufelskreislauf durchbrechen, indem er seine Nachfrage trotz der widrigen Umstände massiv erhöht. Tatsächlich hatten fast alle Regierungen während der Weltwirtschaftskrise genau das Gegenteil davon getan: Sie hatten, wie Haushalte und Unternehmen, aufgrund massiv eingebrochener Einnahmen ebenfalls ihre Ausgaben eingeschränkt und die Anzahl der Staatsbediensteten reduziert.   Blutspende statt Aderlass Wie Quesnay   200 Jahre zuvor, hatte Keynes erkannt, dass ein weiterer Aderlass für einen bereits geschwächten Patienten nicht unbedingt die beste Medizin ist. Keynes bezeichnete seine Therapie als „ deficit spending“ . Die staatlichen Investitionen sollen den Konjunkturmotor wieder anwerfen und die Richtung der Spirale umdrehen. Als erstes würden die Hersteller staatlicher Investitionsgüter neue Arbeitnehmer einstellen, die ihrerseits die Nachfrage nach Konsumgütern beleben. Der Funke soll auf die Konsumgüterhersteller überspringen, die dann ebenfalls neue Arbeitskräfte rekrutieren. Dieser Impuls muss zwangsläufig durch die Aufnahme von Schulden finanziert werden. In Zeiten guter Konjunktur , wenn Steuern und Abgaben erneut sprudeln, soll der Staat dann die während der Krise aufgenommenen Kredite wieder zurückzahlen. Zudem kann in Hochphasen eine zurückhaltende staatliche Ausgabenpolitik den Motor vor Überhitzung schützen und der Wirtschaft bei sich abkühlender Konjunktur zu einer „weichen Landung“ verhelfen. Keynes‘ Anspruch war überaus vermessen. Letztlich verhieß er nicht weniger, als dass der Staat Konjunktur machen kann, wie ein Regengott den Regen. Bei der Darstellung seiner Gedanken hatte Keynes, obwohl selbst studierter Mathematiker, konsequent auf jegliche Differentialgleichung verzichtet. Da dies nicht den Gepflogenheiten der herrschenden ökonomischen Theorie entsprach, sah sich sein Landsmann John Richard Hicks  genötigt, eine mathematisierte Darstellung der keynesianischen Idee zu veröffentlichen, das IS-LM-Modell . Es fasst die Quintessenz des Keynesianismus auf recht einfache Weise zusammen:  So soll der Staat uns alle reicher machen: Das IS-LM-Modell Obwohl es auf den ersten Blick ähnlich aussieht, darf das IS-LM-Modell keinesfalls mit Marshalls Marktmodell  verwechselt werden. Das neoklassische Marktdiagramm stellt immer nur einen bestimmten Markt dar. Das IS-LM-Modell hingegen ist die Repräsentation des Zusammenhangs zweier besonderer Märkte: Die Ordinate stellt den Geldmarkt dar, mit dem Zinssatz als dem Preis des Geldes; die Abszisse zeigt das reale Bruttoinlandsprodukt, den inflationsbereinigten Wert aller im Land hergestellten Waren und Dienstleistungen. Die von oben nach unten verlaufende IS-Kurve ist die graphische Darstellung aller Gleichgewichtszustände auf dem Investitionsgütermarkt, die sich für die verschiedenen Kombinationen von Zins und realem Volkseinkommen ergeben. Das „I“ steht dabei für Investitionen, das „S“ für Ersparnisse (savings). Grundsätzlich besagt die Kurve, dass Haushalte, Unternehmen und Staat bei niedrigeren Zinsen mehr investieren und damit das Bruttoinlandsprodukt vergrößern. Der zweite Markt wird durch die von unten nach oben verlaufende LM-Kurve dargestellt. Dabei steht „L“ für Liquiditätspräferenz und „M“ für das Geldangebot (money supply). Der Kurvenverlauf besagt, dass mit steigenden Zinsen die Bereitschaft der Haushalte zunimmt, auf gegenwärtigen Konsum zu verzichten und das Ersparte dem Finanzmarkt zur Verfügung zu stellen. Die LM-Kurve ist somit die Abbildung aller Gleichgewichte von Geldangebot und Geldnachfrage, wobei die Keynesianer von einer konstanten Geldmenge ausgehen. Am Schnittpunkt der beiden Kurven stimmen die Bereitschaft der Sparer den Investoren Geld zur Verfügung zu stellen und der Wunsch der Anleger, dieses Geld auch zu investieren, überein. Finanzmarkt und Gütermarkt sind in einem Gleichgewicht, aus dem sich ein bestimmtes Niveau des Volkseinkommens ergibt. Erhöht der Staat nun durch seine expansive Ausgabenpolitik die Nachfrage nach Investitionsgütern, verschiebt sich die IS-Kurve nach rechts. Der neue Gleichgewichtspunkt mit der LM-Kurve entspricht einem höheren Volkseinkommen – allerdings um den Preis eines höheren Gleichgewichtszinses. Dieser Effekt soll die Volkswirtschaft aus der Depression holen.   Der Staat als mächtigster Player einer Volkswirtschaft? Keynes‘ Paradigmenwechsel der Makroökonomie wollte den neoklassischen Nachtwächterstaat   aus seinem Dornröschenschlaf wecken und ihm im Wirtschaftskreislauf eine aktive Rolle zuweisen. Um den Preis einer vorübergehenden Verschuldung sollte der Staat das konjunkturelle Feuer neu entfachen. Es sollte nicht lange dauern, bis diese Forderung heftigen Widerspruch hervorrief. Mehr dazu im nächsten Wirtschaftsblog…   Den Blog entdecken   Wer mehr wissen will: Keynes, John Maynard (2017) „Allgemeine Theorie der Beschäftigung, des Zinses und des Geldes“, Duncker & Humblot. Geier Sturzflug: Bruttosozialprodukt Bildnachweise Historische Inflationsraten der Eurozone Anmerkungen [i]  Auf natürlichem Weg entsteht Inflation etwa, wenn eine hohe Nachfrage es den Anbietern erlaubt, die Preise zu erhöhen oder es ihnen gelingt, höhere Kosten über den Preis an die Verbraucher weiterzugeben. [ii] Vgl. Galiani (1750) S. 353. [iii] Illegale Aktivitäten wie Schwarzarbeit oder Drogenhandel und unbezahlte Tätigkeiten, wie sie etwa innerhalb der Haushalte oder durch Ehrenämter erbracht werden, sind bei der Berechnung ausgeschlossen. Erfasst werden also nur Leistungen, denen eine bezahlte legale Gegenleistung gegenübersteht. Inwieweit das BIP einen sinnvollen Wohlstandsindikator darstellt, ist unter Ökonomen umstritten, da es Aspekte wie allgemeine Lebensqualität, Verteilungsgerechtigkeit oder Umweltschutz nicht berücksichtigt. [iv] Wir unterstellen in dem einfachen Beispiel also, dass die Winzer in diesem Jahr nichts investieren. [v] Aus ökonomischer Sicht sind Gewerkschaften Interessenverbände von Konkurrenten zur Durchsetzung gemeinsamer Ziele und stellen in diesem Sinne Kartelle dar. Die Weigerung, der Arbeitnehmer, Einkommenseinbußen hinzunehmen, lässt sich gut mit Kahnemans Verlustaversion erklären.   [vi] Eine Rezession liegt nach der heute üblichen Definition dann vor, wenn das Bruttoinlandsprodukt während zwei aufeinanderfolgender Quartale gegenüber den Vorquartalen schrumpft. Von einer Depression spricht man, wenn eine Volkswirtschaft auf einem Konjunkturtief ungewöhnlich lange verharrt.

  • Dimensionen der Macht

    Fortsetzung von "Der Geist des Kapitalismus" Dimensionen der Macht Das Phänomen Macht ist seit der Antike   zentraler Aspekt der politischen Philosophie . Doch erst mit der Entstehung der modernen Soziologie   um 1900 wird sie zu einem eigenen Untersuchungsgegenstand. „Macht bedeutet jede Chance, innerhalb einer sozialen Beziehung den eigenen Willen auch gegen Widerstreben durchzusetzen […].“ [i] Diese Definition Max Webers   macht deutlich, dass der Machtbegriff über diktatorische Strukturen und die Möglichkeit physische Gewalt auszuüben, hinausgeht. In der zweiten Hälfte des 20. Jahrhunderts werden drei Soziologen zeigen, dass Macht gerade auch in Demokratien   sehr viel subtilere Ausdrucksformen annehmen kann.   Luhmanns Perspektive auf die Macht - die Ohnmacht der Politiker Für den deutschen Soziologen Niklas Luhmann  (1927-1998) war Macht ein zentraler Aspekt seiner sehr umfassenden Gesellschaftstheorie. Darin positioniert er sie als das „Medium“ des gesellschaftlichen Teilsystems „ Politik “. Systeme sind bei Luhmann Beziehungszusammenhänge, die eine Differenz zu einer wie auch immer definierten Umwelt darstellen. Lebende Zellen sind demnach ebenso Systeme wie Gesellschaften. Moderne Gesellschaften sind komplexe Gesamtsysteme, die ihrerseits wiederum aus verschiedenen, hochspezialisierten Teilsystemen bestehen, wie Wirtschaft, Religion , Rechtssystem, Wissenschaft, Medien, Sport oder Politik. Die Zerlegung in Teilsysteme reduziert die Komplexität des Gesamtsystems; ihre hochgradige Effizienz verdanken die Teilsysteme einer starken Spezialisierung. Sie haben aber den Nachteil, dass alle anderen Teilsysteme nur noch als „Umwelt“ betrachtet werden. Da s heißt konkret, dass das jeweilige Teilsystem zwar über   ein anderes Teilsystem sprechen kann aber nicht mit ihm – einfach, weil man sprachlich nicht auf derselben Wellenlänge liegt. Niklas Luhmann: Manche sahen ihn als "Armchair-Expert" Gemäß Luhmann verfügt jedes Teilsystem über eigene Medien und so genannte „ binäre Codes “, die die internen Kommunikationsmöglichkeiten kennzeichnen. Die Wirtschaft etwa bedient sich des Mediums „ Geld “ und des binären Codes „haben“ oder „nichthaben“. Das Medium der Wissenschaft ist die Wahrheit; ihr binärer Code lautet „wahr“ oder „falsch“. Da die Systeme unterschiedliche Sprachen sprechen und in ihrer jeweiligen Logik leben, übersetzt etwa die Wirtschaft, wenn sie sich mit der Wissenschaft befasst, deren Aktivitäten in monetäre Größen, während die Wissenschaft bei der Betrachtung der Wirtschaft deren Postulate in die Kategorien wahr oder falsch einteilt. Die Möglichkeiten, sich gegenseitig zu verständigen und zu koordinieren, sind also begrenzt; man redet sozusagen in seinen jeweiligen binären Codes im wahrsten Sinne „systematisch“ aneinander vorbei.       Gesellschaftliche Teilsysteme nach Luhmann - ist es wirklich so einfach? Das Teilsystem Politik ist davon nicht ausgenommen. Seine mediale Währung ist die Macht ; sein binärer Code besteht darin, Macht ausüben zu können oder eben nicht. An das Politiksystem darf man keine höheren Erwartungen haben als an andere Teilsysteme. Kommunikation   ist in Luhmanns pessimistischer Sicht kein verbindendes, sondern ein trennendes Element. Die Politik leidet an denselben kommunikativen Beschränkungen wie die anderen Teilsysteme auch; die Möglichkeiten, ihre Umwelt durch die Ausübung von Macht zu koordinieren oder direkt zu beeinflussen, sind stark eingeschränkt. Politik verfügt zwar über Macht, kann aber in einer komplexen, modernen Gesellschaft nur relativ wenig damit anfangen. Die Politik leide, so Luhmann, an eine r „ Kontrollillusion “. [ii]   Bourdieus Perspektive auf die Macht - die feinen Unterschiede Ganz andere Perspektiven auf die Macht entwickelten jeweils zwei französische Zeitgenossen Luhmanns, Pierre Bourdieu  (1930-2002) und Michel Foucault  (1926-1984). Bourdieu arbeitete im Gegensatz zu Luhmanns rationalistischem Ansatz empirisch. In seinem Klassiker „Die feinen Unterschiede“ untersuchte der aus einfachen Verhältnissen stammende studierte Philosoph und Soziologe die realen Handlungsmöglichkeiten der einzelnen Gesellschaftsmitglieder. Dazu positioniert er sie in einem „ sozialen Raum “. Die erste Achse beschreibt die Menge des Kapitals, über das ein Individuum verfügt. Die Natur des Kapitals kann im traditionellen Sinne aus Geld, Land oder Immobilien bestehen oder aus kulturellem Kapital, das sich in Form von Kulturgütern, als Bildung oder als institutionalisiertes Kapital manifestieren kann. Kulturgüter, wie Gemälde oder Statuen, sind materiell übertragbar, das heißt, sie können mit ökonomischem Kapital erworben werden. Bildung, die zweite Form des kulturellen Kapitals, lässt sich nicht finanziell übertragen, sondern muss zeitaufwändig erworben und verinnerlicht werden. Institutionalisiertes Kapital sind Titel, Zertifikate oder Diplome, die kulturelle Kompetenzen formell nachweisen. In diesem Koordinatensystem ist die Position jedes Einzelnen in einer modernen westlichen Gesellschaft in erster Linie durch die soziale Klassenzugehörigkeit bestimmt. Bourdieu erweitert an dieser Stelle Webers Schichtentheorie. Die Bourgeoise als herrschende Klasse besitzt ein hohes Volumen an kulturellem und ökonomischen Kapital. Die zweite Klasse, die Mittelschicht, beziehungsweise das Kleinbürgertum, ist diesbezüglich durchschnittlich ausgestattet, während die dritte Klasse, die Volks- oder Arbeiterklasse sowohl in quantitativer als auch qualitativer Hinsicht nur über geringes Kapital verfügt. Ein Student hat zwar ein ähnlich bescheidenes ökonomisches Vermögen wie ein Hilfsarbeiter, dafür aber bereits ein deutlich besser entwickeltes kulturelles Kapital. Ein Universitätsprofessor besitzt ein großes kulturelles Guthaben, während das eines erfolgreichen Anwalts eher ökonomischer Natur ist. Der soziale Raum nach Bourdieu Angehörige einer Klasse sind bestrebt, sich durch schichtspezifisches Verhalten gegen andere Klassen abzugrenzen. Das dominierende Verhaltensmerkmal der herrschenden Klasse ist die Distinktion . Sie äußert sich unter anderem in einer „elaborierten“ Sprache , im Konsum bestimmter hochwertiger Güter oder der Ausübung elitärer Sportarten. Es geht stets darum, die anderen Bevölkerungsschichten auf Abstand zu halten. Popularisiert sich eine distinguierte Praxis im Laufe der Zeit – etwa Skifahren oder Ferien am Meer – sucht sich die Oberschicht neue Sportarten und verbringt ihren Urlaub nunmehr auf dem Lande. Das vorherrschende Verhaltensmerkmal der Mittelschicht ist die Prätention ; sie möchte den Stil der Oberschicht kopieren. Die Mittelschicht hat einen ausgeprägten Wunsch die Klassenschranken zu überwinden und aufzusteigen. Die oftmals prekären Verhältnisse des Arbeitermilieus wiederum bedingen einen „Notwendigkeitsgeschmack“. Tischsitten oder Kleidung kommt kein symbolischer Wert zu. Die Angehörigen der untersten Schichten haben keine Ambitionen den Lebensstil höherer Klassen zu imitieren, ihre Konsumgewohnheiten orientieren sich an sehr praktischen Erwägungen. Die klassenspezifischen Lebensstile bezeichnet Bourdieu als den Habitus . Er bestimmt unsere Körpersprache, unser Selbstbewusstsein   und grundlegende Denk- und Handlungsschemata ebenso wie den Freundeskreis oder die persönlichen Maßstäbe für Ethik und Ästhetik. Der Habitus ist dabei nur teilweise ein Ergebnis der persönlichen Bildungsgeschichte. Er resultiert ganz überwiegend aus einer machtvollen Prägung durch soziale Ordnung und das klassenspezifische Umfeld, in dem man aufwächst. Die schichtspezifischen Einflussfaktoren prägen Geschmacksvorlieben und Wahrnehmungsmuster, führen aber auch zu einer selektiven Wahrnehmung. Damit sorgt der Habitus innerhalb einer Klasse für Zusammenhalt, zwischen den Klassen aber für Abgrenzung. Pierre Bourdieu 1996 Die dritte Dimension des sozialen Raums ist die Zeit . Die Zeitachse beschreibt Veränderungen im Laufe eines einzelnen Lebens und über Generationen hinweg. Um die eigene Position im sozialen Raum zu verbessern, oder einen Abstieg zu vermeiden, müssen die Individuen Investitionen in die verschiedenen Kapitalarten tätigen. Wenn es gelingt, die eigene Position nach oben zu verschieben, bedeutet dies immer auch einen Machtzuwachs. Bourdieu lenkt unsere Aufmerksamkeit darauf, dass die Ungleichheit der Machtverhältnisse   nicht nur im wirtschaftlichen, sondern auch im kulturellen Kapital begründet liegt – die Intellektuellen, die gerne die gesellschaftlichen Verhältnisse anprangern, sind trotz ökonomischer Beschränkungen selbst Teil der Machtelite. Hingegen sind die Möglichkeiten, die eigene Position im gesellschaftlichen Koordinatensystem zu verbessern, für die unteren Schichten in mehrfacher Hinsicht beschränkt. Der klassenspezifische Habitus baut massive soziale Grenzen auf, die sich nur schwer überwinden lassen; wer die klassenspezifischen Codes nicht beherrscht, ist ausgegrenzt. Ein wesentlicher Punkt in Bourdieus Theorie ist, dass ausgerechnet jene Einrichtungen, die helfen könnten, soziale Barrieren zu überwinden, die Unterschiede eher zementieren und reproduzieren. Insbesondere das Erziehungs- und Bildungssystem verschärft Ungleichheiten, statt sie zu beseitigen. Ursache ist das Leistungsprinzip, das die Schüler in Begabte, mäßig Begabte und Unbegabte einteilt. Begabte   Kinder aus einem benachteiligten Milieu, denen ihr Umfeld suggeriert, dass sie durch die Schule sowieso nichts erreichen können, werden mit hoher Wahrscheinlichkeit auch schlechte Leistungen bringen, die eingeschränkten sprachlichen Ausdrucksmöglichkeiten werden zum Handicap. Das Bildungssystem wird dadurch letztlich zu einem Machtinstrument der herrschenden Klasse. Bourdieus Gesellschaft ist ein in weiten Teilen unsichtbares Kastensystem . Tatsächlich stützen empirische Daten den von Bourdieu behaupteten deterministischen Zusammenhang zwischen Herkunft und Erfolgschancen. Bis heute lassen sich in Frankreich, Deutschland und vielen andern westlichen Ländern starke Korrelationen zwischen sozialer Herkunft und Bildungserfolg nachweisen. Der Mensch kann also auch in einer Demokratie nicht so einfach Rousseaus „Ketten“ sprengen, er ist in verschiedenen Gravitationsfeldern des sozialen Raums gefangen . Selbst wer sich das nötige ökonomische und kulturelle Kapital mühsam erworben hat, kann immer noch an den Abschottungsmechanismen der etablierten Klasse scheitern, weil es ihm an „sozialem Kapital“ fehlt, raffinierten, oft verborgenen Netzwerken, durch die die Akteure der Oberschicht untereinander verbunden sind. Doch auch die dominierende Klasse kämpft untereinander permanent um die Positionen im sozialen Raum. Denn Intellektuelle vertreten in Bourdieus Augen nicht die Interessen der Unterschicht (deren Habitus sie ohnehin nicht verstehen) sondern nur ihre eigenen. Damit entpuppen sich bei genauerer Betrachtung praktisch alle Revolutionen der Geschichte als ein Kampf der intellektuellen Oberschicht gegen die besitzende Oberschicht.   Michel Foucault 1974 Foucaults Perspektive auf die Macht - verborgene Strukturen Michel Foucault beleuchtet das Thema Macht schließlich aus einer dritten Perspektive. Seine Theorie gründet weder wie bei Luhmann auf rationalistischen Überlegungen noch wie bei Bourdieu auf Empirik, sondern auf umfangreicher historischer Forschung. Foucault war der Wandel im Strafvollzug aufgefallen, der sich infolge der Aufklärung in der ersten Hälfte des 19. Jahrhunderts vollzogen hatte. In seinem 1975 veröffentlichten Werk „Überwachen und Strafen“ legt Foucault dar, wie sich die jeweiligen Machtformen einer Epoche im Handeln der staatlichen Institutionen niederschlagen. Von der Antike über den mittelalterlichen Feudalismus   bis in das 18. Jahrhundert hinein demonstrierten die autoritären und absolutistischen Herrscher ihren Machtanspruch nach einem einheitlichen Schema: Urteile wurden im Geheimen, unter Ausschluss der Öffentlichkeit gefällt; die Vollstreckung der Strafe hingegen wurde in der Öffentlichkeit regelrecht zelebriert. Hinrichtungen gingen je nach Verbrechen und Stand des Delinquenten oftmals lange, qualvolle körperliche Torturen voraus. Ein ehemaliges Panoptikum-Gefängnis auf Kuba, erbaut nach den Plänen von Jeremy Bentham In den ersten Jahrzehnten des 19. Jahrhunderts vollzog sich jedoch in der Strafpraxis ein radikaler Wandel .  Die neuen Justizs ysteme, die nach der Französischen Revolution  überall in Europa   eingeführt wurden, vollzogen Strafen, einschließlich Hinrichtungen, auf eine sehr viel humanere Art. Gerichtsverhandlungen wurden öffentlich; für die Urteile wurden Gutachten angefertigt und die Urteilsbegründung dokumentiert, so dass sie für jedermann nachvollziehbar war. Der Vollzug aber geschah von nun an unter Publikumsausschluss. Dem Wunsch der Reformer entsprechend, sollte die Strafe nicht mehr den Körper, sondern die Seele   treffen, wobei es erklärtes Ziel war, den Delinquenten zum Guten zu bekehren und ihn nach erfolgreicher Disziplinierung der Gemeinschaft wieder als nützliches Mitglied zuzuführen. Der Strafvollzug selbst war durch einen minutiös geregelten Tagesablauf charakterisiert, der die Gefangenen einer pausenlosen, anonymen Überwachung unterwarf. Eine besondere Gefängnisarchitektur ermöglichte es, dass die Sträflinge für die Wächter jederzeit vollkommen sichtbar waren, aber selbst nie wussten, ob sie gerade beobachtet wurden. (Jeremy Bentham hatte für die modernen Panoptikum-Gefängnisse eigenhändig detaillierte Pläne entworfen, die in mehreren Ländern auch tatsächlich realisiert wurden.) Foucault erkennt in dem reformierten Strafvollzug nicht wie andere Philosophen und Historiker einen durch die Aufklärung   beförderten humanistischen Fortschritt, sondern eine neue Form , Macht auszuüben. Die neue Macht gründet auf Wissen. Die Moderne kennzeichnet, dass Macht nicht mehr an die brutale Vollstreckung des Herrscherwillens gebunden ist, sondern an Informationen. Nur deshalb werden über den Delinquenten von Beginn des Strafprozesses bis nach Abschluss des Vollzugs ohne Unterlass Akten angelegt und laufend vervollständigt. Die neue Machtform bezeichnet Foucault als „ Disziplinarmacht “. Der Sträfling wird vollkommen transparent, der dahinterstehende Apparat hingegen bleibt weitestgehend unsichtbar. Die Strukturen der Macht begegnen uns in Formen, die sich nicht immer sofort zu erkennen geben... Keine Macht ohne Wissen – kein Wissen ohne Macht. Die Informations-Sammelwut findet sich daher nicht nur im Strafvollzug, sondern  durchzieht weite Teile der Gesellschaft. Sie prägt das Militär, die Arbeit in den Fabriken, das Lernen   in den Schulen und selbst die Organisation der Krankenhäuser. Überall finden sich stark reglementierte, durchgetaktete, standardisierte Abläufe. Da überall alles ständig aufgezeichnet wird, entstehen so ungeheure Datenmengen über jedes Mitglied der Gesellschaft. Letztlich dient dieses Disziplinarregime der ökonomischen Ausbeutung . Für Foucault ist dies kein temporäres Phänomen des 19. Jahrhunderts, die Strukturen sind vielmehr bis heute wirksam. Ein System permanenter Überwachung und ständiger Prüfungen klassifiziert Menschen als schuldig oder unschuldig, tauglich oder untauglich, begabt oder unbegabt, gesund oder krank. Das die gesamte Gesellschaft durchziehende Streben nach Transparenz schafft eine „ Mikrophysik der Macht “. Foucault bewertet dieses mächtige Netz nicht grundsätzlich negativ. Er sieht in ihm auch Chancen für gesellschaftliche Veränderungen zum Guten, die die vormodernen Machtformen nicht boten. Foucault konnte in den 1970er Jahren noch nicht ahnen, welche Ausmaße die Datensammelwut nur wenige Jahrzehnte später annehmen würde. Die lückenlose Aufzeichnung und Auswertung von Mobiltelefonen, GPS-Bewegungen, Kreditkartentransaktionen, Kamerabildern oder DNS-Sequenzen   von Milliarden Menschen unterliegt heute praktisch keinen technischen Limitationen mehr. Foucault erinnert uns daran, dass diese Entwicklung bereits vor 200 Jahren begonnen hat. Die einst vertikalen Machtstrukturen sind in den westlichen Demokratien der Neuzeit   durch horizontale Kräfte abgelöst worden, die die Gesellschaft nicht mehr stabilisieren, sondern dynamisieren. In den daraus entstandenen permanenten Transformations- und Optimierungsprozessen sind wir alle zugleich Opfer und Täter. Die moderne Macht trifft den Menschen nicht mehr physisch, sondern fließt gleichsam durch ihn hindurch. Der Mensch bleibt kompliziert Luhmann, Bourdieu und Foucault haben Webers klassische Machtdefinition um überraschende Aspekte menschlichen Zusammenlebens bereichert.   Ihre Entwürfe der Dimensionen der Macht gehören ebenso wie die von Durkheim, Tönnies und Weber zum heutigen soziologischen Bildungskanon. Sie machen aber auch deutlich, dass wir von einer allgemein akzeptierten Gesellschaftstheorie, die sich etwa mit dem Konsens eines physikalischen Weltbildes vergleichen ließe, noch immer weit entfernt sind. Der Grund hierfür liegt nicht nur in der Komplexität der Zusammenhänge, sondern auch in unterschiedlichen Auffassungen über die Natur des Menschen. Bis auf Weiteres können wir daher nur versuchen unsere Spezies zu verstehen – erklären können wir sie nicht.     Den Blog entdecken   Wer mehr wissen will: Weber, Max (1922): „Wirtschaft und Gesellschaft“, Mohr. Luhmann, Niklas (1984): „Soziale Systeme“, Suhrkamp. Luhmann, Niklas (1998): „Die Gesellschaft der Gesellschaft“, Suhrkamp. Luhmann, Niklas (2002): „Die Politik der Gesellschaft“, Suhrkamp. Bourdieu, Pierre (1987): „Die feinen Unterschiede“, Suhrkamp. Foucault, Michel (1974): „Die Ordnung der Dinge“, Suhrkamp. Foucault, Michel (1994): „Überwachen und Strafen“, Suhrkamp.   Bildnachweise: Niklas Luhmann Pierre Bourdieu [i] Weber (1922) Wirtschaft und Gesellschaft Kapitel 1, § 16. [ii] Vgl. Luhmann (2002) S.23 f.

  • Wie funktionieren Sprachen? Eine kleine Geschichte der Kommunikationstheorien

    Fortsetzung von: „Die Erfindung der Schrift – ein Stück Unsterblichkeit“   Humboldts Sprachtheorie Wilhelm von Humboldt  (1767-1835), der um zwei Jahre ältere Bruder des berühmten Naturfor schers, beherrschte ein gutes Dutzend Sprachen , darunter Tschechisch, Litauisch und Ungarisch. Eine Sprache, die es ihm ganz besonders angetan hatte, war das Baskische. Das Baskische war nicht nur, wie auch das Ungarische, mit keiner indoeuropäischen Sprache verwandt, sondern anders als Ungarisch, überhaupt keiner Sprachfamilie   zuzuordnen. Humboldts grammatikalische Analysen sollten ihn zum Begründer der vergleichenden Sprachwissenschaften  machen. Sprache war für den preußischen Gelehrten „gleichsam die äußere Erscheinung der Völker; ihre Sprache ist ihr Geist und ihr Geist ihre Sprache, man kann sie beide nie identisch genug denken.“ [i]  Wenn Sprache aber das „Medium des Denkens und der Weltauffassung“ war, drängte sich sofort die Frage auf, inwieweit einzelne Sprachen das Denken   ermöglichen oder einschränken. Wilhelm von Humboldt war ein Sprachengenie Von dieser Überlegung ausgehend schuf Humboldt eine Theorie, die Sprachen nach drei vermeintlichen Entwicklungsstufen klassifiziert : Isolierende Sprachen , wie das Chinesische oder Thai, stellen die unterste Stufe dar. Sie kennen keine Flexionen ; alle Wörter sind unveränderlich und grammatische Unterscheidungen werden zumeist durch feste Wortstellungen ausgedrückt. Nach Humboldts Vorstellung muss die fehlende grammatische Struktur vom Sprecher hinzugedacht werden, was den Gedankenfluss verlangsamt. Agglutinierende Sprachen , zu denen etwa das Türkische und das Ungarische zählen , stellen die nächsthöhere Entwicklungsstufe dar. Sie beruhen auf dem Prinzip, dass grammatische Unterscheidungen, wie Fälle, Anzahl der Personen oder Zeiten durch an den Wortstamm angefügte Affixe (meist in Form von Vor- und Nachsilben) zum Ausdruck gebracht werden. Die höchste Form der E ntwicklung haben die flektierenden Sprachen   erreicht, zu denen die indoeuropäische und semitische Familie zählen. Während in den agglutinierenden Sprachen jede grammatische Kategorie wie Genus, Kasus oder Numerus durch selbstständige, aneinandergereihte Affixe zum Ausdruck gebracht wird, fusionieren die flektierenden Sprachen die verschiedenen Kategorien in einem gemeinsamen Affix. Humboldts Typologie ordnet jeder Sprache eine „historische Bedingung des Denkens“ zu, wobei in der Realität alle natürlichen Sprachen Mischformen sind, die sich den drei Idealtypen nur mehr oder minder annähern.   Humboldts Sprachtypologie Humboldt war sich natürlich bewusst, dass eine Einteilung, die für jede neue Entwicklungsstufe eine höhere Beweglichkeit des Geistes unterstellt, nicht erklären kann, warum trotz der offenbaren Simplizität ihrer Grammatik   die Chinesen eine hoch entwickelte Kultur hervorgebracht hatten. Auch die auffälligen isolierenden Tendenzen einiger indogermanischer Sprachen, insbesondere des Englischen, passten nicht in dieses Bild. Humboldt versuchte daher, seine Theorie durch die Vorstellung zu retten, dass ein durch eine entwickelte Sprache beweglich gemachter Geist in der Lage sei, komplexe grammatische Sachverhalte auch ohne Flexionen zu erfassen. Nachdem die Sprache den Geist gleichsam über die verschiedenen Entwicklungsstufen in die Höhe gezogen habe, sei es diesem nun wieder möglich, sich einer einfacheren Grammatik zu bedienen.   In welchem Verhältnis steht die Sprache zur Welt? Mitte des 19. Jahrhunderts waren die Grundlagen der historisch-vergleichenden Sprachforschung gelegt: William Jones   hatte die indogermanische Sprachfamilie entdeckt, der Franzose Jean-François Champollion  die Hieroglyphen   entziffert, Herder  und Humboldt ihre Theorien zu Entstehung und historischer Entwicklung der Sprache vorgelegt und August Schleicher seine Stammbaumtheorie veröffentlicht. Erst Ende des 19. Jahrhunderts begannen die Sprachforscher sich einer ganz neuen Frage zuzuwenden: In welchem Verhältnis stehen Sprache und Welt eigentlich zueinander? Der Schweizer Ferdinand de Saussure  war einer der Ersten, der die Linguistik   aus rein zeichentheoretischer Sicht betrachtete. Er führte hierzu die grundlegende Unterscheidung zwischen dem angeschauten Objekt (signifié, Signifikat , das Bezeichnete) und dem verwendeten Zeichen   (signifiant, Signifikant , das Bezeichnende) ein. Der Baum als pflanzliches Gewächs ist das Signifikat , der Betrachtungsgegenstand als solcher. Die Zeichenfolge „Baum“ (baʊ̯m) ist ein Signifikant , ein dem Objekt letztlich willkürlich zugeordnetes Lautbild. Dass Sender und Empfänger sich über das Ding verständigen können, beruht allein auf einer Übereinkunft zwischen den Angehörigen einer Gruppe, die untereinander einen gemeinsamen Zeichenvorrat teilen. Da andere Sprachgemeinschaften andere Konventionen haben, heißt ein Baum bei ihnen daher boom, tree, abre, albero, 树, ដើមឈើ oder was auch immer sonst vereinbart wurde. Ferdinand de Saussure: In welchem Verhältnis steht Sprache zur Welt? De Saussures Unterscheidung zwischen  dem Bezeichneten und seiner Bezeichnung war ein erster pragmatischer Schritt auf dem Weg zur Klärung des Verhältnisses von Sprache und Wirklichkeit. Doch dieses einfache Modell hat eine Schwäche: Es sagt nichts darüber aus, ob Sprecher und Hörer auch ein gemeinsames Verständnis des betrachteten Objekts haben. 1923 stellten die beiden britischen Sprachwissenschaftler Charles Ogden  und Ivor Richards  ein Modell vor, das die bipolare Sicht de Saussures um diesen fehlenden Aspekt erweiterte: Das semiotische Dreieck  unterscheidet zwischen dem Ding als solchem, dem ihm zugewiesenen Zeichen und dem Begriff, den wir uns von dem bezeichneten Ding machen.           Signifikat und Signifikant Semiotisches Dreieck Der Begriff ist das, was gemeint ist, die durch das Zeichen hervorgerufene mentale Repräsentation. Seine Interpretation kann bei jedem Menschen unterschiedlich sein und von der „Wahrheit“ oder einer lexikalischen Definition abweichen. Nur wenn Ding, Zeichen und Begriff – also das, was ist, wie man es nennt und was gemeint ist – übereinstimmen, ist die Bedeutung aus semantischer Sicht eindeutig geklärt. Organonmodell Kommunikationsmodelle Das Organonmodell , das der deutsche Psychologe und Linguist Karl Bühler  1934 vorstellte, ging noch einen Schritt weiter. Da es zusätzlich noch die Beziehung zwischen Sender und Empfänger berücksichtigt, geht es über reine Semiotik   hinaus und wird damit zu einem Kommunikationsmodell. Botschaften werden aus drei verschiedenen Blickwinkeln betrachtet: Bei der Darstellungsfunktion steht die reine Informationsvermittlung im Sinne des semiotischen Dreiecks im Vordergrund. Bei der Ausdrucksfunktion teilt der Sender etwas über sich mit; seine Zeichen sind stets auch Symptome einer Selbstoffenbarung. Die Appellfunktion nutzt der Sender, um den Empfänger zu etwas aufzufordern. Der Aussagesatz „Es ist kalt im Zimmer“ mag auf der sachlichen Informationsebene bedeuten, dass die Raumtemperatur 15 Grad Celsius beträgt. Der Sprecher möchte damit aber vielleicht offenbaren, dass er friert und verbindet dies mit dem Appell an sein Gegenüber, die Heizung aufzudrehen. Das Zeichen ist bei Bühler nicht nur Symbol, sondern auch Symptom und Signal, wobei das Kind – so wie in Kennedys berühmter Rede – nicht immer beim Namen genannt wird. [ii]  Meist steht bei der Botschaft eine der drei Dimensionen im Vordergrund, doch die beiden anderen schwingen stets mit. Ausdruck und Appell können nur verstanden werden, wenn Sender und Empfänger sich jeweils in die Sichtweise des anderen hineinversetzen können, also über eine „ Theory of Mind “ verfügen. Dann können auch Ironie , Sarkasmus  oder Hintersinn entschlüsselt werden. [iii] Bühlers Bewusstmachung verborgener Kommunikationsebenen wurde in den 1960er Jahren wiederum durch den österreichischen Psychologen und Kommunikationstheoretiker Paul Watzlawick  erweitert. Watzlawick definierte fünf Axiome der Kommunikation , von denen die ersten beiden lauten: „Man kann nicht nicht kommunizieren“ und „Jede Kommunikation hat einen Inhalts- und einen Beziehungsaspekt“. Das erste Axiom stellt klar, dass Verständigung nicht allein an Sprache gebunden ist. Durch unsere Mimik  und Gestik  senden wir zu jedem Zeitpunkt Signale an unsere Umwelt wie wir uns befinden und was wir wollen. Auch Teilnahmslosigkeit ist ein Signal. Kurz: Wir kommunizieren immer. Das zweite Axiom   besagt, dass neben der von Bühler beschriebenen Inhalts-, Darstellungs- und Appellfunktion stets auch das Verhältnis zwischen Sender und Empfänger mitschwingt: Vertraut man sich? Steht man auf der gleichen sozialen Stufe? Wie denkt man über den anderen? Nimmt man ihn ernst? War das Lob vielleicht vergiftet? [iv]     Bestimmt unsere Sprache unser Denken? 1939 erregte der Artikel „ Die Beziehungen des Gewohnheitsdenkens und des Verhaltens zur Sprache “ des amerikanischen Ingenieurs und Freizeit-Linguisten Benjamin Whorf  in Fachkreisen einiges Aufsehen. Wohl ohne dessen Schriften gekannt zu haben, griff der Autor Humboldts Idee der Sprachabhängigkeit des Denkens erneut auf. Nach der „ Sapir-Whorf-Hypothese “ ist jede Sprache eine ganz eigene Kartographie der Wirklichkeit , ein vorgegebenes Raster, das letztlich auch festlegt, was sich überhaupt denken lässt. Tatsächlich haben neuere Studien bestätigt, dass die Muttersprache maßgeblichen Einfluss darauf hat, wie grundlegende Dimensionen menschlicher Erfahrungen, wie Raum, Zeit, Kausalität und die Beziehung zu anderen wahrgenommen werden. Die in Nordaustralien gesprochene Aborigine-Sprache Kuuk Thaayorre , kennt keine relativen Raumbeziehungen wie links oder rechts, sondern nur das absolute Nord, Süd, Ost, West. Aufgrund des fehlenden relativen Bezugs müssen ihre Sprecher sich also stets über die Himmelsrichtungen im Klaren sein und tatsächlich verfügen sie im Vergleich zu Sprechern anderer Sprachen über ein deutlich besseres Orientierungsvermögen. In diesem Fall sieht es so aus, als ob eine kognitive Fähigkeit durch eine spezifische Sprachstruktur erzwungen wurde. [v] Manche Aborigines würden dich dezent darauf hinweisen, dass auf deinem südwestlichen Bein ein Skorpion sitzt! Wörter wie Sonne, Mond oder Brücke haben in den romanischen Sprachen jeweils das gegenteilige Geschlecht wie im Deutschen. Werden deutsche Muttersprachler gebeten, eine Brücke zu beschreiben, greifen sie typischerweise auf Attribute wie „schön“ oder „elegant“ zurück. Sprecher romanischer Sprachen hingegen nennen bevorzugt typisch männliche Eigenschaften wie „stark“ oder „mächtig“. Neben solchen grammatikabhängigen Konnotationen  kennt jede Sprache zahlreiche Ausdrücke, die in anderen Sprachen nicht einfach so „gedacht “ werden können. Die deutschen Wörter „Heimat“, „Fernweh“, „Wanderlust“, „Waldeinsamkeit“ oder „Schadenfreude“ haben im Englischen, Französischen, Spanischen und Italienischen keine direkte Entsprechung und können dort jeweils nur wortreich umschrieben werden (im Englischen würde eine Umschreibung für Schadenfreude etwa lauten: " pleasure derived by someone from another person's misfortune") . Je abstrakter ein Begriff, umso grösser die Wahrscheinlichkeit, dass vermehrt unterschiedliche kulturelle Dimensionen mitschwingen . Die verschiedenen lexikalischen Definitionen gerade des Wortes „Kultur“ im Deutschen, Englischen und Französischen sind ein gutes Beispiel hierfür; die italienische Übersetzung von „ Völkerwanderung “ – „invasioni barbariche“ – macht zudem deutlich, dass Vieles auch einfach nur eine Frage der Perspektive ist.  Wanderer oder Invasoren? Alles eine Frage der Perspektive Wie universell ist unsere Kommunikation? In völligem Gegensatz zu Whorfs sprachlichem Determinismus befinden sich die Thesen des amerikanischen Linguisten Noam Chomsky . Seine in den 1950er Jahren entwickelte Theorie einer universellen Grammatik   geht davon aus, dass das menschliche Gehirn über ein angeborenes kulturunabhängiges Modul verfügt, das den Spracherwerb nach einem stereotypen Regelwerk organisiert. Die Unterschiede zwischen den Sprachen der Welt sind demnach letztlich oberflächlich. [vi]  Dass während der ersten acht oder neun Lebensjahre jedes Kind jede beliebige Sprache erlernen kann, ist gemäß Chomsky nur möglich, weil allen natürlichen Sprachen ein gemeinsames grammatisches System zugrunde liegt und nur noch die spezifische Konfiguration der jeweiligen Sprache erlernt werden muss. Glaubt an Sprachuniversalien: Noam Chomsky Chomsky zufolge würde ein außerirdischer Wissenschaftler feststellen, dass alle Erdlinge nur unterschiedliche Dialekte derselben Sprache sprechen. [vii]  Belege sehen Chomsky und die Verfechter seiner These insbesondere beim kindlichen Spracherwerb, der intuitiv unsinnige grammatikalische Konstrukte vermeidet, sowie in Sprachuniversalien, also Strukturen, die alle Sprachen miteinander teilen . [viii]   Whorfs und Chomskys Theorien stellen heute unter Linguisten heiß umstrittene Extrempositionen dar. Ein wichtiger Einwand gegen Whorfs These ist, dass es trotz aller sprachspezifischen Ausdrücke letztlich kein Problem ist, das zugrundeliegende Konzept eines Wortes auch Sprechern einer anderen Sprache zu vermitteln. Schließlich empfinden auch Japaner oder Peruaner Schadenfreude. Ebenso sind wir in der Lage, die Unterscheidung der englischen Wörter „if“ und „when“, die im Deutschen beide mit „wenn“ übersetzt werden können, zu verstehen und korrekt zu verwenden. [ix] Gegen Chomskys These spricht zunächst der offenbare Mangel an echten Sprachuniversalien. Des Weiteren sehen viele Linguisten gar keine Notwendigkeit für eine solche Theorie; die dem Spracherwerb zugrundeliegenden kognitiven Prozesse seien bekannt und erklären das Phänomen hinreichend genau. Zudem verändere sich Sprache durch die kulturelle Evolution   wesentlich schneller als durch die Biologie; es sei daher nicht erklärbar, wie und warum Spracherwerb genetisch fixiert worden sein soll. [x]   Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt: Wittgensteins Sprachphilosophie Zwei ganz andere Betrachtungen der Sprache verdanken wir dem österreichischen Philosophen Ludwig Wittgenstein . Sein Anknüpfungspunkt war Freges Unterscheidung von „Sinn“ und „Bedeutung“. Wittgensteins erste Abhandlung, den Tractatus Logico-Philosophicus, verfasste der studierte Ingenieur während des Ersten Weltkriegs in einem Schützengraben. Darin behandelt er den Zusammenhang von Sprache, Denken und Wirklichkeit auf einer streng logischen Grundlage. Der Tractatus beginnt mit einer Reihe von Feststellungen : „1. Die Welt ist alles was der Fall ist. […] 1.2: Die Welt zerfällt in Tatsachen. […] 2. Was der Fall ist, die Tatsache, ist das Bestehen von Sachverhalten. […] 3. Das logische Bild der Tatsachen ist der Gedanke […] 4. Der Gedanke ist der sinnvolle Satz.“ [xi]   Da wir unser Denken nur durch Sprache zum Ausdruck bringen können, war Ingenieur, Philosoph, Volkschullehrer, Sprachkritiker: Ludwig Wittgenstein Wittgenstein überzeugt, dass wir keine Metaphysik   oder Erkenntnistheorie betreiben können, ohne vorher Sprachkritik  betrieben zu haben. Nicht alle Sätze, die möglich sind, stellt Wittgenstein fest, leisten einen sinnvollen Beitrag, zum Verständnis der Realität . Sinnvoll sind nur Sätze, die aufgrund bestehender Sachverhalte als wahr oder falsch bestätigt werden können, etwa die Behauptung: „Draußen scheint die Sonne“. Tautologien  wie: „Draußen scheint die Sonne oder draußen scheint die Sonne nicht“ sind sinnlos. Sie sagen nichts aus, da sie immer sowohl wahre als auch falsche Anteile enthalten und keine Realität benötigen. Neben sinnlosen gibt es auch unsinnige Sätze: „Der Satz, den ich hiermit ausspreche, ist falsch“ ist in der Wittgensteinschen Logik Unsinn, weil er kein vernünftiges Bild von den Tatsachen der Welt liefert und es keine Wirklichkeit gibt, anhand derer sich der Wahrheitsgehalt überprüfen ließe. Es ist schlichtweg zwecklos über sinnlose und unsinnige Dinge zu sprechen. [xii]  Daraus ergibt sich aber eine geradezu dramatische Konsequenz: Da Philosophie keine Naturwissenschaft ist, lassen sich auch ihre Behauptungen nicht an der Realität überprüfen; sie sind damit weder wahr noch falsch. Das aber macht die ganze Philosophie letztlich sinnlos. Die Möglichkeiten einer sinnhaften Weltbeschreibung fasste Wittgenstein in seinen beiden bekanntesten Zitaten zusammen: „Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt“. Und: „Was sich überhaupt sagen lässt, lässt sich klar sagen; und wovon man nicht sprechen kann, darüber muss man schweigen.“ [xiii] Etliche Jahre später revidierte Wittgenstein diese radikale Position allerdings. Seine zeitweise Arbeit als Volksschullehrer hatte dem strengen Ingenieur bewusstgemacht, dass der konkrete tägliche Gebrauch von Sprache nicht mit den Aussagen seines Tractatus vereinbar war. Die Nützlichkeit der Worte liegt nicht darin, dass sie die Welt beschreiben, sondern darin, dass sie uns erlauben uns mitzuteilen. In seinem Spätwerk, den „Philosophischen Untersuchungen“ stellte er daher fest: „Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache.“ [xiv]  Wenn Bedeutungen aber unscharf sind, können sie auch keinen rational-logischen Ansprüchen gerecht werden. Letztlich ist die Sprache ein Spiel, das funktioniert, weil man sich auf bestimmte Regeln – Zeichen für die Dinge und Syntax   des Satzbaus – geeinigt hat. Nur wer die Regeln kennt, kann an dem Spiel teilnehmen und seine Ideen mitteilen. Es ist demnach müßig in der Sprache einen tieferen Zweck zu suchen, oder aus ihr ein vollkommenes Weltbeschreibungswerkzeug formen zu wollen. Wittgenstein illustriert die Grenzen objektiver Beschreibbarkeit am Beispiel des Wortes „Spiel“. Es gibt Brettspiele, Ballspiele, Kampfspiele, Theaterspiele, Kinderspiele, Olympische Spiele. Nicht immer geht es um Gewinnen und Verlieren, nicht immer muss man zu mehreren spielen, nicht immer geht es um Geschicklichkeit oder um Glück. Letztlich findet sich kein Merkmal, das allen Spielen gemein ist. Dennoch wissen wir, was ein Spiel ist und was nicht. Die Begriffe sind durch eine „ Familienähnlichkeit “ miteinander verbunden, ohne dass es möglich wäre, diese Ähnlichkeit genau zu erfassen. Manche sehen in Wittgensteins Ausloten sprachlicher Grenzen einen der letzten Höhepunkte der abendländischen Philosophiegeschichte . Doch wo nahm das systematische Denken seinen Anfang und wie hat es sich seitdem entwickelt? Die Spurensuche führt uns einmal mehr ins antike Griechenland. (Die im Artikel erwähnte Sprachtheorie von Johann Gottfried Herder ist hier ausführlicher beschrieben ).   Mit diesem Artikel endet die Serie zur Kategorie Sprache   Den Blog entdecken   Wer mehr wissen will: Humboldt, Wilhelm von (1836) „Über die Kawi-Sprache auf der Insel Java“. Saussure, Ferdinand de (1967): „Grundfragen der allgemeinen Sprachwissenschaft“, De Gruyter. Bühler, Karl. (1934): „Sprachtheorie. Die Darstellung der Sprache“, Fischer. Steiner, George (1972): „Whorf, Chomsky and the Student of Literature”, New Literary History Vol. 4, No. 1, Seiten 15-34. Dabrowska, Ewa (2015): "What exactly is Universal grammar, and has anyone seen it?, Frontiers in Psychology 6, Article 852. Deutscher, Guy (2010): „Through the language glass“, Metropolitan Books. Wittgenstein, Ludwig (1922) „Tractatus logico-philosophicus”, tractatus-online.appspot.com . Wittgenstein, Ludwig (2003) „Philosophische Untersuchungen”, Suhrkamp.     Bildnachweise: Noam Chomsky [i]  Humboldt (1836) S. 53. [ii]  Vgl. Bühler (1934) S.28. [iii]  Es gibt ein für Sarkasmus zuständiges Gehirnareal. Menschen, bei denen dieses Areal beschädigt ist, können sarkastische Anspielungen nicht verstehen. [iv] Der Kommunikationspsychologe Friedemann Schulz von Thun erweiterte Bühlers Modell um Watzlawicks Beziehungsaspekt zu einem vierdimensionalen Modell mit den Seiten „Selbstoffenbarung“, „Sachebene“, „Appell“ und „Beziehung“. [vi]  Vgl. Steiner (1972) S. 15. [vii]  Vgl. Deutscher (2010) S.6. [viii] Vgl. Dabrowska (2015), S.2 f. [ix] Vgl. Deutscher (2010) S. 14 f, 147. [x] Vgl. Dabrowska (2015) und Tomasello (2003) [xi]  Wittgenstein (1922). [xii] Damit zeigt Wittgenstein ein anderes Verständnis von Logik als bis heute in der Mathematik üblich: neben den binären Kategorien „wahr“ und „falsch“ gibt es auch noch die Kategorien „sinnlos“ und „unsinnig“ [xiii] Wittgenstein (1922) 5.6; 7. [xiv]  Wittgenstein (2003) S. 40.

  • Wie funktionieren Märkte? Die Geschichte des neoklassischen Gedankens

    Fortsetzung von: Die klassische Nationalökonomie. David Ricardo und Thomas Malthus     Ein preußischer Beamter revolutioniert die Ökonomie Preußische Beamte entsprechen nicht gerade der landläufigen Vorstellung, die man sich von Revolutionären macht. Doch der heute kaum noch bekannte Regierungs-Assessor Hermann Heinrich Gossen  (1810-1858) war einer der größten Aufrührer der ökonomischen Theorie überhaupt: Er verband Mills abnehmende Ertragszuwächse mit Says Nutzenidee   und goss beides in Mathematik . Diese bemerkenswerte Synthese aus subjektiven Präferenzen und objektiver Berechnung bezeichnen wir heute als die „ Marginalistische Revolution “. Sie ist gleichsam die kopernikanische Wende  der Ökonomie . Vor Gossen wurden wirtschaftswissenschaftliche Theorien verbal, bestenfalls tabellarisch beschrieben. Die neue Grenznutzen schule aber basierte auf Differentialrechnung . Mit ihr ließen sich nun optimale Zustände theoretisch exakt ermitteln. Die Dogmen der daraus hervorgegangenen neoklassischen Mikroökonomie  bilden bis heute das Fundament der herrschenden wirtschaftswissenschaftlichen Meinung. Preussischer Beamter und Revolutionär: Hermann Heinrich Gossen 1854 veröffentlichte Gossen eine Schrift mit dem etwas weitschweifigen Titel: „Entwickelung der Gesetze des menschlichen Verkehrs, und der daraus fließenden Regeln für menschliches Handeln“. Seinen wichtigsten Gedanken beschreibt der preußische Staatsdiener gleich zu Beginn: „Der Mensch wünscht sein Leben zu genießen und setzt seinen Lebenszweck darin, seinen Lebensgenuß auf die möglichste Höhe zu steigern“. [i]  Zu diesem Zweck, davon ist Gossen überzeugt, kalkulieren wir alle unablässig – bewusst oder unbewusst. Für eine genaue Berechnung müssen „alle Entbehrungen abgezogen werden, welche der wirkliche Genuß durch seine Folgen dem Menschen in seiner ganzen Zukunft auferlegen würde […]“. [ii]  Wir müssen, anders gesagt, also bei der Berechnung des Nutzens  auch die damit verbundenen gegenwärtigen und künftigen Kosten berücksichtigen.   Die Gossenschen Gesetze Im Kern beruht Gossens Revolution darauf, der schwer zu fassenden Nutzenidee einen mathematischen Wert zuzuweisen, mit dem sich der Grad der Bedürfnisbefriedigung ausdrücken lässt. Das erste Gossensche Gesetz  beschreibt das zugrundeliegende Prinzip des abnehmenden Grenznutzens. Der Nutzenzuwachs ist nicht proportional zur konsumierten Menge, sondern nimmt kontinuierlich ab. Tatsächlich entspricht das einer generellen Alltagserfahrung: Das erste Glas Wein erzeugt einen Nutzen – es entsteht ein gutes Gefühl, vielleicht, weil Endorphine ausgeschüttet werden. Das zweite Glas fördert unser Wohlbefinden weiter, aber in einem etwas geringerem Maße als das erste. Genauso verhält es sich mit allen weiteren Gläsern, die wir zu uns nehmen, bis wir an einen Punkt kommen, an dem eine Sättigung eintritt. Wir haben „genug“. Ein weiterer Schluck stiftet nun keinen zusätzlichen Nutzen mehr. Wenn wir dennoch weitertrinken nimmt unser Wohlergehen sogar ab – der Grenznutzen wird negativ. Damit wird auch deutlich, warum der Wert eines Gutes nicht absolut zu ermitteln ist: Er ändert sich mit jeder einzelnen betrachteten Einheit. Das siebte Glas Wein kostet genau so viel, wie das erste – sein Nutzen ist aber deutlich geringer. Für einen Bauern ist der letzte produzierte Sack Getreide in einem schlechten Jahr wertvoller als in einem guten Jahr. Für den Bewohner einer Ein-Zimmer-Wohnung ist ein weiterer Quadratmeter wichtiger als für einen Schlossherrn. Und spätestens der fünfte Fernseher im Haus dürfte in den meisten Fällen allen Bewohnern einen negativen Grenznutzen garantieren. Das zweite Gossensche Gesetz  geht der Frage nach, wie der Nutzen insgesamt maximiert werden kann. Dazu muss der Entscheider seine Ressourcen an Zeit oder Geld   so auf sein Güterportfolio aufteilen, dass die letzte ausgegebene Geldeinheit für jedes Gut denselben Grenznutzen erzielt. Nur damit lässt sich das im utilitaristischen Sinne größtmögliche Glück erreichen. Was bedeutet das? Nehmen wir vereinfachend an, dass ein rationaler Entscheider nur die beiden Güter Wein und Tuch konsumiert. Solange der Grenznutzen einer weiteren Einheit Wein größer ist, als der einer weiteren Einheit Kleidung, ist es rational, die nächste verfügbare Geldeinheit für Wein auszugeben. Ein vernünftiges Individuum tut dies so lange, bis die letzte Einheit Wein denselben Nutzenzuwachs erzielt, wie die letzte Einheit Tuch. Dieses Entscheidungsmuster sichert den größtmöglichen Gesamtnutzen aus dem Konsum beider Güter. Dahinter steckt letztlich wieder Ricardos Opportunitätskostenüberlegung : Indem er den Wein wählt, bringt unser Entscheider oder unsere Entscheiderin zum Ausdruck, dass er persönlich die Opportunitätskosten des Verzichts auf neue Kleidung geringer schätzt als den Nutzen des Weinkonsums.   Die Mathematisierung der Ökonomie Die Theorie, mit der der preußische Assessor menschlichem Handeln mathematisch auf den Grund ging, wurde zu seinen Lebzeiten nicht wahrgenommen. Um 1870 jedoch entdeckten der Franzose Léon Walras , der Österreicher Carl Menger  und der Engländer William Stanley Jevons  fast zeitgleich und unabhängig voneinander den Grenznutzengedanken erneut. Die drei stritten sich eine Weile um die Priorität ihrer Idee, bis sie feststellten, dass Gossen ihnen um rund 15 Jahre zuvorgekommen war. Newtons   und Leibniz‘ Differentialrechnung war das passende Werkzeug, um die sich laufend ändernden Nutzen-Zuwachsraten zu analysieren. Ursprünglich entwickelt, um die Dynamik harter Naturgesetze   zu beschreiben, wurde sie nun auf die vollkommen subjektiven Vorstellungen übertragen, die Individuen mit dem Konsum von Gütern verbinden. Der Gesamtnutzen, der sich mit fortschreitendem Konsum ergibt, lässt sich als Exponentialfunktion darstellen; der Grenznutzen einer zusätzlichen Einheit ergibt sich folglich aus deren erster Ableitung. Auf dem Scheitelpunkt der Gesamtnutzenfunktion ist der Nutzenzuwachs Null. Auf dieser Grundlage lassen sich Optima berechnen, ein Kalkül, das die vormals linearen Betrachtungen nicht zuließen. Ab 1870 arbeiteten Walras, Menger und Jevons nach und nach die nötigen mathematischen Details aus, mit der sich die Entscheidungslogik der Konsumenten in der so genannten Haushaltstheorie  darstellen ließ.  Das Marginalprinzip bei Haushalten und Unternehmen Der englische Ökonom Alfred Marshall  (1842-1924) zeigte 1890 in seinem Standardwerk „ Principles of Economics “, dass sich das marginalistische Kalkül der Konsumenten auch auf Unternehmen übertragen lässt. Auch sie wollen als durch und durch rationale Teilnehmer am Wirtschaftsleben ihren Nutzen optimieren. Sie haben hierfür nur ein anderes Wort: Gewinn. Er ergibt sich, wenn die Kosten vom Umsatz abgezogen werden. So wie die Haushalte ihr limitiertes Budget nutzenmaximierend auf verschiedene Güter aufteilen, möchten auch die Unternehmen ihre Produktionsfaktoren  so einsetzen, dass sie den Gewinn maximieren. Ein Bauer kann beispielsweise den Ertrag seines Weizenfeldes mithilfe von Dünger steigern. Mit jeder weiteren Einheit Dünger nimmt der Ernteertrag zu, allerdings – wie schon von Mill festgestellt – mit kontinuierlich fallenden Raten. Urheber des Markdiagramms: Alfred Marshall im Jahre 1921 Der Bauer wird also unter Berücksichtigung seiner Grenzkosten  genau die Menge an Dünger einsetzen, die seinen Gewinn maximiert. Mathematisch ist dieses Optimum erreicht, wenn die Grenzkosten der letzten produzierten Einheit dem Grenzerlös  entsprechen. Eine noch größere Produktionsmenge würde den Gewinn wieder verringern, weil die Kostenzuwächse dann die Erlöszuwächse übersteigen. Die neoklassische Theorie unterstellt, dass jeder Unternehmer nach dieser Maxime handelt, ganz gleich, ob er ein Weizenfeld bestellt, einen Friseursalon betreibt oder eine Fabrik für Computerchips. [iii]     Die bekannteste aller Wirtschaftsgraphiken: das Marktdiagramm Haushalte und Unternehmen verfolgen letztlich ähnliche Ziele. Der strikten Gewinnorientierung kapitalistischer Unternehmen entspricht das konsequente Nutzenstreben der Haushalte. Beide Seiten sind zudem eng miteinander verflochten: Die Erlöse der Unternehmen sind die Kosten der Haushalte und die Einkommen der Haushalte sind die Lohnkosten der Unternehmen. Die eine Seite bietet an, die andere Seite fragt nach. Der Ort, an dem egoistische Anbieter auf selbstsüchtige Nachfrager treffen, ist der Markt. Diesen Zusammenhang stellte Marshall in einem einfachen Modell dar, dem Marktdiagramm :   Alfred Marshalls Marktdiagramm Der untere Punkt auf der Angebotskurve  besagt, dass bei einem Stückpreis von 2 die Anbieter bereit sind, 2 Einheiten herzustellen und zu verkaufen; der untere Punkt auf der Nachfragekurve  verrät, dass die Haushalte zu diesem Preis 4 Stück nachfragen würden. Ein Teil der Konsumentenwünsche bleibt unter diesen Bedingungen unerfüllt. Die beiden oberen Punkte besagen, dass die Unternehmen bei einem Preis von 4 auch 4 Einheiten anbieten würden; die Konsumenten fragen zu diesen Konditionen allerdings nur 2 Einheiten nach. Die Anbieter würden somit auf einem Teil ihrer Ware sitzenbleiben. Ganz anders ist die Situation bei einem Stückpreis von 3: Nun decken sich die Mengen, die die Haushalte nachfragen mit den Mengen, die die Unternehmen anzubieten bereit sind. Beide Seiten haben sich gegenüber den vorherigen Szenarien verbessert, denn sie befinden sich jetzt auf einem höheren Nutzen- beziehungsweise Gewinnniveau. Es ist sogar das bestmögliche Ergebnis. Der Preis von 3 sendet an beide Seiten ein Signal der Harmonie, das dafür sorgt, dass sich angebotene und nachgefragte Menge genau entsprechen. Der Markt wird geräumt, die Wünsche aller Beteiligten erfüllt. Marshalls Modell bringt die Vorstellung zum Ausdruck, dass Märkte – so wie physikalische und biologische Systeme – mathematisch beschreibbaren, natürlichen Gleichgewichtszuständen entgegenstreben. Auf die Frage, ob denn nun das Angebot oder die Nachfrage den Preis bestimme, antwortete Alfred Marshall einmal, dass diese Frage so sinnvoll sei, wie die, ob ein Blatt Papier von der oberen oder der unteren Scherenklinge durchschnitten wird“. [iv] Die Nachfragekurve endet am dem Punkt, an dem der Konsum einer zusätzlichen Einheit keinen Nutzenzuwachs mehr verspricht. Dem gegenüber stellt die Angebotskurve der Unternehmen die Mengen dar, die das Unternehmen zu jeweils unterschiedlichen Preisen zu produzieren bereit ist. Die Anbieter werden ihr Angebot so lange ausweiten, bis die Grenzkosten den Grenzerlösen entsprechen. Ihre Überlegung ist es nicht, wie man vordergründig meinen könnte, bei einem höheren Preis automatisch auch mehr anzubieten – die Unternehmen möchten ihren Gewinn maximieren, nicht ihren Umsatz. Hinter Angebots- und Nachfragekurve verbirgt sich letztlich nichts anderes als die über alle Marktteilnehmer aggregierten Grenzkostenkurven der Unternehmen und Grenznutzenkurven der Haushalte. Am Schnittpunkt beider Kurven treffen Käufer mit einem hohen Grenznutzen auf Verkäufer mit niedrigen Grenzkosten. Der Preis ist das Medium, über das sich beide Seiten miteinander verständigen. Er objektiviert die Nutzen- und Gewinnerwartungen die Anbieter und Nachfrager für jeden Punkt ihrer jeweiligen Kurven haben. Der Preis stellt sicher, dass stets derjenige ein knappes Gut erhält, der dafür am meisten zu zahlen bereit ist. Er kommuniziert Anreize in einer Weise, die das Verhalten selbstsüchtiger Akteure in ein Marktgleichgewicht bringt. Der Preis ist letztlich nichts anderes, als Smiths unsichtbare Hand , die alles so wunderbar koordiniert. Marshalls Marktmodell bringt die Idee der Marginalistischen Revolution auf den Punkt und gibt Smiths geheimnisvoller Metapher einen konkreten Namen.   Massenmärkte für Menschenmassen Portugiesischer Wein, englisches Tuch, Luxusyachten, Benzin, Internetzugänge, Büroklammern, Sachbücher, Zahnimplantate, illegale Drogen, gefälschte Ausweispapiere, Haarschnitte, Yogakurse, Währungen oder Aktien: Das Marktdiagramm ist das universelle Modell für die Massenmärkte der Industriellen Revolution. Sein Erklärungspotential ist beeindruckend. Es zeigt nicht nur, wie Preise entstehen, sondern auch, wie veränderte Bedingungen auf die Preisbildung wirken. Eine Zunahme der Anbieter weitet die Angebotsmenge aus; die Angebotskurve verschiebt sich parallel nach rechts; der Preis fällt. Erhebt der Staat auf den Konsum eines Guts eine Steuer, wird es dadurch teurer, die nachgefragte Menge fällt; auch in diesem Fall sinkt der Preis. Nimmt die Nachfrage bei gegebenem Angebot zu, verschiebt sich die Nachfragekurve nach rechts; der Markt findet dann über einen höheren Preis ein neues Gleichgewicht.   Auswirkung von verändertem Angebot und Nachfrage auf die Preisbildung Wie stark sich eine Preisänderung auf das Verhalten der Haushalte auswirkt, lässt sich mit Hilfe der Preiselastizität der Nachfrage  messen. Produkte des Grundbedarfs, wie Brot oder Kraftstoffe – beide haben übrigens etwas mit elementarer Energieversorgung zu tun – zeigen meist geringe Elastizitäten. Bei Preissteigerungen geht hier die Nachfrage kaum zurück, weil die Verbraucher kurzfristig auf keine anderen Produkte ausweichen können. Dagegen zeigen Luxusgüter, die verzichtbar sind, sich leicht ersetzen lassen oder deren Konsum sich aufschieben lässt, hohe Elastizitäten: Bei einer Preiserhöhung reduziert sich die nachgefragte Menge deutlich. Je höher die Elastizität, desto flacher verläuft die Nachfragekurve in Marshalls Diagramm. [v] Auf der Unternehmensseite gibt es analoge Überlegungen. Je elastischer das Angebot, desto flacher die Angebotskurve. Für den Grenzfall eines unendlich elastischen Guts verläuft die Angebotskurve vollkommen horizontal: Die Anbieter sind bereit, zu einem festen Preis jede beliebige Menge zu liefern. Das ist ihnen möglich, weil in diesem Fall ihre Grenzkosten nicht von der hergestellten Menge abhängen. Das tausendste Weinfass kostet sie dann nicht mehr als das hundertste.   Ein Modell mit vielen idealisierenden Annahmen Die mathematische Modellwelt der neoklassischen Theorie ist der Kern dessen, was wir heute als Mikroökonomie  bezeichnen. Sie untersucht mit Mitteln der Analysis, wie egoistische Individuen interagieren, sich arbeitsteilig organisieren und ihre knappen Mittel einsetzen. Es ist wichtig zu verstehen, dass diese Modellwelt auf einer ganzen Reihe weitreichender und idealisierender Annahmen beruht. Die zentrale Prämisse ist ein bestimmtes Menschenbild: der Homo oeconomicus . Nach Max Webers Überzeugung ist er eine Erfindung der Moderne, die den antiken Homo politicus   ablöste, der Ökonomie lediglich als politische Nebenbedingung sah, um existenzielle Grundlagen sicherzustellen. Tatsächlich hätte vor Beginn der Neuzeit niemand Benjamin Franklins Aphorismus „Zeit ist Geld“ aus seinem Essay „Ratschläge für junge Kaufleute“ verstanden. Oeconomicus ist eine durch und durch rationale Rechenmaschine, die unablässig Funktionen ableitet, um seine persönlichen Zielvorstellungen zu maximieren. Dieses bizarre Wesen agiert, so die nächste Annahme, auf Märkten, auf denen „ vollständige Konkurrenz “ herrscht. Das bedeutet, dass es so viele Anbieter und Nachfrager gibt, dass ein einzelner Akteur durch sein Verhalten die Preisbildung nicht beeinflussen kann. In der mikroökonomischen Idealwelt herrscht zudem volle Informationstransparenz: Alle sind jederzeit über sämtliche Preise sämtlicher Anbieter informiert, deren Güter zudem „homogen“, also vollkommen vergleichbar sind: Der Wein aller Winzer schmeckt immer gleich, das Tuch aller Weber ist stets von identischer Qualität. Vor dem Hintergrund dieser Annahmen möchte die Mikroökonomie die Bedingungen verstehen, unter denen der individuelle Egoismus eine für alle Beteiligten vorteilhafte Situation schafft. Die Mikroökonomie beschreibt, wie ein guter Markt funktioniert Die grundsätzliche Position der neoklassischen Theorie hierzu ist einfach: Man muss nur die unsichtbare Hand frei walten lassen! Wird die natürliche Preisfindung hingegen behindert, können die Ressourcen nicht mehr effizient alloziert werden; der Markt funktioniert nicht mehr richtig, ein fairer Interessenausgleich zwischen Anbietern und Nachfragern wird durch solche Verzerrungen unmöglich. Die wichtigste Voraussetzung für ein gutes Ergebnis ist daher vollständiger Wettbewerb . Auf den Märkten sollen so viele Konsumenten wie möglich auf so viele Produzenten wie möglich treffen; niemand darf vom Marktzugang abgehalten werden. Auf der Angebotsseite soll es rau zugehen. Die vollkommene Konkurrenz übt im Interesse der Konsumenten einen permanenten Druck auf die Gewinnmargen aus. Die Verbraucher können die Anbieter gegeneinander ausspielen und gelangen so auf ein höheres Nutzenniveau. Solange ein Unternehmen noch Gewinne erzielen kann, führt der unerbittliche Kampf um Marktanteile dazu, dass weitere Wettbewerber auf den Markt drängen und versuchen, die Konkurrenz zu unterbieten. Langfristig führt der Wettbewerb daher dazu, dass der Unternehmensgewinn gegen Null strebt.   Wirtschaftspolitische Konsequenzen Vor diesem Hintergrund ist es nur allzu verständlich, dass die Unternehmen diesem Überlebenskampf zu entkommen suchen. Unter den Bedingungen des vollkommenen Wettbewerbs kann ein einzelner Unternehmer keine höheren Preise durchsetzen. Ihm bleibt allein, seinen Gewinn über die Absatzmenge zu beeinflussen. Die Versuchung, diese Beschränkung zu umgehen, ist groß. Die naheliegendste Möglichkeit sind Preisabsprachen  zwischen Konkurrenten. Die zweite Möglichkeit ist aufwändiger, aber noch verlockender. Das Unternehmen kann versuchen, eine Monopolstellung  zu erringen, indem Konkurrenten aufgekauft oder durch ruinösen Wettbewerb eliminiert werden. Danach kann der Monopolist ungestört seine Preise diktieren – eine Entwicklung die Karl Marx als letztes Stadium des Kapitalismus  vor dessen unvermeidlichem Zusammenbruch ansah. Da weder Preisabsprachen noch Machtkonzentration im Sinne der Verbraucher sind, ist es aus neoklassischer Sicht die wichtigste wirtschaftspolitische Aufgabe des Staates, den Wettbewerb auf den Märkten zu erhalten. Er soll Unternehmensgründungen fördern, Kartelle verbieten, Fusionen kontrollieren und Monopole verhindern. Über diesen Rahmen hinaus, darf der Staat aber keinesfalls in die Marktgeschehnisse und die Preisbildung eingreifen. Die neoklassische Mikroökonomik bewegt sich in diesem Sinne voll und ganz im Fahrwasser des politischen Liberalismus   eines John Lockes oder David Humes.   Es regt sich Kritik an dem Modell In der zweiten Hälfte des vorigen Jahrhunderts regte sich zunehmend Kritik an den Prämissen des mikroökonomischen Modells. Vor allem der Homo oeconomicus geriet ins Fadenkreuz. Bereits Adam Smith war sich sicher, dass es diesen rationalen Entscheider nicht gibt. In seinem zweiten großen Werk, der bereits 1759 erschienenen „ Theory of Moral Sentiments “ – „Theorie der ethischen Gefühle“, hatte sich der Philosoph unter anderem mit der Psychologie von Trugschlüssen auseinandergesetzt. Smith konstatierte, dass die Menschen zur Selbstüberschätzung neigen und eine ausgeprägte Gegenwartspräferenz haben. Sie ziehen es vor, lieber weniger sofort zu haben als mehr in der Zukunft – lieber den Spatz in der Hand als die Taube auf dem Dach. Derlei psychologische Überlegungen wurden allerdings durch die neoklassische Lehre fast 200 Jahre lang vollkommen verdrängt. Erst die Spieltheorie  konnte aufzeigen, dass gängige Strategien von Marktteilnehmern zu suboptimalen Ergebnissen führen. Damit rückte die irrationale Seite des menschlichen Handelns wieder in den Fokus der Ökonomen. Mit der Verhaltensökonomie  entstand eine neue Strömung, die im Laufe der Jahre eine Fülle von Beispielen zusammentrug, die deutlich machen, wie schnell wir auf unseren mikroökonomischen Entscheidungspfaden stolpern oder falsch abbiegen: Wir schätzen Wahrscheinlichkeiten falsch ein, gewichten Information, die unsere Hypothesen zu bestätigen scheinen, stärker als jene, die ihnen widersprechen und sind Opfer eines Herdentriebs, der uns verleitet, bei steigenden Kursen Aktien nur deshalb zu kaufen, weil alle anderen es ebenfalls tun. Die Verhaltensökonomie zeigt, dass unsere Rationalität in nicht unerheblichem Maße eingeschränkt ist. Gerade bei der Verarbeitung ökonomischer Daten scheint unser Neokortex   im Konflikt mit älteren Gehirnschichten besonders oft zu unterliegen. Dass wir das Geld erfunden haben garantiert noch nicht, dass wir auch richtig damit umgehen können.   Psychologie und Marktversagen Die beiden israelischen Psychologen Amos Tversky (1937-1996) und Daniel Kahneman  (1934-2024) beschrieben solche Phänomene 1979 erstmals systematisch im Rahmen ihrer „ Neuen Erwartungstheorie “. (Kahneman erhielt 2002 hierfür den Nobelpreis  für Wirtschaftswissenschaften.) Ein zentrales Element ihrer Betrachtungen ist das Phänomen der Verlustaversion . Eine Person, die 5 Euro geschenkt bekommt, ist glücklicher, als eine, die zunächst 10 Euro erhält, aber davon 5 Euro wieder abgeben muss. [vi] Ein Homo oeconomicus wäre beiden Fällen gegenüber vollkommen indifferent. In der Praxis führt die Verlustaversion   unter anderem dazu, dass sich viele Anleger nicht rasch genug von fallenden Aktien trennen und dadurch noch größere Verluste erleiden. Ein Psychologe erhält den Wirtschaftsnobelpreis: Daniel Kahneman Auch die Annahme, dass alle Marktteilnehmer über vollständige Information  verfügen, ist fragwürdig. Tatsächlich ist die Realität von Informationsasymmetrien geprägt. Eine Seite hat einen Wissensvorsprung, der die Bildung freier Marktpreisgleichgewichte behindert. Der Nobelpreisträger George Akerlof  – er erhielt den Preis ein Jahr vor Kahneman – zeigte die Konsequenzen am Beispiel des Gebrauchtwagenmarkts. Der Käufer eines Gebrauchtwagens weiß im Gegensatz zum Verkäufer nicht, ob ein Wagen technische Mängel hat. Dieses Risiko kalkuliert er in seinen Angebotspreis ein und macht ein entsprechend niedriges Angebot. Für die ehrlichen Verkäufer einwandfreier Fahrzeuge ist dieser Preis aber zu niedrig; sie ziehen sich deshalb vom Gebrauchtwagenmarkt zurück. Die Informationsasymmetrie führt somit zu einer Negativauslese: Weil sich auf dem Markt nur noch unredliche Händler tummeln, finden Verbraucher und ehrliche Anbieter nicht mehr zueinander. Funktioniert nicht richtig: der Markt für Gebrauchtwagen   Wie verteilt man den Kuchen? Effizienter Ingenieur, Soziologe, Ökonom: Vilfredo Pareto Rationale Entscheider, vollkommener Wettbewerb, homogene Güter und vollständige Information führen nach neoklassischer Überzeugung alle Beteiligten in einen idealen Zustand, das so genannte Pareto-Optimum . Benannt ist es nach Vilfredo Pareto  (1848-1923), einem italienischen Ingenieur und Soziologen. Handlungen sind Pareto-effizient, wenn durch ihr Ergebnis mindestens ein Akteur bessergestellt wird, ohne dass sich die Situation eines anderen Akteurs dadurch verschlechtert. Preisabsprachen, unehrliche Händler oder betrügerische Kunden schaden daher der Pareto-Effizienz, weil eine Seite zwar gewinnt, die andere aber verliert. Wenn einer sie alleine isst, tut dies der Effizienz keinen Abbruch Neben der Einsicht, dass Menschen faktisch irrational handeln und Märkte versagen können, gibt es noch eine weitere Kritik an der neoklassischen Wirtschaftstheorie: Ideale Wettbewerbsmärkte führen zwar theoretisch zu einem bestmöglichen Zustand. Ob dieser aber gerecht ist, ist eine ganz andere Frage. Pareto-Effizienz herrscht auch dann, wenn ein Einzelner einen ganzen Kuchen allein vertilgt. Der Egoist hat sich dadurch bessergestellt, aber ansonsten niemandem geschadet. Pareto selbst hatte sich eingehend mit diesem Problem beschäftigt. Für seine umfangreichen statistischen Recherchen konsultierte er Steuerbücher der Städte Basel und Augsburg aus dem 15. Jahrhundert, zeitgenössische Aufzeichnungen über Mieteinnahmen in Paris und Einkommenstabellen aus Großbritannien, Sachsen und Peru. Das 1909 veröffentlichte Ergebnis war über alle Epochen und Länder hinweg ebenso eindeutig wie ernüchternd: Seit Beginn der Aufzeichnungen bis zu Gegenwart ist der Reichtum in allen untersuchten Gesellschaften extrem ungleich verteilt. Im Durchschnitt gehören den reichsten 20% der Bevölkerung rund 80% aller Vermögen. Die übrigen 80% teilen sich die verbliebenen 20%. Pareto erschien diese Ungleichverteilung wie ein „soziales Gesetz“, etwas, das ganz offenbar in der „Natur des Menschen“ liegt. [vii]  Der alte Widerspruch von Freiheit und Gleichheit war nun erstmals quantifiziert: Ideale, effiziente Wettbewerbsmärkte insgesamt viel Wohlstand hervorbringen – Verteilungsgerechtigkeit können sie jedoch nicht sicherstellen. Das neoklassische Wirtschaftsethos, genährt aus dem Individualismus der Aufklärung , barg sozialen Sprengstoff.   Den Blog entdecken   Wer mehr wissen will: Gossen, Hermann Heinrich (1854):  „ Die Entwicklung der Gesetze des menschlichen Verkehrs und der daraus fließenden Regeln für menschliches Handeln.“, Vieweg. Marshall, Alfred (2013): „Principles of Economics”, Palgrave. Kahneman, Daniel (2011): „Schnelles Denken, langsames Denken“, Siedler. Akerlof, George / Shiller, Robert (2010): „Animal Spirits“, Princeton University Press.   Bildnachweise: Daniel Kahneman Gebrauchtwagen Torte [i] Gossen (1854) S.1. [ii]  Gossen (1854) S.1. [iii]  Die Bestimmung des Gewinnmaximums ist für die meisten Unternehmen wesentlich komplexer als die Nutzenmaximierung der Haushalte, da Teile der Kosten, etwa Mieten, fix, andere Kostenteile wie Materialverbrauch hingegen variabel sind. Die Grenzkosten ergeben sich dann aus der Ableitung der Gesamtkostenfunktion. [iv]  Vgl. Marshall (2013) S.290. [v]  Die Preiselastizität der Nachfrage darf nicht mit der Steigung der Nachfragekurve verwechselt werden. Die Steigung einer linearen Nachfragekurve ist an allen Stellen gleich; Elastizitäten können hingegen durch den sich laufend ändernden Grenznutzen an jeder Stelle der Kurve unterschiedlich ausfallen. [vi]  Vgl. Kahneman (2011) S.447-452. [vii]  Vgl. Mandelbrot (2007) S. 153 f.

  • Geschichte der Mathematik: Wie man das Gewicht der Erde berechnet

    Fortsetzung von: "Eine kurze Geschichte der Geometrie " Jagd auf das Unbekannte: Die Entstehung der Algebra Entgegen einem verbreiteten Vorurteil war das Mittelalter   eine Epoche wichtiger Fortschritte. Das gilt auch für die Mathematik. Indische Gelehrte wie Brahmagupta   entwickelten das Dezimalsystem   und erfanden die Null ; der Italiener Fibonacci  verband als einer der Ersten Mathematik und Naturbeobachtung. Eine ganz besondere Rolle kommt dem Perser Muhammad ibn Musa al-Chwarizmi  zu. Um das Jahr 830 verfasste er ein Buch mit dem Titel „Rechnen mithilfe der Ergänzung und des Ausgleichs“, in der er das Wissen des Griechen Diophantos von Alexandria  mit dem Brahmaguptas verband. Diese neue Synthese aus Ost und West bezeichnete Al-Chwarizmi als al-gabr “.   Statue des Muhammad ibn Musa al-Chwarizmi: Von seinem Namen leitet sich der Begriff " Algorithmus" ab. Was man alles auf eine Waage legen kann… Al-Chwarizmis einfache Darstellungen wurden mehrfach ins Lateinische übertragen. Der Gelehrte aus dem Orient begegnet uns daher auch heute noch auf Schritt und Tritt: Aus seiner Methode al-gabr wurde Algebra , aus dem arabischen Wort „ Sifr “ für „ Null “ entstand das Wort „ Ziffer “ und der Name des Autors wurde in dem Wort „ Algorithmus “ verewigt.   Algebra  erlaubt es uns, zahllose Zusammenhänge in allgemeiner Form darzustellen. Allgemein, weil wir zum Beispiel Buchstaben als Platzhalter verwenden können: a´`2 + b´`2 = c´`2. Die vielleicht bekannteste Gleichung der Welt beschreibt die Beziehung zwischen den Quadraten, die sich aus den Seiten eines rechtwinkligen Dreiecks konstruieren lassen. Diese Beziehung gilt immer, ganz gleich welche reelle Zahlen wir als Variablen für die Buchstaben einsetzen. Die beiden Aussagen links und rechts des Gleichheitszeichens wiegen gewissermaßen gleich schwer; wir können sie uns wie die Schalen einer Waage im Gleichgewicht vorstellen. Auf der linken Schale lasten a´`2 + b´`2, auf der rechten c´`2. Eine Seite aus al-Chwarizmis Buch Sind zwei „Gewichte“ bekannt, beispielsweise 3 für b und 5 für c, können wir das dritte „Gewicht“ ausrechnen. Al-Chwarizmis Methode des systematischen Ausgleichens beschreibt, wie sich der fehlende Wert „a“ bestimmen lässt. Bei der Betrachtung von a´`2 + 9 = 25 stört, dass sich in der Waagschale für a auch noch die 9 befindet, wir müssen sie daher entfernen. Damit gerät die Waage allerdings aus dem Gleichgewicht, denn die rechte Waagschale wiegt nun 9 schwerer als die linke. Nehmen wir nun auch auf der rechten Seite 9 weg, kommt das Ganze wieder ins Lot. Mathematisch ausgedrückt : a ´` 2 + 9 - 9 = 25 - 9 . Diese Beziehung können wir arithmetisch vereinfacht als a´`2 = 16 darstellen. Nach derselben Logik lassen sich nun beide Seiten der Gleichung einer Wurzelbehandlung unterziehen:   Somit erhalten wir a = 4. Die konkrete Ausprägung des Satz des Pythagoras   lautet in diesem Fall also: 16 + 9 = 25.   Man kann so ziemlich alles auf die algebraische Waage legen, zur Not auch den Planeten Erde Ausgerechnet! Algebra  erlaubt uns also, das Unbekannte zu finden. Damit lässt sich Wissenschaft betreiben. Über die Kenntnis abstrakter Zusammenhänge bringen wir Neues in Erfahrung. Wir müssen nicht losziehen und die Seite „a“ des Weizenfeldes abschreiten oder eine Bildschirmdiagonale mit dem Zollstock ausmessen. Algebraisches Wissen hat der Menschheit bereits unzählige Tonnen Schweiß und unzählige Jahre Arbeit erspart: Bereits die babylonischen Landvermesser konnten sich in der Mittagshitze einfach unter einen Baum setzten und die fehlende Information ausrechnen. Mathematik lehrt uns eindrücklich, dass Studieren über Probieren geht.  a´`2 + b ´` 2 = c ´` 2 als algebraische Darstellung einer geometrischen   Beziehung.3,4 und 5 ist dabei nur eines unter unendlich vielen pythagoreischen Zahlentripeln Die Ausgleichstechnik erlaubt es uns, selbst Dinge auf die virtuelle Waagschale zu legen, die wir in der Realität niemals wiegen könnten. Newtons Gravitationsformel   – beschreibt etwa die Kraft, mit der sich zwei Massen gegenseitig anziehen. Diese Massen können beispielsweise ein Apfel und die Erdkugel sein. Durch algebraische Umformungen lässt sich die Formel einfach nach der Erdmasse auflösen und der Apfel verrät uns, dass die Masse der Erde rund 5.973 Milliarden Billionen Tonnen beträgt. Experimentell ließe sich diese Zahl unmöglich bestimmen, doch Algebra löst das Problem auf eine verblüffend einfache Art und Weise. Newton erkannte, dass nicht nur die Erde den Apfel anzieht, sondern auch der Apfel die Erde Alles, was sonst noch unter Algebra behandelt wird, sind Variationen dieses Themas. Stets geht es um einen Ausgleich, wobei die technische Durchführung in einigen Fällen recht anspruchsvoll sein kann.   Dazu gehören Gleichungen höherer Ordnung , bei denen die Unbekannte in der zweiten, dritten oder einer noch höheren Potenz steht (x´`2, x´`3 … x´`n) oder lineare Gleichungssysteme , bei denen viele verschiedene Gleichungen und Unbekannte (x1, x2, … xn) zueinander in Beziehung gesetzt werden. Solchen Schwierigkeiten rückt man mit Polynomdivision, Eliminationsverfahren (ein einfaches Verfahren für lineare Gleichungen stammt übrigens von Gauß) Linearer Optimierung, Matrizen- oder Vektorrechnung zu Leibe. Doch letztlich stecken dahinter stets al-Chwarizmis algebraische Ausgleichs- und Umformungsregeln. [i]   Der kurze Weg von „einfach“ nach „unmöglich“ Bereits in der Antike   war bekannt, dass es für den Satz des Pythagoras unendlich viele so genannte pythagoreische Tripel gibt, also drei natürliche Zahlen, die die Gleichung a´`2 + b´`2 = c´`2 erfüllen, wie etwa 3, 4 und 5 oder 119, 120 und 169. Intuitiv würden wir daher für a´`3 + b´`3 = c´`3 und höhere Potenzen dasselbe erwarten. Doch Intuition ist in der Mathematik kein guter Ratgeber. Denn wie der Franzose Pierre de Fermat  bereits im 17. Jahrhundert vermutete, gibt es für diese höheren Potenzen überhaupt keine Lösung. Vermutete richtig: der Rechtsanwalt und Zahlenjongleur Pierre de Fermat Fermat musste damals den Beweis für seine Vermutung schuldig bleiben. Allerdings ist dieser Nachweis auch alles andere als trivial. Nachdem sich 350 Jahre lang zahllose Mathematiker an ihm versucht haben, gelang dem Briten Andrew Wiles  1994 schließlich, nach vieljähriger Arbeit, das Kunststück den Beweis der Unmöglichkeit zu erbringen. Für die Darstellung seines Gedankengangs brauchte er über 100 Seiten. Die vermeintlich einfache Erhöhung eines Exponenten von 2 nach 3 führt hier von simpler Schulmathematik zu einer selbst für die versiertesten Mathematiker kaum nachzuweisenden Unmöglichkeit…   Den Blog entdecken   Wer mehr wissen will: Beutelspacher, Albrecht (2010): „Kleines Mathematikum“, C.H. Beck. Pickover, Clifford A (2014): „Das Mathebuch“, Librero. Bryson, Bill (2024): “Eine kurze Geschichte von fast allem“, Goldmann     Bildnachweise: Statue al-Chwarizmis Andrew Wiles unter der Statue von Pierre de Fermat   Anmerkungen: [i]  Matrizenbasierte Gleichungssysteme führte zur Entwicklung des Operations Research , das heute vor allem in den Ingenieurs- und Wirtschaftswissenschaften eingesetzt wird, dessen Ursprünge aber im Zweiten Weltkrieg liegen. Alliierte Wissenschaftler suchten damals nach mathematischen Modellen zur Unterstützung militärökonomischer Fragestellungen: Wie lässt sich die Wirkung von Bombenteppichen maximieren? Welches Kosten-Nutzen-Verhältnis von Transport- zu bewaffneten Begleitschiffen minimiert die Verluste eines Geleitzugs?

  • Schicksalhafte Erbträger: Eine kurze Geschichte der Genetik

    Fortsetzung von: "Unintelligentes Design - Darwins Evolutionstheorie" Ein neugieriger Augustinermönch Am 8. Februar 1865, keine sechs Jahre nach der Veröffentlichung der „ Entstehung der Arten “ brütete der österreichische Augustinermönch Gregor Mendel  über den letzten Feinheiten des Vortrags, den er am Abend vor den Mitgliedern des Naturforschenden Vereins von Brünn halten würde. Noch waren die Beete im Klostergarten vom Schnee bedeckt. Doch in einigen Monaten würden hier seine Hülsenfrüchte wieder Spalier stehen. Über viele Jahre hatte er alles genau beobachtet und akribisch für über 10.000 gemeine Gartenerbsen aufgezeichnet, wie sich deren Merkmale von Generation zu Generation veränderten. Dabei war ihm etwas aufgefallen: Erbsen, bei denen der eine Elternteil und dessen Vorfahren jeweils nur rote und der andere jeweils nur weiße Blütenblätter aufwiesen, hatten stets rote Blüten. Kreuzte man die Nachkommen aber untereinander, zeigte sich, dass in 25% aller Fälle die nächste Generation weiße Blütenblätter aufwies. Ganz offenbar wurden die Merkmale nach einem genau definierten Muster vererbt. Ausprägungen, die sich in der nächsten Generation gegenüber denen des anderen Elternteils durchsetzen, bezeichnete Mendel als „dominant“, die unterlegenen als „rezessiv“. [i] Hielt sich gerne in seinem Garten auf: Gregor Mendel Weder Mendels Vortrag noch seine Veröffentlichung erzeugten irgendein unmittelbares Echo. Der Augustinermönch war seiner Zeit wohl zu sehr voraus, um beachtet zu werden. Niemand hatte verstanden, dass er soeben jene Wissenschaft begründet hatte, die einst das Rätsel um Darwins Variabilität   lösen sollte. Anfang des 20. Jahrhunderts gelang dann dem Amerikaner Walter Sutton  und dem Deutschen Theodor Boveri  der nächste Erkenntnisschritt. Die beiden stellten – einmal mehr – unabhängig voneinander eine Theorie auf, mit der sich die Mechanik der Mendelschen Regeln   erklären ließ. Sie besagt, dass eine als Chromosomen  bezeichnete Substanz im Zellkern   der Träger der vererbten Merkmale ist. 1953 schließlich publizierten der Amerikaner James D. Watson  und der Brite Francis Crick  einen kurzen Aufsatz über die „Molekulare Struktur von Nukleinsäuren“. Er schloss mit der Bemerkung: „Es ist unserer Aufmerksamkeit nicht entgangen, dass die speziellen Paarungen […] unmittelbar auf einen möglichen Vervielfältigungsmechanismus für die genetische Erbsubstanz schließen lassen.“ [ii] 1962, fast hundert Jahre nach Mendels Entdeckung, erhielten die beiden Molekularbiologen den Nobelpreis für Medizin. Watson und Crick hatten mit einem erstaunlich einfachen Modell Mendels Regeln, die Chromosomentheorie der Vererbung und die Evolutionslehre auf eine molekulare Grundlage gestellt. Sie hatten die Maschinerie entdeckt, mit der Information von einer Generation auf die nächste übertragen wird. [iii]     James D. Watson Francis Crick Wie das Leben Informationen kodiert Träger dieses Wissens ist ein Molekül, das von seiner Erscheinung her an eine verdrehte Strickleiter erinnert, eine doppelte Helix mit Holmen aus Zucker- und Phosphorsäurebausteinen und Sprossen aus den vier Basen   Adenin , Thymin , Guanin  und Cytosin . Die Desoxyribonukleinsäure , kurz DNS , ist das größte Molekül, das wir im Universum   kennen, eine molekulare Festplatte, die unvorstellbar viel Information enthält. So wie bestimmte Buchstabenkombinationen Wörter bilden und dadurch eine Bedeutung erhalten, stellen auch bestimmte Sequenzen der Basen Mitteilungen dar. Das Schriftmolekül erzählt mit nur vier Lettern A, T, G und C den Roman des Lebens. Die Sätze dieses Romans bezeichnen wir als Gene . Chemisch gesehen sind Gene nichts weiter als bestimmte Abschnitte des DNS-Moleküls, die Anweisungen für die Herstellung von Proteinen  geben. [iv]   Kohlenhydrate und Lipide geben dem Leben Struktur und Energie – Proteine geben ihm seine Individualität : Das Pigment Melanin  bestimmt beispielsweise Haut-, Haar- Fell- und Augenfarbe bei Mensch und Tier. Je nachdem, welche Menge Melanin in der Iris eingelagert wird, erscheint das Auge als blau, grün oder braun. Aktin  und Myosin  bilden Muskelmasse und bestimmen so ebenfalls das äußere Erscheinungsbild; Hormone  wie Oxytocin  oder Testosteron  haben einen maßgeblichen Einfluss auf unser Verhalten. Die Rolle der DNS gleicht der eines mittelalterlichen Kathedralenbaumeisters: In jedem Stein steckt die Möglichkeit, zu einem beliebigen Element der Kathedrale zu werden. Der Baumeister kennt als einziger den gesamten Plan. Nach seinen Anweisungen entstehen aus rohen Bruchsteinen glatte Mauerstücke, Elemente eines Pfeilers, der Schlussstein eines Torbogens oder die Fratze eines Wasserspeiers. Jeder Stein hat eine bestimmte Funktion – zusammen formen sie ein atemberaubendes Ganzes. Genauso stellt das Informationsmolekül sicher, dass aus einer einzigen Zelle durch immer neue Teilungsprozesse Wurzeln, Blätter, Blüten, Haare, Herzmuskelgewebe oder Nervenstränge entstehen. Ein ausdifferenzierter Organismus besteht aus Billionen von Zellen mit hunderten von spezialisierten Zelltypen. Doch wie bewerkstelligen die Gene diese Aufgabe? Wie stellen sie sicher, dass Haut-, Haar- und Regenbogenhautzellen Melanin produzieren, Herzmuskelzellen hingegen Aktin und Myosin? Um diese Frage zu beantworten, müssen wir etwas ausgreifen.   Wie entstehen Organismen? Zunächst gilt es zu verstehen, wie ein Organismus wächst. Bei Lebensformen mit sexueller Vermehrungsstrategie (es gibt auch Strategien, die ohne Sex  funktionieren) steht am Anfang eine befruchtete Eizelle, eine Zygote . Sie enthält den vollständigen, von Vater und Mutter ererbten Bauplan. Durch Zellteilung differenziert sie sich zu einem neuen Individuum aus. Bevor sich die Zygote zum ersten Mal teilt, muss sie sicherstellen, dass jede Tochterzelle eine vollständige Kopie ihres Bauplans erhält. Jeder Stein muss gleichsam das Wissen um die gesamte Kathedrale in sich tragen. Nur so kann sich der wachsende Organismus alle Differenzierungsmöglichkeiten offenhalten. Das Kopieren des Bauplans, die Replikation , ist eine hochkomplexe biochemische Prozesskette, die durch eine Vielzahl von Enzymen gesteuert wird. Die Enzyme entwinden zunächst die verdrehte Struktur der Doppelhelix und trennen die schwachen Bindungen der Basenpaare. Da sich jede Base nur mit genau einem komplementären Partner verbinden kann – Adenin immer nur mit Thymin, und Guanin immer nur mit Cytosin – enthält jeder der beiden getrennten Stränge immer noch die vollständige und eindeutige Information . Der Replikationsprozess der DNS-Doppelhelix Im nächsten Schritt wird die jeweils fehlende Hälfte unter tatkräftiger Mitwirkung von Enzymen Stück für Stück wieder mit den komplementären Bausteinen ergänzt; die Zelle hat sie zuvor eigens zu diesem Zweck hergestellt: Adenin wird mit einem Thymin-Baustein verbunden, Guanin mit einem Cytosin-Partner und umgekehrt. Dadurch entstehen aus einem alten zwei neue DNS-Stränge, die jeweils zur Hälfte aus dem aufgetrennten Mutterstrang und dem neu gebildeten Tochterstrang zusammengesetzt sind. Zum Abschluss führt der Zellkern eine aufwändige Qualitätskontrolle durch, bei der ein weiteres Enzym die Basenfolge noch einmal abliest und mögliche Kopierfehler korrigiert. Die DNS ist im Zellkern in Päckchen aufgeteilt, eben jene von Boveri und Sutton beschriebene Chromosomen. Nach dem Verdopplungsprozess besteht jedes Chromosom aus zwei genetisch identischen Chromatiden , die in der Mitte, dem Centromer, miteinander verbunden sind. Die Anzahl der Chromosomen ist artspezifisch, es gibt keinen Zusammenhang mit der Komplexität der jeweiligen Lebensform: Menschen haben 23 Chromosomen, Kartoffeln und Schimpansen jeweils 24, Krabben hingegen 127. Da Zygoten aus der Verschmelzung zweier Geschlechtszellen hervorgehen, enthalten sie jedes Chromosom zweimal – beim Menschen also 46 Chromosomen, die je zur Hälfte von Mutter und Vater stammen. Chromosom mit zwei Chromatiden kurz vor der Zellteilung Nachdem sich die Chromosomen verdoppelt haben, wird die Mitose , die Zellteilung , eingeleitet. Der Zellkern löst sich auf und die freigelassenen Chromosomen wandern zur Zellmitte. An den beiden Polen der Zelle bilden sich fangarmartige Spindelapparate, die jeweils eines der beiden Schwesterchromatiden auf ihre Seite ziehen. Nach der Trennung werden die Chromatiden mit einer neuen Zellkernmembran umgeben, danach teilt sich die Zelle in zwei Tochterzellen: bei Pflanzen geschieht dies durch die Errichtung einer neuen Zellwand; bei tierischen Zellen durch Einschnüren mit Hilfe von Aktin-Myosin-Fasern. Jede der neu entstandenen Tochterzellen enthält nun einen einfachen Chromosomensatz, der mit dem der Schwesterzelle völlig identisch ist. Nach einer Wachstumsphase und einer weiteren DNS-Replikation wird die nächste Zellteilung eingeleitet – ein exponentieller Wachstumsprozess, der sicherstellt, dass jeder Abkömmling den ursprünglichen Bauplan vollständig in sich trägt.   So entstehen die verschiedenen Zelltypen Woher aber weiß die einzelne Zelle, welchen Teil des Erbes sie antreten darf? Diese Nachlassverwaltung übernimmt die Genexpression  mit ihren beiden Prozessen Genregulation  und Proteinbiosynthese . Sie sorgt dafür, dass sich in dem wachsenden Organismus nach und nach unterschiedliche Gewebe und Organe ausprägen. Die Genregulation gewährleistet mithilfe chemischer Aktivatoren, dass nur jene Rezepte abgerufen werden, die der jeweilige Zelltyp für seine Aufgabe auch benötigt: Muskelzellen sollen hauptsächlich Aktin und Myosin herstellen, Haarzellen Melanin. Nicht benötigte Rezepte werden durch Repressoren blockiert. Daneben gibt es etliche Gene, die im Normalfall nie zum Zug kommen; sie sind das Erbe der Vorfahren, das in der aktuellen Umwelt seine Bedeutung verloren hat und daher durch Selektionsmechanismen abgeschaltet wurde – so verfügen wir Menschen etwa immer noch passiv über die Anleitung für die Herstellung von Affenfell und Affenschwanz. Die Proteinbiosynthese , die Herstellung der zelltypspezifischen Eiweiße, beruht auf einem einfachen Prinzip: Proteine   sind letztlich nichts anderes als lange Ketten von Aminosäure-Bausteinen, wobei die konkreten Eigenschaften des jeweiligen Eiweiß durch die Reihenfolge der Säuren bestimmt wird. Eine bestimmte Sequenz lässt Myosin entstehen, eine andere Aktin, eine weitere Melanin. Im menschlichen Genom sind rund 20.000 solcher Eiweiß-Rezepte hinterlegt – weniger übrigens als bei Fadenwürmern, Wasserflöhen oder zahlreichen Unkräutern. Es kommt also nicht auf die Anzahl der Gene an, sondern auf das, was der Organismus aus ihnen macht. Proteinherstellung durch Translation Die Proteinbiosynthese besteht aus zwei verschiedenen Prozessen, die als „ Transkription “ und „ Translation “ bezeichnet werden, als „Abschrift“ und „Übersetzung“. Die Transkription ähnelt in mancher Hinsicht der Replikation: Ein Enzym trennt die DNS in zwei Stränge. Allerdings dient diesmal nur einer der beiden Stränge als Kopiervorlage und es werden immer nur einzelne Gene kopiert. Des Weiteren kommt eine etwas andere Chemie zum Einsatz: Statt Desoxyribose wird der Zucker Ribose verwendet, statt Thymin die Base Uracil. Das Ergebnis des Transkriptionsprozesses ist das Nachrichtenmolekül „m-RNS “. Das kleine „m“ steht dabei für Englisch „messenger“, das „R“ für den Ribose-Baustein. Aufgabe der m- RNS ist es, die Botschaften der DNS  an die Ribosomen zu übermitteln. [v] An den Ribosomen vollzieht sich der zweite Teil der Proteinbiosynthese, die Translation, bei der der eigentliche Produktionsauftrag abgearbeitet wird. Insgesamt 22 verschiedene Aminosäuren können als Rohstoffe bei der Proteinherstellung zum Einsatz kommen. Jede Säure wird durch eine Reihenfolge von nur drei Basen exakt definiert. Beispielsweise codiert das Basentriplet AUG (Adenin, Uracil, Guanin) für die Aminosäure „Methionin“. [vi]  Bei der Produktion hilft eine zweite RNS, die t-RNS (das t steht dabei für Translation). Wie das Abschrift-Molekül wurde auch das Übersetzer-Molekül zuvor von der Zelle hergestellt. Aus den Abbauprodukten des Eiweiß-Stoffwechsels sucht die t-RNS die von der m-RNS festgelegten Aminosäuren heraus und verbindet sie zu Peptidketten, die sich zu Melanin, Aktin, Myosin, Melatonin, Elastin, Kollagen und tausenden weiteren Proteinen zusammenfügen. So wie der Steinmetz die Anweisungen des Kathedralenbaumeisters umsetzt, materialisiert die Proteinbiosynthese die Informationen des Zellkerns, um verschiedene Zelltypen auszuprägen: Die DNS ist das Wissen; die Proteine sind das Handeln.   Der Einfluss der Eltern  Bisher haben wir nur betrachtet, wie Organismen wachsen und sich dabei ausdifferenzieren. Damit sind allerdings weder Darwins  Variabilität noch Mendels Vererbungsregeln erklärt. Wie kann es beispielsweise sein, dass Eltern mit braunen Augen ein Kind mit blauen Augen haben können, blauäugige Eltern aber kein Kind mit braunen Augen? Um diese Fragen zu beantworten,   müssen wir noch einmal zur Ursprungszelle des neuen Organismus zurückgehen. Die Zygote ist die Verschmelzung einer weiblichen mit einer männlichen Geschlechtszelle. Wie alle anderen Zelltypen sind auch Spermien und Eizellen aus der Mitose entstanden und haben somit den zweifachen, von Mutter und Vater ererbten Chromosomensatz. Dies aber führt zu einem offenbaren Problem: Da bei einer Befruchtung die beiden Keimzellen  miteinander verschmelzen, würde sich mit jeder neuen Generation die Anzahl der Chromosomen verdoppeln. Wie bei den Reiskörnern auf dem Schachbrett, wäre das Fassungsvermögen der Zelle für ihre Erbträger nach wenigen Generationen gesprengt. Geschlechtszellen  haben daher einen eigenen Zellteilungsprozess, die Meiose . Der wichtigste Unterschied zur Mitose ist ein vorgelagerter zusätzlicher Schritt, die Reduktionsteilung, bei dem der doppelte Chromosomensatz halbiert wird – im Falle des Menschen also von 46 auf 23 Chromosomen. Ein doppelter Chromosomensatz bedeutet, dass jedes Gen einmal in einer von der Mutter und einmal in einer von dem Vater ererbten Ausprägung vorliegt. Doppelte Gene, die für das gleiche Protein codieren, werden als homolog bezeichnet. Es kann nun sein, dass der DNS-Abschnitt, der die Augenfarbe bestimmt, beim väterlichen Chromosom die Anweisung enthält, nur wenig Melanin herzustellen – das ergibt blaue Augen. Falls das homologe mütterliche Gen diesbezüglich aktiver ist, werden die Augen braun.   Der Zufall spielt immer mit Welches der beiden Gene zum Zuge kommt, wird bereits im ersten Schritt der Meiose entschieden: Die homologen Chromosomen ordnen sich in der Zellmitte an, wobei es vollkommen dem Zufall   überlassen ist, auf welcher Seite des Zelläquators sich die mütterlichen und väterlichen Chromosomen jeweils wiederfinden. In dieser Lotterie bekommt der Zufall sogleich noch eine weitere Chance: Während der Anordnungsphase können sich die homologen Chromosomen berühren und dabei beim sogenannten „ Crossing over “ untereinander Chromatidenabschnitte austauschen. Nach dieser Rekombination sind die Gene nun, wie für ein Kartenspiel, gründlich gemischt. Die Spindelapparate teilen die Chromosomen gleichmäßig auf die beiden Zellhälften auf, sodann teilt sich die Zelle. Die zwei Teilschritte der Meiose: Das graue Chromosom repräsentiert die väterliche Seite (blaue Augen), das schwarze die mütterliche (braune Augen) Der zweite Meiose-Schritt verläuft nun im Wesentlichen analog der Mitose. Die Chromosomen werden nochmals in ihre beiden Chromatiden getrennt, anschließend teilt sich die Zelle ein weiteres Mal. In zwei Schritten sind so aus einer Zelle mit doppeltem Chromosomensatz vier Keimzellen mit jeweils nur einem Chromatid entstanden. Auf väterlicher Seite werden alle vier Keimzellen zu Spermien, während sich mütterlicherseits nur eine der vier Keimzellen zu einer Eizelle ausbildet. Mit dem Verschmelzen von Spermium und Eizelle, entsteht wieder eine Körperzelle mit doppeltem Chromosomensatz. Während die Mitose also alles daran setzt, die Originaltreue der Kopiervorlage zu bewahren, ist die Meiose darauf angelegt, jede Keimzelle mit einer neuen, einzigartigen Variante des genetischen Materials auszustatten. [vii]  Der Rekombinationsmechanismus ist jedoch nicht die einzige Möglichkeit, Neues in die Welt zu setzen. Zu Darwins Variabilität trägt ebenfalls bei, dass es trotz aller Sorgfalt auch bei der DNS-Replikation zu Fehlern kommen kann. Umweltfaktoren, wie elektromagnetische Strahlen, können zu winzigen, dauerhaften Veränderungen des Bauplans führen. Diese Mutationen haben zur Folge, dass die DNS nun für ein anderes Protein mit anderen Eigenschaften codiert oder dass sich die Genregulation nichtcodierender DNS-Abschnitte verändert. Während die Rekombination also lediglich vorhandene Karten neu mischt, bringt die Mutation durch „biochemische Unfälle“ neue Karten ins Spiel. Ob sich die durch die beiden Evolutionsmotoren Rekombination und Mutation erzeugten Veränderungen bewähren, entscheidet allein die Selektion . [viii]   Farbabstufungen des Auges Die Genetik der mendelschen Regeln Bis jetzt haben wir aber noch immer nicht geklärt, wie die molekularen Vervielfältigungsprozesse mit den Mendelschen Regeln  zusammenhängen. Betrachten wir dazu noch einmal das Gen, das für die Augenfarbe codiert: In der Zygote findet sich eine vom Vater ererbte DNS-Sequenz für blaue Augen und eine von der Mutter stammende Kodierung für braune Augen. Die Augenfarbe des Kindes hängt von der genauen Gen-Variante, dem Allel, ab. Gene bestimmen lediglich das „was“ – also etwa die Augenfarbe als solche. Allele hingegen legen das „wie“ fest, die konkrete Ausprägung – bei der Augenfarbe also blau, grün oder braun. Unter den Allelen  herrscht Rivalität, es gibt eine festgelegte Hackordnung : Die Variante braun („stelle viel Melanin her“) ist „dominant“; die unterlegene Variante blau („stelle wenig oder kein Melanin her“) ist „rezessiv“. Im direkten Kräftemessen sticht immer das dominante Allel. Ererbt das Kind also ein braunes und ein blaues Allel, so wird es stets braune Augen haben. Pflanzt sich dieser Nachfahr seinerseits mit einem Partner fort, der ebenfalls Träger eines braunen und eines blauen Allels ist, werden nach den Gesetzen der Kombinatorik im Durchschnitt 75% aller Nachfahren braune Augen haben – nämlich die Kombinationen braun-braun, braun-blau, blau-braun. In 25% der Fälle aber, wenn zwei blaue Allele aufeinandertreffen, sind die Augen blau. Die von Mendel gefundene Uniformitäts- und Spaltungsregel Allerdings sind die Zusammenhänge oftmals nicht ganz so einfach. Die Mendelschen Regeln gelten nämlich nur unter sehr speziellen Voraussetzungen, nämlich bei sexueller Vermehrung mit dominant-rezessivem Erbgang, bei dem nur ein einziges Gen das Merkmal festlegt. Diese drei Bedingungen sind kumulativ in der Natur aber nur selten erfüllt: Es gibt, wie erwähnt, zahlreiche Lebensformen, die sich nicht sexuell fortpflanzen, darunter sämtliche Einzeller. Bestimmte sexuelle Erbgänge, kennen kein dominant-rezessiv-Schema, sondern erzeugen, wie die intermediäre Vererbung, Mischformen. Blumen, deren Eltern rote und weiße Blüten haben, weisen dann eine rosa Farbe auf. Insbesondere aber ist die Merkmalsbestimmung durch ein einziges Gen in der Natur eher die Ausnahme: Das Erscheinungsbild, der Phänotyp, ergibt sich zumeist aus einem undurchsichtigen Zusammenspiel verschiedener Erbträger. [ix]     Lesen können heißt nicht verstehen Da die Vererbung keinen einfachen deterministischen Zusammenhängen folgt, haben sich auch nicht die großen Hoffnungen erfüllt, die man um die Jahrtausendwende in das internationale Humangenomprojekt  gesetzt hatte. Zwar gelang es, sämtliche menschliche Erbträger zu sequenzieren, doch es war so, als ob man ein Buch in einer fremden Sprache gelesen hätte. Das Buchstabieren von Zeichenfolgen garantiert eben noch nicht, dass sich dadurch auch ein Sinn erschließt. Das Projekt machte deutlich, dass wir bis heute die komplexen Wechselwirkungen der Genexpression noch kaum verstehen. Doch es lieferte auch einige wichtige Erkenntnisse. Insbesondere zeigte es die verblüffende Universalität des Gencodes: Kaum eine Art verfügt über eigene, exklusive Gene. Das Genom, das alle Menschen miteinander teilen, ist zu 99,9% identisch; aber auch bei unseren nächsten Verwandten, den Schimpansen, beträgt der gemeinsame Genpool immer noch fast 99%. Zwar kommen rund 7% aller Proteinfamilien nur in Wirbeltieren vor, doch die große Mehrzahl der menschlichen Erbanlagen findet sich auch bei Flusskrebsen, Fruchtfliegen, Steinpilzen und Broccoli. Die Genetik liefert heute die stärksten Argumente für die Richtigkeit der Evolutionstheorie . Erneut zeigt sich hier auch der Konservativismus der biologischen Entwicklung: Anstatt neue Bausteine zu schaffen, zieht sie es vor, seit Jahrmilliarden bewährten Elemente ständig neu zu kombinieren.   Der Mensch kann den Verlauf der Evolution steuern Das Wissen um die Allgemeingültigkeit des Gencodes hat konkreten praktischen Nutzen. Wurde vor einigen Jahren noch das für die Behandlung von Diabetes notwendige Insulin aufwändig aus den Bauchspeicheldrüsen von Schweinen extrahiert, stellen heute in Bakterien und Hefepilze verpflanzte menschliche Gene das Hormon zuverlässig in großen Mengen her. Es ist denkbar, dass solche artenübergreifende horizontale Gentransfers eines Tages die Erschaffung von Zwitterwesen ermöglichen, wie wir sie bisher nur aus der Mythologie kennen. [xi]  Die Manipulation des Gencodes ist nichts grundsätzlich Neues – sie gibt es, seit der Mensch Pflanzen und Tiere mittels Zuchtwahl domestiziert. Doch die Möglichkeiten des technischen Gentransfers werden diese Entwicklung noch einmal exponentiell beschleunigen. Die Fähigkeit, Geschwindigkeit und Richtung der biologischen Evolution gezielt beeinflussen zu können ist heute zweifelsohne eine der weitreichendsten Folgen der kulturellen Evolution des Menschen.   Das egoistische Gen Folgen wir der Theorie der Evolutionsbiologen George C. Williams, Edward O. Wilson  und Richard Dawkins  unterliegen wir hier allerdings einer Illusion: Nicht wir nutzen Gene zu unseren Zwecken, sondern die Gene benutzen uns! Nicht Arten oder einzelne Individuen kämpfen um ihr Dasein, sondern die Gene selbst. Da sie sich ohne Unterlass replizieren sind die Molekülketten potentiell unsterblich. Die biologischen Arten sind letztlich nur Replikationsplattformen deren sich „egoistische Gene“ skrupellos bedienen. In dieser Perspektivenumkehr sind sämtliche Spezies letztlich reine, roboterhaft fremdgesteuerte Erfüllungsgehilfen der DNS, Experimentalformen, die selbstsüchtige Gene in einem ewigen Kampf ums Überleben gegeneinander antreten lassen. [xii]   Propagiert die Selbstsucht der Erbträger: Richard Dawkins Die Theorie vom „ egoistischen Gen “ ist freilich umstritten. Unstrittig ist hingegen, dass Gene nicht nur unser Aussehen bestimmen, sondern auch erheblichen Einfluss auf unser Verhalten und unsere Persönlichkeit haben. Denn unser Handeln wird zu einem maßgeblichen Teil durch Hormone   bestimmt. Welche Mengen von welchen Botenstoffen hergestellt werden und wie gut unsere Rezeptoren sie verarbeiten können, ist in unseren Erbanlagen festgeschrieben: Ein hoher Spiegel des Hormons Serotonin  lässt uns als vertrauensvolle, gelassene und risikobereite Frohnaturen durchs Leben gehen; ein Mangel macht uns zu misstrauischen Griesgramen. Welcher Anteil unserer Persönlichkeit genetisch bedingt und welcher auf Erfahrungen unseres neuronalen Netzwerks zurückzuführen ist, ist umstritten   – manche Wissenschaftler bringen selbst politische Einstellungen mit unserer DNS  in Verbindung.   Spielen die   Gene tatsächlich die Rolle, die wir früher den Sternen zugeschrieben haben, bestimmen sie unser Schicksal?   Die Umwelt hat ein Mitspracherecht Die noch relativ junge genetische Teildisziplin Epigenetik  lässt die Dinge in einem weniger dramatischen Licht erscheinen. Tatsächlich hat sich seit der Jahrtausendwende mehr und mehr gezeigt, dass die Gene auch mit der Umwelt im Dialog stehen. Faktoren, wie Temperatur, Ernährung oder Stress können Aktivatoren  und Repressoren beeinflussen und verschaffen sich so ein direktes Mitspracherecht bei der Verwirklichung unseres genetischen Potentials. Das Schicksal einer Bienenlarve wird nicht nur durch ihre Erbanlagen, sondern auch durch ihre Ernährung bestimmt: Wird sie mit Gelée Royale gefüttert, wird aus ihr eine Königin – andernfalls landet sie in der riesigen Heerschar der Arbeiterinnen; bei Krokodilen und Schildkröten entscheidet die Umgebungstemperatur, ob aus einem Ei ein männliches oder ein weibliches Tier schlüpft; menschliche eineiige Zwillinge, bei ihrer Geburt nicht zu unterscheiden, entwickeln sich mit zunehmendem Alter zusehends auseinander; trotz identischer Genausstattung erkrankt ein Zwilling an Diabetes, der andere nicht.   Unser Schicksal liegt nicht (nur) in den Genen Die Beispiele zeigen, dass wir keine starre mathematische Funktion unseres Erbguts sind. Unser Genom ist keine Schablone, aus der sich unser Schicksal von vornherein ablesen ließe. Epigenetische Programme bestimmen gewissermaßen als Software, die auf unserer genetischen Plattform läuft, welche passiven DNS-Sequenzen in einer bestimmten Situation aktiviert werden. Die bisher verblüffendste Erkenntnis in diesem Zusammenhang ist, dass diese umweltinduzierten Expressionen sogar vererbt werden können. Lamarck , der für seine These von der Weitergabe erworbener Eigenschaften viel Spott einstecken musste, ist durch die aktuelle Genforschung ein Stück weit rehabilitiert. Wir kommen zwar nicht als unbeschriebenes Blatt auf die Welt, aber auf dem Blatt gibt es noch viel Platz, die Geschichte in ganz unterschiedliche Richtungen fortzuschreiben. Unsere Gene sind ein Drehbuch, das durch verschiedene Regisseure unterschiedlich interpretiert werden kann. Was wir essen, wo und wie wir leben, kann bei der Umsetzung der Geschichte eine entscheidende Rolle spielen. Dass dabei unser eigener Lebenswandel – etwa der Konsum von Drogen – auch eine Bestimmungsgröße für das Leben   künftiger Nachfahren sein kann, ist eine Bürde, die dem Wort „Erbsünde“ eine ganz neue Bedeutung verleiht.     Den Blog entdecken   Wer mehr wissen will: Mendel, Gregor (1865): „Versuche über Pflanzen-Hybriden. In: Verhandlungen des naturforschenden Vereines in Brünn. Band IV S. 3–47 Watson, James / Crick, Francis (1953): „Molecular Structure of Nucleic Acids”, Nature 171. Dawkins, Richard (1996): „Das egoistische Gen“, Rowohlt.   Bildnachweise: Foto Francis Crick   Farbabstufungen des Auges Mendelsche Regeln   Anmerkungen [i] Die beiden Regeln werden heute als Uniformitäts- und Spaltungsregel bezeichnet. Die dritte von Mendel gefundene Regel, die Unabhängigkeitsregel, bezieht sich auf die Kombination von zwei Merkmalen, die unabhängig voneinander vererbt werden, etwa Blütenfarbe (rot oder weiß) und Samenform (lang oder rund). Wenn lange Samen gegenüber runden dominant sind, ergibt sich bei reinerbigen Großeltern in der zweiten Generation eine zu erwartende Aufteilung von 9 Nachkommen mit roten Blüten und langen Samen, 3 Nachkommen mit roten Blüten und runden Samen, 3 Nachkommen mit weißen Blüten und langen Samen, sowie einem Abkömmling mit weißen Blüten und runden Samen. [ii] Watson / Crick (1953). [iii] Vgl. Kandel (2006) S.404. [iv]  Gene machen nur rund 10% der DNS aus. Abschnitte, die keine Bauanweisungen für Proteine darstellen, wurden vor einiger Zeit noch als „Junk-DNS“ bezeichnet. Mittlerweile hat sich gezeigt, dass diese vermeintlichen Müll-Abschnitte zahlreiche wichtige Funktionen haben. Insbesondere steuern sie die Genexpression, auf die wir noch eingehen werden. [v] 2020 wurde im Zusammenhang mit der Weltweiten COVID-19-Pandemie erstmals ein auf m-RNA basierender Impfstoff zugelassen. Dabei wird nicht das Antigen selbst verabreicht, sondern nur die benötigte Anweisung, dieses in den Körperzellen selbst herzustellen.  [vi]  Methionin ist immer der Startschuss für einen neuen Produktionsauftrag; an ihm erkennt das Ribosom, dass ein neues Protein hergestellt werden soll. [vii] Die Rekombinationen erklärt, warum Kinder uns meist als offenbare Mischung ihrer Eltern erscheinen. Die Zahl der Anordnungsmöglichkeiten ist allerdings gigantisch: Beim Menschen gibt es 223 = 8.388.608 Möglichkeiten, um eine einzelne Keimzelle genetisch zu bestimmen. Da eine Zygote aus zwei Keimzellen entsteht, gibt es 223 x 223 d.h. rund 70 Tausend Milliarden Möglichkeiten den Chromosomensatz des neuen Organismus festzulegen. Wir dürfen daher getrost davon ausgehen, dass wir alle – selbst ohne Crossing over – ziemlich einzigartig sind. [viii] Bei Mutationen kommt es auf den richtigen Mix aus Replikationstreue und Veränderung an. Viren haben sehr hohe Mutationsraten. Damit unterlaufen sie die Fähigkeit des von ihnen befallenen Organismus, sie mithilfe des Immunsystems abzuwehren. Bei Säugetieren hingegen sind die Mutationsraten sehr klein; rasche Veränderungen würden das komplexe Zusammenspiel der hochspezialisierten Organverbände sofort zusammenbrechen lassen. [ix]  So sind bei der Augenfarbe tatsächlich mindestens drei Gene im Spiel. Die noch recht junge Disziplin der Genomik, versucht unter anderem mit stochastisch-quantitativen Methoden solche Zusammenhänge aufzudecken und zu bestimmten, welchen Beitrag ein bestimmtes Gen etwa zur Festlegung der Augenfarbe leistet. Vgl. Tautz (2019).  [xi]  In Großbritannien ist die Züchtung von Mensch-Tier-Chimären zu Forschungszwecken bereits seit 2008 gesetzlich gestattet. [xii]  Vgl. Dawkins (1996) S.68.

  • Der Chemiebaukasten des Lebens

    Fortsetzung von „Wie der Sauerstoff zu seinem Namen kam“   Der wunderbare Kohlenstoff Falls es einen Lavoisier des 20. Jahrhunderts geben sollte, so wäre das zweifelsohne Linus Pauling  (1901-1994). Die Beiträge des Amerikaners zu unserem Weltverständnis umspannen sämtliche Bereiche der modernen Chemie: Pauling verband Chemie mit Quantenphysik , führte das Konzept der Elektronegativität   ein und erforschte darauf aufbauend die Natur der Bindungsformen. Neben Watson und Crick ist er einer der wichtigsten Mitbegründer der Molekularbiologie , jener Wissenschaft, die die atemberaubend weite Brücke zwischen toter Materie und der Welt des Lebendigen schlägt. [i]   Linus Pauling Die Statik für das organische Brückenende liefert ein Element, das auf den ersten Blick wenig spektakulär erscheint: Kohlenstoff . Doch Kohlenstoff verfügt über eine Reihe besonderer Eigenschaften, die es ihm ermöglichen, einen eigenen Chemiezweig, die organische Chemie , zu begründen. Kohlenstoffverbindungen zerspringen bei Belastung nicht wie spröde Steine, sondern sind weich, biegsam und anpassungsfähig. Diese Resilienz ist eine der wichtigsten Eigenschaften, die das Leben auszeichnen. Angesiedelt in der vierten Hauptgruppe   der zweiten Periode steht der Kohlenstoff zwischen allen Fronten. Mit vier Valenzelektronen   fallen ihm Entscheidungen grundsätzlich schwer, er wahrt zu beiden Rändern des Systems respektvollen Abstand: Ist es besser, Elektronen abzugeben oder aufzunehmen, um sich der Edelgaskonfiguration anzunähern? Dem Kohlenstoff stehen beide Optionen offen. Eine geringe Aktivierungsenergie reicht aus, um wahlweise mit Vertretern der linken oder rechten Hälfte des Periodensystems zusammenzugehen. Die kovalenten Allianzen, die auf diese Weise geschmiedet werden, sind wie ein guter Seemannsknoten: Sie sind einerseits stabil, lassen sich andererseits aber auch leicht wieder lösen. Organische Moleküle sind lang und komplex - das Rückgrat ist stets eine Kohlenstoffkette Wasserstoff als Lieblingspartner Bei Fragen der Partnerwahl hat der Kohlenstoff gewisse Präferenzen. Am liebsten bleibt er unter seinesgleichen und liiert sich über Atombindungen zu langen Ketten. Der zweitliebste Bindungspartner ist ihm der Wasserstoff . Aufgrund des geringen Elektronegativitätsunterschieds sind solche Verbindungen nach außen wenig polar. Kohlenwasserstoffe bauen daher keine Bindungen mit Wasser auf und können so im Gegensatz zu zahlreichen anorganischen Molekülen im feuchten Milieu ihre Strukturen gut erhalten. Mit seinen Artgenossen hat Kohlenstoff verschiedene Paarungs-Optionen. Einfache Kohlenstoff-Kohlenstoff-Bindungen, bei denen die verbleibenden freien Elektronen an Wasserstoffatome gebunden sind, werden Alkane genannt. Da sie keine Neigung haben, weitere Atome oder Moleküle aufzunehmen, handelt es sich um so genannte gesättigte Kohlenwasserstoffe . Zur Familie der Alkane gehören Methan (CH4), Ethan (C2H6), Propan (C3H8) und Butan (C4H10), allesamt leicht brennbare und hochenergetische Gase, die zu Wasser und CO2 oxidieren. Zwei- und dreifach gebundene Kohlenwasserstoffe werden Alkene , beziehungsweise Alkine  genannt. Anders als die satten Alkane, sind sie stets bereit, ihre bestehenden Mehrfachbindungen gegen neue Molekülgruppen zu tauschen; sie sind daher ungesättigte Kohlenwasserstoffe.  Von links nach rechts: Propan, Propen als typische Vertreter der Stoffgruppen der Alkane, Alkene und Alkine Die Nomenklatur der Monsternamen Im Gegensatz zu der recht übersichtlichen Welt der anorganischen Moleküle erblüht die Kohlenstoffchemie in unüberschaubarer Vielfalt. Das liegt vor allem daran, dass Kohlenstoff sehr lange und verästelte Ketten zu bilden vermag. Um bei der phantastischen Zahl von Anordnungsmöglichkeiten den Überblick zu behalten, haben die Chemiker ein Ordnungssystem eingeführt. Ist man mit dessen Namenskonvention vertraut, lässt sich aus der chemischen Bezeichnung der Aufbau des organischen Stoffs ableiten. Nehmen wir das Beispiel „Dimethylpropan“: Die Silbe „Prop-“ macht deutlich, dass es sich um eine lineare Kette aus drei Kohlenstoffatomen handelt. Die Endung „-an“ kennzeichnet die Kette als einfach gebunden. „Dimethyl“ stellt klar, dass vom mittleren Atom der Dreierkette zwei weitere Kohlenstoffatome seitlich verzweigen, deren Valenzelektronen allesamt an Wasserstoffatome gebunden sind. Fast ein Kunstwerk: Dimethylpropan Neben Kohlenstoff und Wasserstoff gibt es noch eine Handvoll weiterer Elemente, die bei der organischen Chemie in der ersten Reihe mitspielen: Sauerstoff , Stickstoff , Phosphor , Schwefel , sowie die beiden Metalle Calcium  und Magnesium . Aus ihnen entstehen „funktionelle Gruppen“, kleine Molekülbausteine, die sich an Kohlenwasserstoffe andocken und ihnen dadurch ganz spezifische Eigenschaften verleihen (das „R“ in der folgenden Tabelle steht stellvertretend für den angehängten Kohlenwasserstoff-Rest).   Funktionelle Gruppe Kennzeichnung Endung Vorsilbe Alkene C Doppelbindung -en - Alkine C Dreifachbindung -in - Halogenalkane R-X (X = F, Cl, Br, I) wie Alkane wie Alkane Alkohole R-OH -ol Hydroxy- Ether R-C-O-C-R -ether - Aldehyde R-CHO -al Formyl- Ketone R-C=O -on Oxo- Carbonsäuren R-COOH -säure Carboxy- Ester R-COO-R -ester - Amine R-NH2 -amin Amino- Wichtige funktionelle Gruppen   Halogenalkane, zu denen unter anderem die Flurchlorkohlenwasserstoffe (FCKW) gehören, sind beispielsweise gut fettlöslich. Das Anhängen einer einfachen Sauerstoff-Wasserstoffverbindung an eine Kohlenwasserstoffkette (R-OH) führt zur Entstehung eines Alkohols (bekanntester Vertreter ist der Trinkalkohol Ethanol). Alkohole  sind sehr gut wasserlöslich; lässt man sie allerdings mit einer Säure reagieren, entsteht ein Ester, eine Stoffgruppe, deren Angehörige wiederum ausgesprochen wasserscheu sind. Eine für das Leben besonders wichtige funktionelle Gruppe sind die basischen und wasserlöslichen Amine, die auf der simplen Verbindung eines Stickstoffatoms mit zwei Wasserstoffatomen (R-NH2) beruhen. Der Chemiebaukasten des Lebens Verbindungen aus funktionellen Gruppen und Kohlenwasserstoffen werden als Monomere  bezeichnet. Sie können sich ihrerseits zu Polymeren zusammenschließen, die sich mitunter zu monströsen Gebilden aus vielen Millionen Atomen entwickeln. Polymere lassen sich in vier fundamentale Stoffklassen einteilen: Proteine  (Eiweiße), Saccharide  (Kohlenhydrate), Lipide  (insbesondere Fette) und Nukleinsäuren . Diese vier Polymerarten sind der Chemiebaukasten des Lebens. Proteine sind die Alleskönner unter den Biomolekülen und prägen insbesondere das tierische Leben: Sie strukturieren Zellen , ermöglichen Bewegung, übermitteln Informationen, katalysieren biochemische Prozesse und bekämpfen Eindringlinge. Ihre Monomere sind die Aminosäuren , Verbindungen aus Carbonsäuren (R-COOH) und Aminogruppen. [ii]  In der Natur findet sich eine Vielzahl von Aminosäuren, doch für das Leben sind nur jene 23 Varianten von Bedeutung, bei denen die Aminogruppe am zweiten Atom der Kohlenstoffkette andockt. Die genauen biochemischen Eigenschaften eines Proteins werden durch die Reihenfolge der Aminosäuren bestimmt. Proteine sind sehr empfindlich gegenüber hohen Temperaturen. Hitze verändert ihre Struktur, sie denaturieren, was sich jedes Mal leicht beobachten lässt, wenn man ein Ei in eine heiße Pfanne schlägt. Kohlenhydraten  kommen zwei wichtige Aufgaben zu. So wie Proteine der wichtigste Baustoff des tierischen Lebens sind, bestimmen die Kohlehydrate das Erscheinungsbild der Pflanzen. Das macht sie zum mit Abstand größten Bestandteil der globalen Biomasse. Ihre zweite Rolle ist die des unmittelbaren Energielieferanten aller Lebewesen. Aus funktioneller Sicht handelt es sich bei Kohlehydraten um Aldehyde und Ketone, deren Moleküle mindestens zwei Hydroxygruppen (R-OH) enthalten. Dadurch erklärt sich die enge Beziehung zwischen Kohlehydraten und Alkoholen, die es erlaubt, aus Obst und Getreide Wein, Bier und Schnaps zu machen. Wie die Proteine beruhen auch die Kohlenhydrate auf einem Baukastensystem. Zwei wichtige Grundbausteine sind die Einfachzucker „Fruchtzucker“ (Fructose) und „Traubenzucker“ (Glucose), die lebende Organismen unmittelbar mit Energie versorgen .   Links: die allgemeine Struktur einer Aminosäure; Mitte: der Einfachzucker Glucose; rechts: Buttersäure, eine einfache Fettsäure Aus dem Zusammenschluss von Einfachzuckern  entstehen zunächst Zweifachzucker , wie Malzzucker (Maltose) und Milchzucker (Laktose). Einfach- und Zweifachzucker schließen sich wiederum zu Vielfachzuckern (Polysacchariden) zusammen, den Hauptbestandteilen von Gräsern, Blättern, Holz und Stärke. Im Tierreich spielen Vielfachzucker außerhalb der Energieversorgung eine eher untergeordnete Rolle. Sie finden sich dort vor allem in Form des Polysaccharids Chitin, dem wichtigsten Baustoff der Außenskelette von Insekten, Spinnentieren und Krebsen. Eine der unzähligen Erscheinungsformen von Vielfachzuckern Die dritte Gruppe biochemischer Makromoleküle sind die Lipide , ein Sammelbegriff für eine recht heterogene Stofffamilie, die vor allem die Gemeinsamkeit verbindet, aufgrund ihrer fehlenden Polarität ziemlich wasserscheu zu sein. Zu den Lipiden gehören pflanzliche und tierische Fette aber auch Wachse, Terpene und Phospholipide. Aus biochemischer Sicht handelt es sich um Veresterungen des dreiwertigen Alkohols Glycerol (C3H8O3) mit langen, zumeist unverzweigten Kohlenwasserstoffketten, die als Fettsäuren bezeichnet werden. Fette sind ausgesprochen energiereich und eignen sich daher hervorragend als Speichermedium. Tierische Fette haben einen relativ hohen Schmelzpunkt, denn sie weisen in aller Regel einen bedeutsamen Anteil fast unpolarer gesättigter Fettsäuren auf, in denen die Van-der-Waals-Kräfte   den Schmelzpunkt nach oben treiben. Rindertalg etwa, wie er im traditionellen britischen Plumpudding Verwendung findet, beginnt erst ab 40° Celsius zu schmelzen; die Energie der menschlichen Körpertemperatur reicht nicht, um die Ketten aufzubrechen und das Fett zu verflüssigen, was die Süßspeise zu einem gewöhnungsbedürftigen Geschmackserlebnis macht. Pflanzliche Fette basieren hingegen auf ungesättigten Fettsäuren, denen die reaktionsfreudigeren Alkene und Alkine zugrunde liegen. Sie verflüssigen sich bereits bei niedrigeren Temperaturen – der Grund, warum Olivenöl am Gaumen nicht den gleichen Eindruck hinterlässt, wie Rindertalg. Zu der bunten Welt der Terpene gehören Carotinoide, die nicht nur Karotten, sondern auch Tomaten, Bananen, Eigelb und dem Herbstlaub seine warmen Farbtöne verleihen, Steroide als Grundbausteine von Vitaminen und Sexualhormonen sowie Phospholipide, die als grundlegende Module von Biomembranen, die Grenze zwischen belebter und unbelebter Natur ziehen. Die letzte der vier grundlegenden Biomolekülgruppen sind die Nukleinsäuren, Konglomerate aus Einfachzuckern und stickstoffhaltigen Basen, zusammengehalten durch einen Kitt aus Phosphorsäuren. Diesen höchst komplexen Strukturen kommt eine ganz besondere Rolle zu: Mit ihrer Hilfe speichert die Natur nicht weniger als ihre Bauanleitungen für das Leben .   Der Sprung in die Welt des Lebendigen Das Zusammenspiel der vier biochemischen Stoffklassen ermöglicht den fast unvorstellbar weiten Sprung von toter Materie zu belebter Natur. In letzter Konsequenz sind damit auch die dem Leben zugrundeliegenden physiologischen Vorgänge reine Physik. Doch um das dem Leben innewohnende Potential zu entwickeln, bedurfte es noch eines Mechanismus, der auf einem ganz anderen Prinzip beruhte, als die physikalischen Naturgesetze . Mit diesem Blogbeitrag endet die Artikelserie „Chemie“   Den Blog entdecken   Wer mehr wissen will: Winter, Arthur (2006) „Organische Chemie für Dummies“, Wiley   Bildnachweise: Symbolbild organische Chemie Bambus [i]  Pauling ist unter den großen Wissenschaftlern auch deshalb eine Ausnahme, weil er gleich zweimal mit dem Nobelpreis ausgezeichnet wurde: für seine Leistungen im Bereich der Chemie und neun Jahre später mit dem Friedensnobelpreis für sein Engagement gegen Atomwaffen. Eine doppelte Nobelpreisauszeichnung in zwei verschiedenen Disziplinen erhielt außer ihm bisher nur Marie Curie.  [ii]  Kurze Ketten von Aminosäure-Monomeren werden als Peptide bezeichnet. Erst wenn die Anzahl der verbundenen Aminosäuren etwa 100 übersteigt, spricht man von Proteinen.

  • Sugar makes the World go Round!

    Fortsetzung von „ Die Zelle als Chemiefabrik“   Die Zauberformel Ursprung aller irdischen Lebensenergie ist ein gigantisches kosmisches Kernkraftwerk , in dem das Zusammenspiel der vier physikalischen Grundkräfte pro Sekunde vier Millionen Tonnen Masse zu elektromagnetischer Strahlung verdampft. Ein winziger Teil dieser Sonnenenergie erreicht die Erde und trifft hier auf die vergleichsweise einfache Lebensform der Pflanzen . Mithilfe der Strahlung aus dem All verbinden sie zwei anorganische Moleküle zu einer organischen Substanz: Aus Kohlenstoffdioxid  und Wasser entsteht der Einfachzucker Glucose , mit reinem Sauerstoff als Nebenprodukt. Es ist die wichtigste chemische Reaktion  auf unserem Planeten: (Sonnen)Energie + 6 CO 2  + 6 H 2 O ⇆ C 6  H 12  O 6  + 6 O 2 .   Aus thermodynamischer Sicht enthält C 6 H 12 O 6 , mehr Information, mehr Ordnung, als CO 2  und H 2 O allein. Die Energie der Sonne ist nun in den Bindungen des Glucosemoleküls gefangen. Dieses Speichern kosmischer Kraft bezeichnen wir als Photosynthese . Sie steht am Anfang einer langen Kette gegenseitiger Abhängigkeiten, die die Schicksale von Pflanzen und Tieren miteinander verweben: Tiere vermögen es, die Photosynthesereaktion umzukehren und die dabei wieder freigesetzte Sonnenenergie für sich zu nutzen. Dieser Zusammenhang begründet den fundamentalen Unterschied zwischen Tieren und Pflanzen: Pflanzen, sowie einige Bakterien, sind in dieser Welt für das Konstruktive zuständig. Sie bauen auf. Tiere und Pilze sind hingegen auf diese Aufbauprodukte angewiesen. Sie müssen Leben zerstören, um selbst leben zu können. In nüchterner Biologensprache heißt das: Pflanzen sind autotroph , Tiere heterotroph . Tiere müssen für ihren Lebensunterhalt mehr leisten als Pflanzen Die beiden Lebenswelten unterscheiden sich grundsätzlich. Den Pflanzen fällt Energie gleichsam zu; der tägliche Sonnenaufgang, dem sie ihre Autarkie verdanken, ist nicht an Bedingungen geknüpft. Das erlaubt ihnen einen passiven, standortgebundenen Lebensstil. Tiere aber müssen sich ihre Brennstoffzufuhr aktiv erarbeiten. Die Unsicherheit ihrer Energieversorgung macht sie unstet, aber auch kreativ. Stoffwechsel I: So gewinnen Pflanzen ihre Energie Ihre beneidenswerte Unabhängigkeit verdanken die Pflanzen den Chloroplasten . Chloroplasten sind Zuckerraffinerien, die mit zwei grundlegenden Syntheseschritten arbeiten. Im ersten Schritt, der Lichtreaktion , wird mittels Photonen Wasser gespalten. Die dabei freiwerdende Energie wird dazu verwendet, das Molekül Adenosindiphosphat  ( ADP ) mithilfe eines dritten Phosphoratoms zu Adenosintriphosphat  ( ATP ) aufzubauen. ATP ist eines der wichtigsten Bio-Moleküle überhaupt. Ein Mini-Akku, der alle pflanzlichen und tierischen Zellen mit wohl dosierten Energieeinheiten versorgt. Der zweite Photosyntheseschritt, die Dunkelreaktion , nutzt die bei der Lichtreaktion gewonnenen Wasserstoffprotonen, um mithilfe von Kohlendioxid dann das Glucosemolekül herzustellen. (Der Begriff Dunkelreaktion ist missverständlich, denn es muss keinesfalls dunkel sein, damit dieser Vorgang ablaufen kann. Gemeint ist lediglich, dass hierfür kein Licht benötigt wird.) Die Energie für den Aufbau liefert das zuvor hergestellte ATP, indem es sein drittes Phosphoratom wieder abgibt. Zurück bleibt ADP, sozusagen ein leerer Akku. Hinter dieser vereinfachten Beschreibung steckt tatsächlich ein komplexer, vielstufiger Regenerierungskreislauf, der nach seinem Entdecker, Melvin Calvin , als Calvin-Zyklus  bezeichnet wird. Mit dem Nebenprodukt Sauerstoff  weiß die Pflanze nichts anzufangen – vielmehr birgt eine Oxidation sogar die Gefahr, dass Zellgifte entstehen. Die Pflanze entlässt ihn deshalb sicherheitshalber in die Umwelt. Dies ist der Ursprung fast sämtlichen freien Sauerstoffs in der Atmosphäre. Die Pflanze kann die Glucose nun entweder für den energetischen Eigenbedarf in Früchten oder Knollen speichern, oder weiter zu dem komplexen Kohlehydrat Cellulose  aufbauen, dem universellen Baustoff für Stängel, Rinden und Blätter.  So stellen Pflanzen Zucker her   Stoffwechsel II: So gewinnen Tiere ihre Energie Der pflanzliche Einfachzucker  ist die Währung, in der das Leben Energie zwischen den Organismen verrechnet. Die zugrundeliegenden Transaktionen bezeichnen wir als Nahrungskette: Tiere fressen Pflanzen (aus Sicht der Pflanzen sind auch Pflanzenfresser Raubtiere), Pflanzenfresser werden Opfer von Fleischfressern, die ihrerseits anderen Fleischfressern als Nahrungsquelle dienen. Die chemischen Abläufe, die dem tierischen Stoffwechsel zugrunde liegen, sind dabei ungleich komplexer als bei den Pflanzen. Höhere Wirbeltiere , auf die wir uns im Folgenden beziehen, müssen dem Energiegewinnungsprozess gleich drei ihrer Organsysteme widmen: Verdauungstrakt, Blutkreislauf und Harnsystem. Der Verdauungstrakt, ein schlauchartiges System, das den ganzen Körper durchzieht, rückt Kohlehydraten , Eiweißen  und Fetten mit recht rabiaten Mitteln zu Leibe. Sie werden mechanisch zermahlen, mithilfe aggressiver Chemikalien wie Salz- und Gallensäure zerfasert und schließlich durch Enzyme  in kleine Einheiten zerschnitten. Im Dünndarm angelangt, sind die komplexen Biomoleküle wieder in ihre ursprünglichen Bausteine Aminosäuren , Einfachzucker , Fettsäuren und Glycerin aufgespalten. Erst damit liegt die Nahrung in einer für den Organismus verwertbaren Form vor.  Aminosäuren , die ein tierischer Organismus nicht selbst herstellen kann und die er daher mit der Nahrung aufnehmen muss, werden als „ essentiell “ bezeichnet. Beim Menschen sind dies acht der insgesamt 22 proteinerzeugenden Aminosäuren. Die Monomere  werden nun durch die Darmwand in den Blutkreislauf geschleust. Blut  – ein „ganz besonderer Saft“ – übernimmt als flüssiges Organ alle weiteren Beförderungs- und Verteilaufgaben. Unter anderem reist mit ihm auch der für die Reaktionen nötige Sauerstoff zu den Zellen, der sich zu diesem Zweck an den eisenhaltigen Proteinkomplex Hämoglobin  bindet. Das so entstandene Eisenoxid  verleiht dem Blut seine rote Farbe. Angetrieben wird das System durch eine druckwellenerzeugende Hochleistungspumpe, das Herz . Bei Säugetieren und Vögeln besteht dieser mächtige Hohlmuskel aus zwei getrennten und mit Rückschlagventilen gesicherten Kammern. Dieses Konstruktionsprinzip erlaubt es, den Blutkreislauf   in zwei Teile, Lungen- und Körperkreislauf, zu zerlegen, die mit unterschiedlichem Druck betrieben werden können. Der niedrigere Druck des Lungenkreislaufs erleichtert den Gasaustausch zwischen Lungenbläschen und Blutgefäßen. Die Venen  des Lungenkreislaufs führen das sauerstoffreiche Blut in die linke Herzkammer. Von dort bringen es die Arterien  des Körperkreislaufs zu den Zellen. An den zahllosen Wendepunkten des Kreislaufs treffen arterieller Sauerstoff und venöse Glucose zusammen. Dadurch kommt in den Zellen ein Verbrennungsprozess  in Gang: Zuckermoleküle geben Elektronen ab, Sauerstoffatome nehmen sie auf. Die dabei freiwerdende Energie ist Grundlage unserer Existenz. Durch sie werden Moleküle bewegt, komplexe Stoffe aufgebaut, Nerven befeuert und Muskeln in Aktion versetzt. Betrachten wir die zugrundeliegenden Abläufe etwas näher. Lauter schwierige Wörter Da Tiere keine Chloroplasten  haben, benötigen sie für ihren ATP-Akku eine andere Ladetechnik. Sie besteht aus einer aufwändigen Prozesskette mit vier zentralen Abschnitten. Der erste Abschnitt, die Glykolyse , ist ein Prozess, den nicht nur Tiere, sondern praktisch sämtliche Lebewesen der Erde beherrschen. (Für sehr einfache Lebensformen wie Bakterien und Archaeen ist sie zugleich die einzige Möglichkeit der Energiegewinnung.) Die Glykolyse kommt ohne Sauerstoff aus und funktioniert grundsätzlich wie die alkoholische Gärung: Das Zuckermolekül mit seinen sechs Kohlenstoffatomen wird im Cytoplasma in zwei sogenannte Pyruvat-Moleküle aufgespalten. Die dabei freiwerdende Bindungsenergie lädt zwei ADP zu ATP auf. Diese Form der Energiegewinnung ist zwar schnell, aber auch ausgesprochen ineffizient, denn sie nutzt nur 5% des im Glucosemolekül gebundenen chemischen Potentials. Die beiden folgenden Prozessabschnitte, oxidative Decarboxylierung  und Citratzyklus  dienen dazu, die Erschließung der noch ungehobenen Kraftreserve vorzubereiten. Zunächst wird das Pyruvat in den Mitochondrien in Acetyl  und CO2 aufgespalten. Aus dem Acetyl werden wiederum Wasserstoffprotonen und Elektronen gewonnen, die von den Trägermolekülen Nicotinamid-Adenin-Dinukleotid  und Flavin-Adenin-Dinukleotid aufgenommen werden. (Aus verständlichen Gründen werden die Trägermoleküle üblicherweise mit NAD  und FAD  abgekürzt.) Hierbei entstehen ganz nebenbei zwei weitere ATP-Einheiten . Noch immer sind rund 90% der vorhandenen chemischen Bindungsenergie ungenutzt. Erst im vierten und letzten Schritt, der oxidativen Phosphorylierung , auch als Atmungskette  bezeichnet, wird die Energiegewinnung wirklich effizient. Denn jetzt kommt der Sauerstoff ins Spiel. Er verleiht dem Leben jenen Energieschub, ohne den sich komplexe tierische Organismen nie hätten entwickeln können. Der Sauerstoff reagiert mit den von NAD und FAD bereitgestellten Protonen und Elektronen zu Wasser. Das klingt harmlos, doch Chemiker wissen, dass die Wassersynthese ein überaus spektakulärer Zusammenschluss ist, der nicht ohne Grund auch als „ Knallgasreaktion “ bezeichnet wird und unter anderem bei Raketenantrieben Verwendung findet.  Kalorien  zu verbrennen ist daher für die Zelle im Wortsinne ein Spiel mit dem Feuer. Die Natur hat jedoch einen höchst eleganten Weg gefunden der Zelle die oxidativ erzeugte Energie in wohldosierten Mengen zuzuführen. Das grundlegende Prinzip ist die chemische  Redoxreihe : Elemente und Moleküle lassen sich nach absteigenden Elektronegativität en sortieren. Eine solche elektrochemische Spannungsreihe findet sich auch an der Innenmembran der Mitochondrien . Zwischen dem mit Wasserstoff aufgeladenen NAD und dem ersten Enzym der Reihe besteht nur ein geringer Elektronegativitätsunterschied; es kann daher die Elektronen ohne heftige Reaktion aufnehmen. Gleichzeitig wird die Elektronenenergie genutzt, um Wasserstoffprotonen in den Raum zwischen Innen- und Außenmembran des Mitochondriums zu pumpen. Schritt für Schritt werden nun die Elektronen an den Eiweißkomplex mit der jeweils nächstniedrigeren Elektronegativität übergeben, dabei werden jedes Mal weitere Protonen nach außen befördert. Die Natur verfährt hier wie bei einem Hausumzug: Das Klavier wird nicht aus dem vierten Stock geworfen, sondern langsam, Stufe für Stufe, die Treppe hinuntergetragen.   Ganz schön komplex: auf- und abbauende Stoffwechselprozesse höherer Tiere Die zwischen den Membranen des Mitochondriums eingezwängten Wasserstoff protonen haben mittlerweile, wie ein voller Luftballon, einen beträchtlichen Druck aufgebaut. Um den Druckunterschied auszugleichen, diffundieren die Protonen nun durch eigens dafür vorgesehene Tunnelproteine in den Innenraum zurück. Mithilfe der dabei entstehenden starken Strömungsenergie werden etwa 34 weitere ADP zu ATP aufgebaut, während der Sauerstoff sich am Ende der Elektronegativitätstreppe nun ganz ohne Knall mit den Wasserstoffprotonen zu Wasser verbindet. Sauerstoff macht den Unterschied Der vollständige Abbau eines Zuckermoleküls liefert insgesamt also rund 38 ATP, 90% davon durch Sauerstoffatmung . Wenn wir essen und uns ausruhen, tun wir das letztlich, um dem dritten Phosphoratom die Möglichkeit zu geben, sich wieder an das ADP-Molekül anzuflanschen. Wir laden dann unsere Akkus tatsächlich im Wortsinne neu auf. Neben Kohlenhydraten, können auch Proteine und Fette ATP erzeugen. Ihre Abbauprodukte – Aminosäuren, Fettsäuren und Glycerin – lassen sich ebenfalls in Pyruvat und Acetyl verwandeln. Allerdings werden Fettreserven erst dann angegriffen, wenn die reguläre Glucoseversorgung unterbrochen ist. Aminosäuren werden nur in dramatischen Notlagen zur Energiegewinnung eingesetzt – sie sind für den Aufbau körpereigener Proteine vorgesehen und somit schlichtweg zu wertvoll, um einfach nur verbrannt zu werden. Wenn die ATP-Akkus aufgeladen sind, das Blut aber noch weiterhin Glucose, Glycerin und Fettsäuren anschwemmt, kann aus den Nährstoffen keine unmittelbare Energie mehr gewonnen werden. Der Überschuss wird daher eingelagert. Glucose wird dazu in den Mehrfachzucker Glykogen  umgewandelt und in Muskulatur und Leber deponiert. Bei Bedarf kann der Organismus im Schnellverfahren auf diese kleinen Reserven zugreifen und sie rasch wieder in Glucose zurückverwandeln. Soll die Energie längerfristig gelagert werden, wird Fettgewebe aufgebaut. Fett  ist ein ideales Speichermedium, denn es hat von allen Biomolekülen die höchste Energiedichte : Sein Brennwert ist etwa doppelt so hoch, wie der von Kohlehydraten und Proteinen. Die Auf- und Abbauprozesse laufen dabei immer über das Zwischenprodukt Acetyl – es ist der zentrale Dreh- und Angelpunkt im Hin und Her des Stoffwechsel-Labyrinths. Entschlüsselte den Stoffwechsel der Pflanzen: der Biochemiker Melvin Calvin Kompliziertes Zusammenspiel Das alles klingt bereits sehr kompliziert. Tatsächlich sind die Vorgänge aber noch weitaus komplexer als hier dargestellt . Neben unzähligen Stoffwechselreaktionen müssen weitere Parameter wie Wasserhaushalt, Druckverhältnisse, Ionenkonzentrationen oder pH-Wert des Bluts, permanent im Lot gehalten und an wechselnde Umweltbedingungen angepasst werden. Ist auch nur eine der zahllosen Einflussgrößen nicht exakt justiert, gibt es Probleme. Menschen, denen etwa das für den Abbau von Milchzucker  zuständige Enzym fehlt, leiden an der Stoffwechselkrankheit Laktoseintoleranz , ein Phänomen, das weltweit immerhin drei Viertel aller Erwachsenen betrifft. Die damit verbundenen Verdauungsbeschwerden sind zwar eher harmlos, doch das Beispiel lässt erahnen, dass andere Fehleinstellungen weitaus dramatischere Folgen haben können. In jedem Augenblick muss eine unüberschaubare Zahl an Bedingungen erfüllt sein, damit Billionen chemischer Reaktionen unseren Organismus jede Sekunde am Leben erhalten, anstatt ihn zu zerstören. Ein Wunder, das wir allein der Unbestechlichkeit der Naturgesetze   verdanken.   Den Blog entdecken   Wer mehr wissen will: Link Knallgasreaktion (Youtube ) Biologie für Dummies Die hier behandelten Stoffwechselprozesse sind vereinfacht dargestellt. Die folgenden Übersicht vermittelt einen Eindruck von der wahren Komplexität: https://upload.wikimedia.org/wikipedia/commons/8/8d/Metabolic_pathways_poster.pdf

  • Wie ein eidgenössischer Patentprüfer dritter Klasse die Welt aus den Angeln hob.

    Fortsetzung von "Sieg des Chaos - Thermodynamik für Anfänger " Eine folgenreiche Sonnenfinsternis Am 29. Mai 1919 herrschte auf der kleinen, beschaulichen Vulkaninsel Príncipe vor der westafrikanischen Küste einige Aufregung. Die britischen Astronomen, die unter der Leitung von Sir Arthur Eddington  ihre Instrumente aufgebaut hatten, blickten sorgenvoll nach den herannahenden Wolken. Doch schließlich hatten sie Glück und es gelang ihnen den Verlauf einer totalen Sonnenfinsternis auf die Fotoplatten zu bannen. Historische Aufnahme der Sonnenfinsternis vom 29. Mai 1919 Sir Arthur Stanley Eddington erbrachte den ersten empirischen Beweis für die Richtigkeit von Einsteins Kopfkino Die seltene Konstellation ermöglichte es, die sonst unsichtbaren Sterne dicht neben der Sonne zu beobachten. Die Bilder bestätigten eine unglaubliche Vorhersage. Und sie machten Albert Einstein  über Nacht zu einem der bekanntesten Menschen auf dem Planeten. Rätsel Lichtgeschwindigkeit Die Geschichte beginnt allerdings rund 30 Jahre früher. Ende des 19. Jahrhunderts herrschte allgemein die Überzeugung, dass elektromagnetische Wellen ein Medium benötigen, um sich ausbreiten zu können – so wie mechanische Wellen  hierzu auf Wasser oder Luft angewiesen sind. Allerdings hatte man diesen als Äther  bezeichneten mutmaßlichen Wellenträger noch nicht gefunden. Zwei amerikanische Wissenschaftler, Albert Michelson  und Edward Morley , hatten sich 1887 das Ziel gesetzt, das geheimnisvolle Trägermedium endlich nachzuweisen. Sie vermuteten, dass es sich mit einer anderen Geschwindigkeit als der der Erde bewegen und so einen „Ätherwind“ erzeugen müsse, der die Ausbreitung von Lichtstrahlen abbremst. Doch sooft sie auch maßen: Das Licht   war unter allen Bedingungen immer gleich schnell. Es ließ sich weder durch den "Ätherwind" abbremsen noch in irgendeiner Form beschleunigen.   Der Däne Ole Rømer erkannte bereits im 17. Jahrhundert, dass die Lichtgeschwindigkeit endlich ist Ein eidgenössischer Patentprüfer dritter Klasse Dass der Betrag der Lichtgeschwindigkeit  im Vakuum immer gleich groß ist, war um 1900 eines der wenigen störenden Details in dem ansonsten fast vollkommenen Gebäude der Physik. Einen jungen technischen Prüfer dritter Klasse beim Eidgenössischen Patentamt in Bern ließ dieser merkwürdige Umstand nicht mehr los. Der diplomierte Fachlehrer für Mathematik und Physik nahm 1905 das Michelson-Morley Experiment zum Ausgangspunkt einer Reihe von Überlegungen. Da er über keinerlei Geräte verfügte, mit denen er seine Ideen hätte überprüfen können, war es ein reines Gedankenexperiment . Der Name des Patentprüfers war Albert Einstein  und seine Gedanken sollten die physikalische Welt aus den Angeln heben.   Der junge Einstein im Patentamt in Bern Kopfkino in der Eisenbahn Einstein begab sich mit seinen Überlegungen auf eine fiktive Bahnfahrt: Wenn ein Reisender in einem fahrenden Zug in Fahrtrichtung durch das Abteil läuft, bewegt er sich aus Sicht seiner Mitreisenden mit Schrittgeschwindigkeit. Für einen Beobachter auf dem Bahnsteig hingegen addieren sich die Geschwindigkeit des Zuges und die Laufgeschwindigkeit des Reisenden. Die einfache Regel, dass die Geschwindigkeit stets relativ zum Bezugssystem des Betrachters ist, gilt aber nicht für das Licht: Schaltet der Zugführer die Scheinwerfer ein, kann er damit die Geschwindigkeit des Lichts durch den fahrenden Zug nicht weiter erhöhen. Selbst wenn der Zug mit 99,99% der Lichtgeschwindigkeit führe, würden sich die Lichtwellen immer noch mit Lichtgeschwindigkeit vom Zug entfernen. Geschwindigkeit, so Einsteins Gedanke, ist definiert als Weg pro Zeit. Um sie zu ermitteln, benötigt man also ein Maßband und eine Uhr. Die Uhr gibt an, wieviel Zeit während eines bestimmten Vorgangs – etwa einer gleichmäßigen Pendelbewegung – vergeht. Auch die Auf- und Abwärtsbewegung eines Lichtblitzes, der zwischen zwei Spiegeln hin- und hergeworfen wird, lässt sich als solch eine Pendeluhr betrachten. Der Reisende in einem stehenden Zug und der Beobachter auf dem Bahnsteig würden beide die Bewegung eines im Zug installierten Lichtpendels als ein regelmäßiges Auf und Ab sehen. Ist der Zug aber in Bewegung, so ist die Wahrnehmung für die beiden Beobachter nicht mehr die gleiche. Aus Sicht des Zugreisenden ändert sich nichts. Die Person auf dem Bahnsteig hingegen sieht aufgrund der gleichförmigen Zugbewegung keine vertikale Auf- und Abwärtsbewegung, sondern eine diagonale Zickzacklinie. Derselbe Vorgang wird also relativ zum Bewegungszustand des Betrachters unterschiedlich wahrgenommen: Aus der Bahnsteigperspektive müsste der Lichtimpuls im gleichen Zeitraum eigentlich einen längeren Weg zurücklegen. Das aber wäre nur mit einer höheren Geschwindigkeit möglich. Diese aber kann es für das Licht wiederum nicht geben. Das ließ nur einen einzigen Schluss zu: Wenn die Geschwindigkeit für das Licht immer konstant ist, benötigt es für den längeren Weg zwangsläufig mehr Zeit. Die relative Wahrnehmung eines Vorgangs hängt vom Betrachter ab Dass die beiden Beobachter das Pendeln des Lichts unterschiedlich wahrnehmen, bedeutet letztlich, dass sich ihnen auch die Zeit als unterschiedliche Größe darstellt – jeder der beiden Betrachter hat seine persönliche Zeit. Da in der Formel Weg und Geschwindigkeit konstant sind, kann nur eine variable Zeit für beide Betrachter wieder die gleiche, absolute Wahrheit herstellen. Das heißt, dass aus Sicht des außenstehenden Beobachters die Zeit in dem fahrenden System „Zug“ weniger schnell vergeht. [i]     Zeit wird gedehnt, Körper werden gestaucht Die Zeitdilatation , die Tatsache, dass bewegte Uhren langsamer gehen, ist die erste wichtige Erkenntnis der Relativitätstheorie . Zeitangaben haben nur dann einen Sinn, wenn man auch das jeweilige Bezugssystem deutlich macht. Die Dehnung gilt nur für den außenstehenden Beobachter; der Reisende im Zug nimmt sie nicht wahr, für ihn verhält sich das Lichtpendel nicht anders, als im stehenden Zug. Für den externen Beobachter bedeutet die Zeitdehnung hingegen, dass aus seiner Sicht auch alle Vorgänge in dem bewegten Körper des Reisenden, wie Herzschlag, Zellwachstum und damit letztlich der Alterungsprozess, langsamer ablaufen. Dieses Phänomen tritt bei jedem Spaziergang, jeder Zugfahrt, jeder Flugreise auf – spürbar wird es jedoch erst bei extrem hohen Geschwindigkeiten. [ii]  Für einen Astronauten, der sich rasend schnell in seinem Raumschiff durch das All bewegt, wäre es sehr viel bedeutsamer. Reiste er nahe der Lichtgeschwindigkeit, würde seine Zeit aus Perspektive eines auf der Erde zurückgebliebenen Zwillingsbruders viel langsamer vergehen. Während für den Astronauten nur ein Jahr verstreicht, würde sich die Erde mehrmals um die Sonne drehen. Mit einem phantastisch schnellen Raumschiff könnte der Astronaut also in die Zukunft unseres Planeten reisen. Einstein überlegte weiter, was geschieht, wenn die Lichtuhr gedanklich um 90° gedreht wird. Der Blitz pendelt nun horizontal. Auch dieser Vorgang wird von den beiden Beobachtern unterschiedlich wahrgenommen. Der Zug fährt nun gleichsam vor dem herannahenden Lichtstrahl davon; somit müsste das Licht auch diesmal, von außen betrachtet, in der gleichen Zeit einen längeren Weg zurücklegen. Da seine Geschwindigkeit aber nicht weiter gesteigert werden kann, ist auch in diesem Fall nur ein Schluss möglich: Aus Sicht Außenstehender verkürzt sich der fahrende Zug in Bewegungsrichtung. Anders gesagt: Bewegte Objekte schrumpfen. [iii] In der Natur treten Zeitdilatation  und Längenkontraktion immer gemeinsam auf. Das heißt, dass für alle Beteiligten die absolute Gleichheit der Ereignisse nur durch eine variable Zeit und  einen variablen Weg hergestellt werden kann. Dabei gibt es keine richtigen oder falschen Bezugssysteme, man kann letztlich nicht sagen, ob der Zug am Bahnsteig vorbeifährt, oder der Bahnsteig am Zug.   Das Ende der newtonschen Physik Die Entdeckung von Zeitdilatation und Längenkontraktion war nicht weniger als das Ende der Newtonschen Physik, die die Naturwissenschaften   mehr als 200 Jahre lang regiert hatte . Einstein hatte erkannt, dass Zeit und Raum keine starren Naturkonstanten  sind, dass sie nicht lediglich die Bühne darstellen, auf der die Physik ihr Schauspiel aufführt, sondern dass sie vielmehr als Darsteller unmittelbar in die Handlung eingreifen. Da Zeitdilatation und Längenkontraktion aneinandergekoppelt sind, sind auch Raum und Zeit miteinander verwoben. Einstein übernahm hierfür von dem Mathematiker Hermann Minkowski den Begriff der „ Raumzeit “. Er besagt im Kern, dass die Überwindung von Raum Zeit benötigt: Wenn wir unseren Erdtrabanten betrachten, sehen wir nicht den Mond, sondern wir sehen den Mond, wie er vor 1,3 Sekunden ausgesehen hat. Ein 13.000 Lichtjahre entfernter Beobachter sieht heute, wie auf der Erde die ersten Jäger und Sammler sesshaft wurden . Könnten wir ihn bitten, uns diese Geschehnisse zu beschreiben, so müssten wir 26.000 Jahre auf die Antwort warten. So gesehen, ist jeder unserer Blicke ein Blick in die Vergangenheit. Die Lichtgeschwindigkeit von knapp 300 Millionen Metern pro Sekunde verbindet Ereignisse in Raum und Zeit. Zugleich ist sie die Obergrenze, mit der sich Information übertragen lässt. Gemäß den Gesetzen der klassischen Physik wird der Impuls   eines aufprallenden Körpers durch das Produkt aus dessen Geschwindigkeit und Masse bestimmt. Der Passagier eines mit astronomischer Geschwindigkeit fahrenden Zuges würde aus seinem Wagon heraus den Einschlag eines Meteoriten aufgrund der Zeitdilatation als langsamer wahrnehmen als ein stehender Betrachter. Die Naturgesetze sind für alle Beteiligten jedoch dieselben; die unterschiedliche Wahrnehmung kann nicht unterschiedliche Einschlagskrater erzeugen. Der Meteorit muss daher aus Sicht des bewegten Beobachters eine größere Masse haben, so dass der Effekt der verminderten Geschwindigkeit exakt ausgeglichen wird und somit den Gesamtimpuls erhält. Dies ist die relativistische Massenzunahme : Masse wächst, je schneller sie sich bewegt.   Energie und Masse: zwei Seiten einer Medaille Masse hat gemäß Newtons erstem Bewegungsgesetz die Eigenschaft, in ihrem aktuellen Ruhe- oder Bewegungszustand zu verharren. Allein eine äußere Kraft, die stark genug ist die masseabhängige Trägheit zu überwinden, kann diesen Zustand ändern. Wenn aber die Masse mit der Geschwindigkeit wächst, wächst auch die Trägheit bis zu dem Punkt, ab dem sie nicht mehr überwunden werden kann und keine weitere Beschleunigung mehr möglich ist, ganz gleich, wieviel Energie man dem Körper noch zuführt. Dieser Grenzpunkt ist die Lichtgeschwindigkeit. Nichts im Universum   kann die masselosen elektromagnetischen Wellen einholen oder gar überholen. Ein Raumschiff, das mit Lichtgeschwindigkeit flöge, wäre unendlich schwer. Die Astronauten an Bord könnten ihr eigenes Spiegelbild nicht mehr betrachten; die Zeit stünde für sie vollkommen still – sie hätten das ewige Leben. Einstein wusste, dass gemäß dem Erhaltungssatz durch Wandlung keine Energie verloren gehen kann. Was aber geschieht mit der Energie, die eine Masse beschleunigt? Diese Frage führte Einstein zu seiner bislang verblüffendsten Erkenntnis: Die Energie kriecht gleichsam in die Masse des beschleunigten Objekts hinein. Wenn Energie aber eine Masse anschwellen lässt, dann muss auch Masse eine Form von Energie sein. Einstein fand heraus, dass dieser Zusammenhang der Gleichung  gehorcht. Die wohl berühmteste Formel der Welt ist Teil unserer Popkultur geworden. Doch was genau besagt sie? Einsteins Gleichung enthält zwei einfache Erkenntnisse: Die erste besagt, dass Masse und Energie ein und dasselbe sind. Masse ist „gefrorene Energie“, ein sehr dichtes Speichermedium für Kraft mal Weg. Masse lässt sich in Energie und Energie in Masse umwandeln. Zwei elementare Einheiten der Physik, Joule und Kilogramm, die bisher niemand in eine direkte Verbindung gebracht hatte, sind zwei Seiten derselben Medaille. Die zweite Erkenntnis ist, dass Masse unvorstellbar viel Energie enthält. Denn der Umrechnungsfaktor ist das Quadrat der Lichtgeschwindigkeit und 300.000 Kilometer pro Sekunde mit sich selbst multipliziert ergeben eine schwindelerregende Zahl: Ein Kilogramm Materie enthält rund 25 Milliarden Kilowattstunden Energie. Wenige vollständig in Energie umgewandelte Tonnen Masse könnten theoretisch den jährlichen Energiebedarf der Menschheit decken. Dabei ist es völlig unerheblich, woraus die Masse besteht: Luft ist genauso gut wie Uran oder Newtons Apfel. Dass der Umrechnungsfaktor nicht die einfache Lichtgeschwindigkeit ist, sondern ihr Quadrat, ergibt sich aus Einsteins mathematischen Herleitungen. Einen intuitiven Zugang zu dieser Beziehung erhalten wir, wenn wir uns an die Macht der kleinen Hochzahl erinnern: Eine doppelt so schnell fallende Kugel hinterlässt einen viermal so tiefen Krater; Wirkung von Gravitation und elektrischer Ladung verringern sich im Quadrat des Abstands; bei dreifacher Geschwindigkeit verneunfacht sich der Bremsweg eines Autos. Kurz: Quadratisches Wachstum ist in der Natur ein sehr gängiges Phänomen. Eine in der Wissenschaftsgeschichte einmalige Persönlichkeit Die spezielle Relativitätstheorie wird erweitert Einsteins Aufsatz „ Zur Elektrodynamik bewegter Körper “ entstand 1905 innerhalb weniger Wochen. Wir kennen ihn heute unter dem Namen „ spezielle Relativitätstheorie “. In ein paar Zeilen hatte ein 26-Jähriger die verborgene Verbindung zwischen Masse und Energie aufgedeckt, Raum und Zeit neu definiert und dabei, fast im Vorübergehen, das Newtonsche Weltbild zerschmettert. Doch Einsteins Theorie hatte eine bedeutsame Einschränkung: Sie galt nur für sich gleichförmig bewegende Objekte und unterstellte zudem die Existenz geschlossener und kräftefreier Systeme. Ein Raumschiff aber, das die Erde umkreist, ist keineswegs ein kräftefreies System. Es unterliegt, wenn auch nur schwach, der Schwerkraft unseres Planeten. Die Gravitation , Newtons universelle, beschleunigende, nicht abschirmbare und mit einer unendlichen Reichweite ausgestattete Kraft, war in die Theorie nicht eingebunden. Diesmal war es nicht in einigen Wochen getan. Einstein stieß bei dem Versuch, Beschleunigung und Gravitation in seine Überlegungen einzubauen, an die Grenzen seiner mathematischen Kunstfertigkeit. Er musste die Hilfe seines alten Studienfreundes, des Mathematikers Marcel Grossmann  in Anspruch nehmen. Elf Jahre sollten vergehen, bis Einstein 1916 endlich sein umfassendes Gedankengebäude vorstellen konnte. Die „allgemeine Relativitätstheorie“  ist eine neue Betrachtung der Gravitation, eine grandiose Erweiterung unseres Weltbildes, zugleich aber auch eine grenzenlose Überforderung unseres Vorstellungsvermögens.   Beschleunigung und Schwerkraft erzeugen identische physikalische Effekte Ausgangspunkt von Einsteins Überlegungen war diesmal ein Effekt, der sich in jedem Fahrstuhl beobachten lässt: Stellt man sich im Lift auf eine Waage (die nichts anderes als ein Schwerkraftmesser ist) zeigt diese, solange der Fahrstuhl nach oben beschleunigt, eine Gewichtszunahme an. Fährt der Lift dann gleichmäßig, zeigt die Waage das „normale“ Gewicht. Dies ist im Einklang mit Newtons erstem Bewegungsgesetz , das besagt, dass in jedem System, das sich kräftefrei mit gleichbleibender Geschwindigkeit bewegt, die gleichen Bedingungen gelten, wie in einem ruhenden System. Bremst der Lift vor der Ankunft ab, fühlen wir uns nicht nur leichter – wir sind es auch. Unser Gewicht auf der Waage ist nun geringer. Die Fahrstuhlreise macht deutlich, dass Beschleunigung und Schwerkraft letztlich zu identischen physikalischen Effekten führen. Dieses Äquivalenzprinzip ist das Fundament der allgemeinen Relativitätstheorie. In einem sich beschleunigenden System gelten andere Bedingungen als in einem, das ruht oder sich gleichförmig bewegt: Eine Kugel, die in einem Zug auf einem Tisch liegt, rollt bei Beschleunigung entgegen der Fahrtrichtung zurück, Reisende werden in ihre Sitze gedrückt. Ein Lichtimpuls, der in Fahrtrichtung gesendet wird, muss bei Beschleunigung, im Vergleicht zu einem sich gleichförmig bewegenden System, einen noch längeren Weg zurücklegen – die Spitze des Zugs fährt dem herannahenden Lichtblitz zunehmend schneller davon. Das Licht braucht für den längeren Weg mehr Zeit. Somit führt nicht nur eine konstante Geschwindigkeit zu einer Zeitdehnung, sondern auch eine Beschleunigung. Aufgrund des Äquivalenzprinzips gilt das aber auch für die Gravitation. Das bedeutet, dass Uhren mit zunehmender Schwerkraft immer langsamer gehen. 1954 auf dem Bikini Atoll: Hier wird gerade 1% einer überschaubaren Masse in Energie verwandelt Diese Aussage ist eine Verallgemeinerung des ersten Grundprinzips der speziellen Relativitätstheorie: Je stärker Beschleunigung oder Gravitation wirken, desto schleppender vergeht die Zeit. An der Küste gehen Uhren langsamer als auf einer Bergspitze, denn sie befinden sich näher am Erdmittelpunkt, dem Gravitationszentrum unseres Planeten. Die Bewohner von Zermatt und Kathmandu altern also schneller als die Einwohner von Emden und New York. [iv] Zwar beträgt auch diesmal der Effekt auf der Erde nur wenige milliardstel Sekunden; für die großen Maßstäbe des Weltalls aber gilt: Die Zeit wird durch die Gravitationsfelder großer, schwerer Himmelskörper merklich beeinflusst. Damit ließ sich nun auch die zweite Aussage der speziellen Relativitätstheorie erweitern: Wenn in der Nähe großer Gestirne die Zeit langsamer abläuft, müsste sich der Lichtstrahl in der langsameren Zeit eigentlich über eine größere Strecke ausbreiten. Da die Lichtgeschwindigkeit aber konstant ist, ist auch diesmal die einzige Möglichkeit die, dass sich Objekte in der Nähe großer Massen verkleinern. Mit anderen Worten: Körper schrumpfen unter Einwirkung der Schwerkraft. Die Einwohner von Emden altern zwar weniger schnell, dafür werden sie stärker zusammengestaucht. Zeitdilatation und Längenkontraktion führen dazu, dass der gesamte Raum durch die Gravitationswirkung von Massen „verbogen“ und dadurch vergrößert wird. Schwerkraft ist somit letztlich nichts anderes als Raumzeitkrümmung.   Verbo(r)gene Welten Es ist besser, wenn wir gar nicht erst versuchen, uns unter Raumzeitkrümmung etwas vorzustellen. Die Evolution   hat uns nur auf eine dreidimensionale Welt vorbereitet – das genügt vollkommen, um sich von Ast zu Ast zu schwingen. Das Prinzip der Raumzeitkrümmung lässt sich aber mit einer Analogie aus der dreidimensionalen Welt verdeutlichen, in der ein aufgespanntes zweidimensionales Stofftuch den dreidimensionalen Raum repräsentiert. Legen wir eine Kugel auf das Tuch, wird durch die Masse der Kugel die Fläche gedehnt und damit vergrößert. So wie die Schweiz eine größere Fläche hätte, wenn man ihre Gebirgsfalten auseinanderzöge, so hat der Raum unter Einwirkung der Gravitation ein größeres Volumen. Dieser „verbogenen Welt“, war mit Euklids Geometrie   allerdings nicht beizukommen. Nach einigen Mühen gelang es Grossmann und Einstein, Minkowskis Raumzeit mit Riemanns Geometrie gekrümmter Flächen miteinander zu verknüpfen und die Raumzeitkrümmung so mathematisch zu beschreiben. Damit wurde deutlich, dass das Wesen der Schwerkraft ungleich komplexer war, als von Newton ursprünglich beschrieben: Die Gravitation ist eine Eigenschaft des gekrümmten Raumes, die dessen Geometrie verändert. Dort, wo es Masse gibt, ist der Maßstab für Raum ein anderer als im Vakuum. Einstein ersetzte Newtons Fallbeschleunigung durch die Vorstellung eines Fallens in die Krümmung der vierdimensionalen Raumzeit. Die Himmelskörper ziehen ihre Bahnen im Trichter der Raumzeitkrümmung. Damit ließen sich nun endlich auch die von Kepler beobachteten Unregelmäßigkeiten der planetaren Umlaufbewegungen erklären, auf die die klassische Mechanik keine Antwort wusste. Eine letzte Frage galt es noch zu klären: Welchen Einfluss hat der gekrümmte Raum auf das Licht? Licht hatte schließlich Wellencharakter und besaß keine Masse, so dass die Gravitation ihm eigentlich nichts anhaben können müsste. Doch Einstein ging davon aus, dass auch Lichtstrahlen durch massereiche Objekte abgelenkt werden. Genau diese Voraussage der allgemeinen Relativitätstheorie, konnte durch die Sonnenfinsternis von 1919 auf Príncipe erstmals experimentell bestätigt werden. Sterne, die nahe bei der Sonne stehen, haben, bedingt durch das Schwerefeld des Fixsterns, eine scheinbar andere Position am Himmel als jene, die weiter entfernt sind.   Die Gravitation verbiegt Raumzeit und Licht Mit der allgemeinen Relativitätstheorie kehrt die Physik zu ihren astronomischen Ursprüngen zurück . Als eine neue Theorie der Gravitation markiert sie den Beginn der modernen Kosmologie. Bereits 1916 hatte der deutsche Astrophysiker Karl Schwarzschild , basierend auf Einsteins Thesen, die Existenz schwarzer Löcher vermutet, Überreste sehr großer, ausgebrannter Sterne, deren Massen auf ein winziges, unvorstellbar dichtes Volumen konzentriert sind. Diese Objekte mussten den Raum dermaßen krümmen, dass er die Form eines Trichters annimmt, der wie ein kosmischer Staubsauger alles frisst, was ihm zu nahekommt. Selbst das Licht wird Opfer der extremen Gravitation und von dem schwarzen Loch vollständig verschluckt.   Die Relativitätstheorie - ein ganz neues Weltbild Newtons Weltbild war damit vollständig aus den Angeln gehoben. Ganz offenbar wurde das Universum von einem ganz anderen Regelwerk regiert, als man seit dem späten 17. Jahrhundert geglaubt hatte: Zeit und Raum sind dynamisch; Energie und Materie zwei Erscheinungsformen desselben Phänomens; Massen verbiegen Raum und verschlucken Licht. Allein aus Gedankenexperimenten und Kopfkino geboren, ist die Relativitätstheorie die vielleicht größte intellektuelle Leistung, die jemals einer einzelnen Person zugeschrieben werden konnte. Seit nunmehr über 100 Jahren hält sie allen experimentellen Überprüfungen stand. Mit ihr hat Einstein nicht nur die Physik, sondern auch die Art und Weise, wie wir die Welt betrachten auf eine völlig neue Ebene gestellt. [v] Unwillkürlich drängte sich die Frage auf, ob sich die unglaublichen Energiemengen, die in der Materie schlummern, nicht in irgendeiner Form freisetzen ließen. Die Physiker ahnten, dass ihnen eine Theorie, der großen, kosmischen Maßstäbe hierbei nicht weiterhelfen würde. Sie mussten die Antwort am anderen Ende der Größenskala suchen. (Mehr dazu im nächsten Physik-Blog...)   Den Blog entdecken   Wer mehr wissen will: Einstein, Albert (1905): „Zur Elektrodynamik bewegter Körper“, Annalen der Physik, vierte Folge, Band 17 Hollinger, Maik (2014): „Einstein erlangt Weltruhm“ in: skriptum-geschichte.de Heft 1 2014. Bodanis, David (2001): „E = mc2 A Biography of the World´s Most Famous Equation”, Pan. Anmerkungen: [i] Allerdings vergeht die Zeit auf dem Bahnsteig besonders langsam, wenn man kalte Füße hat. [ii] Die Zeitdilatation konnte mithilfe von Flugzeugen und Atomuhren mehrfach experimentell bestätigt werden, wenn auch die ermittelten Zeitunterschiede nur wenige milliardstel Sekunden ausmachen. [iii] Der niederländische Physiker Hendrik Antoon Lorentz hatte bereits 1892 bestimmte Abweichungen im Michelson-Morley Experiment mit einer Objekt-Kontraktion erklärt. [iv]  Auch dieser Effekt konnte mit Atomuhren experimentell nachgewiesen werden. [v]  Zahlreiche Alltagstechnologien, wie etwa die Satellitennavigation, wären ohne die Relativitätstheorie undenkbar. Navigationssysteme liefern nur dann hinreichend genaue Positionsbestimmungen, wenn die durch die Gravitation verursachte Zeitdilatation zwischen Satellit und Erde in den mathematischen Algorithmen berücksichtigt wird.

bottom of page