Suchergebnisse
100 Ergebnisse gefunden mit einer leeren Suche
- Wie funktionieren Märkte? Die Geschichte des neoklassischen Gedankens
Fortsetzung von: Die klassische Nationalökonomie. David Ricardo und Thomas Malthus Ein preußischer Beamter revolutioniert die Ökonomie Preußische Beamte entsprechen nicht gerade der landläufigen Vorstellung, die man sich von Revolutionären macht. Doch der heute kaum noch bekannte Regierungs-Assessor Hermann Heinrich Gossen (1810-1858) war einer der größten Aufrührer der ökonomischen Theorie überhaupt: Er verband Mills abnehmende Ertragszuwächse mit Says Nutzenidee und goss beides in Mathematik . Diese bemerkenswerte Synthese aus subjektiven Präferenzen und objektiver Berechnung bezeichnen wir heute als die „ Marginalistische Revolution “. Sie ist gleichsam die kopernikanische Wende der Ökonomie . Vor Gossen wurden wirtschaftswissenschaftliche Theorien verbal, bestenfalls tabellarisch beschrieben. Die neue Grenznutzen schule aber basierte auf Differentialrechnung . Mit ihr ließen sich nun optimale Zustände theoretisch exakt ermitteln. Die Dogmen der daraus hervorgegangenen neoklassischen Mikroökonomie bilden bis heute das Fundament der herrschenden wirtschaftswissenschaftlichen Meinung. Preussischer Beamter und Revolutionär: Hermann Heinrich Gossen 1854 veröffentlichte Gossen eine Schrift mit dem etwas weitschweifigen Titel: „Entwickelung der Gesetze des menschlichen Verkehrs, und der daraus fließenden Regeln für menschliches Handeln“. Seinen wichtigsten Gedanken beschreibt der preußische Staatsdiener gleich zu Beginn: „Der Mensch wünscht sein Leben zu genießen und setzt seinen Lebenszweck darin, seinen Lebensgenuß auf die möglichste Höhe zu steigern“. [i] Zu diesem Zweck, davon ist Gossen überzeugt, kalkulieren wir alle unablässig – bewusst oder unbewusst. Für eine genaue Berechnung müssen „alle Entbehrungen abgezogen werden, welche der wirkliche Genuß durch seine Folgen dem Menschen in seiner ganzen Zukunft auferlegen würde […]“. [ii] Wir müssen, anders gesagt, also bei der Berechnung des Nutzens auch die damit verbundenen gegenwärtigen und künftigen Kosten berücksichtigen. Die Gossenschen Gesetze Im Kern beruht Gossens Revolution darauf, der schwer zu fassenden Nutzenidee einen mathematischen Wert zuzuweisen, mit dem sich der Grad der Bedürfnisbefriedigung ausdrücken lässt. Das erste Gossensche Gesetz beschreibt das zugrundeliegende Prinzip des abnehmenden Grenznutzens. Der Nutzenzuwachs ist nicht proportional zur konsumierten Menge, sondern nimmt kontinuierlich ab. Tatsächlich entspricht das einer generellen Alltagserfahrung: Das erste Glas Wein erzeugt einen Nutzen – es entsteht ein gutes Gefühl, vielleicht, weil Endorphine ausgeschüttet werden. Das zweite Glas fördert unser Wohlbefinden weiter, aber in einem etwas geringerem Maße als das erste. Genauso verhält es sich mit allen weiteren Gläsern, die wir zu uns nehmen, bis wir an einen Punkt kommen, an dem eine Sättigung eintritt. Wir haben „genug“. Ein weiterer Schluck stiftet nun keinen zusätzlichen Nutzen mehr. Wenn wir dennoch weitertrinken nimmt unser Wohlergehen sogar ab – der Grenznutzen wird negativ. Damit wird auch deutlich, warum der Wert eines Gutes nicht absolut zu ermitteln ist: Er ändert sich mit jeder einzelnen betrachteten Einheit. Das siebte Glas Wein kostet genau so viel, wie das erste – sein Nutzen ist aber deutlich geringer. Für einen Bauern ist der letzte produzierte Sack Getreide in einem schlechten Jahr wertvoller als in einem guten Jahr. Für den Bewohner einer Ein-Zimmer-Wohnung ist ein weiterer Quadratmeter wichtiger als für einen Schlossherrn. Und spätestens der fünfte Fernseher im Haus dürfte in den meisten Fällen allen Bewohnern einen negativen Grenznutzen garantieren. Das zweite Gossensche Gesetz geht der Frage nach, wie der Nutzen insgesamt maximiert werden kann. Dazu muss der Entscheider seine Ressourcen an Zeit oder Geld so auf sein Güterportfolio aufteilen, dass die letzte ausgegebene Geldeinheit für jedes Gut denselben Grenznutzen erzielt. Nur damit lässt sich das im utilitaristischen Sinne größtmögliche Glück erreichen. Was bedeutet das? Nehmen wir vereinfachend an, dass ein rationaler Entscheider nur die beiden Güter Wein und Tuch konsumiert. Solange der Grenznutzen einer weiteren Einheit Wein größer ist, als der einer weiteren Einheit Kleidung, ist es rational, die nächste verfügbare Geldeinheit für Wein auszugeben. Ein vernünftiges Individuum tut dies so lange, bis die letzte Einheit Wein denselben Nutzenzuwachs erzielt, wie die letzte Einheit Tuch. Dieses Entscheidungsmuster sichert den größtmöglichen Gesamtnutzen aus dem Konsum beider Güter. Dahinter steckt letztlich wieder Ricardos Opportunitätskostenüberlegung : Indem er den Wein wählt, bringt unser Entscheider oder unsere Entscheiderin zum Ausdruck, dass er persönlich die Opportunitätskosten des Verzichts auf neue Kleidung geringer schätzt als den Nutzen des Weinkonsums. Die Mathematisierung der Ökonomie Die Theorie, mit der der preußische Assessor menschlichem Handeln mathematisch auf den Grund ging, wurde zu seinen Lebzeiten nicht wahrgenommen. Um 1870 jedoch entdeckten der Franzose Léon Walras , der Österreicher Carl Menger und der Engländer William Stanley Jevons fast zeitgleich und unabhängig voneinander den Grenznutzengedanken erneut. Die drei stritten sich eine Weile um die Priorität ihrer Idee, bis sie feststellten, dass Gossen ihnen um rund 15 Jahre zuvorgekommen war. Newtons und Leibniz‘ Differentialrechnung war das passende Werkzeug, um die sich laufend ändernden Nutzen-Zuwachsraten zu analysieren. Ursprünglich entwickelt, um die Dynamik harter Naturgesetze zu beschreiben, wurde sie nun auf die vollkommen subjektiven Vorstellungen übertragen, die Individuen mit dem Konsum von Gütern verbinden. Der Gesamtnutzen, der sich mit fortschreitendem Konsum ergibt, lässt sich als Exponentialfunktion darstellen; der Grenznutzen einer zusätzlichen Einheit ergibt sich folglich aus deren erster Ableitung. Auf dem Scheitelpunkt der Gesamtnutzenfunktion ist der Nutzenzuwachs Null. Auf dieser Grundlage lassen sich Optima berechnen, ein Kalkül, das die vormals linearen Betrachtungen nicht zuließen. Ab 1870 arbeiteten Walras, Menger und Jevons nach und nach die nötigen mathematischen Details aus, mit der sich die Entscheidungslogik der Konsumenten in der so genannten Haushaltstheorie darstellen ließ. Das Marginalprinzip bei Haushalten und Unternehmen Der englische Ökonom Alfred Marshall (1842-1924) zeigte 1890 in seinem Standardwerk „ Principles of Economics “, dass sich das marginalistische Kalkül der Konsumenten auch auf Unternehmen übertragen lässt. Auch sie wollen als durch und durch rationale Teilnehmer am Wirtschaftsleben ihren Nutzen optimieren. Sie haben hierfür nur ein anderes Wort: Gewinn. Er ergibt sich, wenn die Kosten vom Umsatz abgezogen werden. So wie die Haushalte ihr limitiertes Budget nutzenmaximierend auf verschiedene Güter aufteilen, möchten auch die Unternehmen ihre Produktionsfaktoren so einsetzen, dass sie den Gewinn maximieren. Ein Bauer kann beispielsweise den Ertrag seines Weizenfeldes mithilfe von Dünger steigern. Mit jeder weiteren Einheit Dünger nimmt der Ernteertrag zu, allerdings – wie schon von Mill festgestellt – mit kontinuierlich fallenden Raten. Urheber des Markdiagramms: Alfred Marshall im Jahre 1921 Der Bauer wird also unter Berücksichtigung seiner Grenzkosten genau die Menge an Dünger einsetzen, die seinen Gewinn maximiert. Mathematisch ist dieses Optimum erreicht, wenn die Grenzkosten der letzten produzierten Einheit dem Grenzerlös entsprechen. Eine noch größere Produktionsmenge würde den Gewinn wieder verringern, weil die Kostenzuwächse dann die Erlöszuwächse übersteigen. Die neoklassische Theorie unterstellt, dass jeder Unternehmer nach dieser Maxime handelt, ganz gleich, ob er ein Weizenfeld bestellt, einen Friseursalon betreibt oder eine Fabrik für Computerchips. [iii] Die bekannteste aller Wirtschaftsgraphiken: das Marktdiagramm Haushalte und Unternehmen verfolgen letztlich ähnliche Ziele. Der strikten Gewinnorientierung kapitalistischer Unternehmen entspricht das konsequente Nutzenstreben der Haushalte. Beide Seiten sind zudem eng miteinander verflochten: Die Erlöse der Unternehmen sind die Kosten der Haushalte und die Einkommen der Haushalte sind die Lohnkosten der Unternehmen. Die eine Seite bietet an, die andere Seite fragt nach. Der Ort, an dem egoistische Anbieter auf selbstsüchtige Nachfrager treffen, ist der Markt. Diesen Zusammenhang stellte Marshall in einem einfachen Modell dar, dem Marktdiagramm : Alfred Marshalls Marktdiagramm Der untere Punkt auf der Angebotskurve besagt, dass bei einem Stückpreis von 2 die Anbieter bereit sind, 2 Einheiten herzustellen und zu verkaufen; der untere Punkt auf der Nachfragekurve verrät, dass die Haushalte zu diesem Preis 4 Stück nachfragen würden. Ein Teil der Konsumentenwünsche bleibt unter diesen Bedingungen unerfüllt. Die beiden oberen Punkte besagen, dass die Unternehmen bei einem Preis von 4 auch 4 Einheiten anbieten würden; die Konsumenten fragen zu diesen Konditionen allerdings nur 2 Einheiten nach. Die Anbieter würden somit auf einem Teil ihrer Ware sitzenbleiben. Ganz anders ist die Situation bei einem Stückpreis von 3: Nun decken sich die Mengen, die die Haushalte nachfragen mit den Mengen, die die Unternehmen anzubieten bereit sind. Beide Seiten haben sich gegenüber den vorherigen Szenarien verbessert, denn sie befinden sich jetzt auf einem höheren Nutzen- beziehungsweise Gewinnniveau. Es ist sogar das bestmögliche Ergebnis. Der Preis von 3 sendet an beide Seiten ein Signal der Harmonie, das dafür sorgt, dass sich angebotene und nachgefragte Menge genau entsprechen. Der Markt wird geräumt, die Wünsche aller Beteiligten erfüllt. Marshalls Modell bringt die Vorstellung zum Ausdruck, dass Märkte – so wie physikalische und biologische Systeme – mathematisch beschreibbaren, natürlichen Gleichgewichtszuständen entgegenstreben. Auf die Frage, ob denn nun das Angebot oder die Nachfrage den Preis bestimme, antwortete Alfred Marshall einmal, dass diese Frage so sinnvoll sei, wie die, ob ein Blatt Papier von der oberen oder der unteren Scherenklinge durchschnitten wird“. [iv] Die Nachfragekurve endet am dem Punkt, an dem der Konsum einer zusätzlichen Einheit keinen Nutzenzuwachs mehr verspricht. Dem gegenüber stellt die Angebotskurve der Unternehmen die Mengen dar, die das Unternehmen zu jeweils unterschiedlichen Preisen zu produzieren bereit ist. Die Anbieter werden ihr Angebot so lange ausweiten, bis die Grenzkosten den Grenzerlösen entsprechen. Ihre Überlegung ist es nicht, wie man vordergründig meinen könnte, bei einem höheren Preis automatisch auch mehr anzubieten – die Unternehmen möchten ihren Gewinn maximieren, nicht ihren Umsatz. Hinter Angebots- und Nachfragekurve verbirgt sich letztlich nichts anderes als die über alle Marktteilnehmer aggregierten Grenzkostenkurven der Unternehmen und Grenznutzenkurven der Haushalte. Am Schnittpunkt beider Kurven treffen Käufer mit einem hohen Grenznutzen auf Verkäufer mit niedrigen Grenzkosten. Der Preis ist das Medium, über das sich beide Seiten miteinander verständigen. Er objektiviert die Nutzen- und Gewinnerwartungen die Anbieter und Nachfrager für jeden Punkt ihrer jeweiligen Kurven haben. Der Preis stellt sicher, dass stets derjenige ein knappes Gut erhält, der dafür am meisten zu zahlen bereit ist. Er kommuniziert Anreize in einer Weise, die das Verhalten selbstsüchtiger Akteure in ein Marktgleichgewicht bringt. Der Preis ist letztlich nichts anderes, als Smiths unsichtbare Hand , die alles so wunderbar koordiniert. Marshalls Marktmodell bringt die Idee der Marginalistischen Revolution auf den Punkt und gibt Smiths geheimnisvoller Metapher einen konkreten Namen. Massenmärkte für Menschenmassen Portugiesischer Wein, englisches Tuch, Luxusyachten, Benzin, Internetzugänge, Büroklammern, Sachbücher, Zahnimplantate, illegale Drogen, gefälschte Ausweispapiere, Haarschnitte, Yogakurse, Währungen oder Aktien: Das Marktdiagramm ist das universelle Modell für die Massenmärkte der Industriellen Revolution. Sein Erklärungspotential ist beeindruckend. Es zeigt nicht nur, wie Preise entstehen, sondern auch, wie veränderte Bedingungen auf die Preisbildung wirken. Eine Zunahme der Anbieter weitet die Angebotsmenge aus; die Angebotskurve verschiebt sich parallel nach rechts; der Preis fällt. Erhebt der Staat auf den Konsum eines Guts eine Steuer, wird es dadurch teurer, die nachgefragte Menge fällt; auch in diesem Fall sinkt der Preis. Nimmt die Nachfrage bei gegebenem Angebot zu, verschiebt sich die Nachfragekurve nach rechts; der Markt findet dann über einen höheren Preis ein neues Gleichgewicht. Auswirkung von verändertem Angebot und Nachfrage auf die Preisbildung Wie stark sich eine Preisänderung auf das Verhalten der Haushalte auswirkt, lässt sich mit Hilfe der Preiselastizität der Nachfrage messen. Produkte des Grundbedarfs, wie Brot oder Kraftstoffe – beide haben übrigens etwas mit elementarer Energieversorgung zu tun – zeigen meist geringe Elastizitäten. Bei Preissteigerungen geht hier die Nachfrage kaum zurück, weil die Verbraucher kurzfristig auf keine anderen Produkte ausweichen können. Dagegen zeigen Luxusgüter, die verzichtbar sind, sich leicht ersetzen lassen oder deren Konsum sich aufschieben lässt, hohe Elastizitäten: Bei einer Preiserhöhung reduziert sich die nachgefragte Menge deutlich. Je höher die Elastizität, desto flacher verläuft die Nachfragekurve in Marshalls Diagramm. [v] Auf der Unternehmensseite gibt es analoge Überlegungen. Je elastischer das Angebot, desto flacher die Angebotskurve. Für den Grenzfall eines unendlich elastischen Guts verläuft die Angebotskurve vollkommen horizontal: Die Anbieter sind bereit, zu einem festen Preis jede beliebige Menge zu liefern. Das ist ihnen möglich, weil in diesem Fall ihre Grenzkosten nicht von der hergestellten Menge abhängen. Das tausendste Weinfass kostet sie dann nicht mehr als das hundertste. Ein Modell mit vielen idealisierenden Annahmen Die mathematische Modellwelt der neoklassischen Theorie ist der Kern dessen, was wir heute als Mikroökonomie bezeichnen. Sie untersucht mit Mitteln der Analysis, wie egoistische Individuen interagieren, sich arbeitsteilig organisieren und ihre knappen Mittel einsetzen. Es ist wichtig zu verstehen, dass diese Modellwelt auf einer ganzen Reihe weitreichender und idealisierender Annahmen beruht. Die zentrale Prämisse ist ein bestimmtes Menschenbild: der Homo oeconomicus . Nach Max Webers Überzeugung ist er eine Erfindung der Moderne, die den antiken Homo politicus ablöste, der Ökonomie lediglich als politische Nebenbedingung sah, um existenzielle Grundlagen sicherzustellen. Tatsächlich hätte vor Beginn der Neuzeit niemand Benjamin Franklins Aphorismus „Zeit ist Geld“ aus seinem Essay „Ratschläge für junge Kaufleute“ verstanden. Oeconomicus ist eine durch und durch rationale Rechenmaschine, die unablässig Funktionen ableitet, um seine persönlichen Zielvorstellungen zu maximieren. Dieses bizarre Wesen agiert, so die nächste Annahme, auf Märkten, auf denen „ vollständige Konkurrenz “ herrscht. Das bedeutet, dass es so viele Anbieter und Nachfrager gibt, dass ein einzelner Akteur durch sein Verhalten die Preisbildung nicht beeinflussen kann. In der mikroökonomischen Idealwelt herrscht zudem volle Informationstransparenz: Alle sind jederzeit über sämtliche Preise sämtlicher Anbieter informiert, deren Güter zudem „homogen“, also vollkommen vergleichbar sind: Der Wein aller Winzer schmeckt immer gleich, das Tuch aller Weber ist stets von identischer Qualität. Vor dem Hintergrund dieser Annahmen möchte die Mikroökonomie die Bedingungen verstehen, unter denen der individuelle Egoismus eine für alle Beteiligten vorteilhafte Situation schafft. Die Mikroökonomie beschreibt, wie ein guter Markt funktioniert Die grundsätzliche Position der neoklassischen Theorie hierzu ist einfach: Man muss nur die unsichtbare Hand frei walten lassen! Wird die natürliche Preisfindung hingegen behindert, können die Ressourcen nicht mehr effizient alloziert werden; der Markt funktioniert nicht mehr richtig, ein fairer Interessenausgleich zwischen Anbietern und Nachfragern wird durch solche Verzerrungen unmöglich. Die wichtigste Voraussetzung für ein gutes Ergebnis ist daher vollständiger Wettbewerb . Auf den Märkten sollen so viele Konsumenten wie möglich auf so viele Produzenten wie möglich treffen; niemand darf vom Marktzugang abgehalten werden. Auf der Angebotsseite soll es rau zugehen. Die vollkommene Konkurrenz übt im Interesse der Konsumenten einen permanenten Druck auf die Gewinnmargen aus. Die Verbraucher können die Anbieter gegeneinander ausspielen und gelangen so auf ein höheres Nutzenniveau. Solange ein Unternehmen noch Gewinne erzielen kann, führt der unerbittliche Kampf um Marktanteile dazu, dass weitere Wettbewerber auf den Markt drängen und versuchen, die Konkurrenz zu unterbieten. Langfristig führt der Wettbewerb daher dazu, dass der Unternehmensgewinn gegen Null strebt. Wirtschaftspolitische Konsequenzen Vor diesem Hintergrund ist es nur allzu verständlich, dass die Unternehmen diesem Überlebenskampf zu entkommen suchen. Unter den Bedingungen des vollkommenen Wettbewerbs kann ein einzelner Unternehmer keine höheren Preise durchsetzen. Ihm bleibt allein, seinen Gewinn über die Absatzmenge zu beeinflussen. Die Versuchung, diese Beschränkung zu umgehen, ist groß. Die naheliegendste Möglichkeit sind Preisabsprachen zwischen Konkurrenten. Die zweite Möglichkeit ist aufwändiger, aber noch verlockender. Das Unternehmen kann versuchen, eine Monopolstellung zu erringen, indem Konkurrenten aufgekauft oder durch ruinösen Wettbewerb eliminiert werden. Danach kann der Monopolist ungestört seine Preise diktieren – eine Entwicklung die Karl Marx als letztes Stadium des Kapitalismus vor dessen unvermeidlichem Zusammenbruch ansah. Da weder Preisabsprachen noch Machtkonzentration im Sinne der Verbraucher sind, ist es aus neoklassischer Sicht die wichtigste wirtschaftspolitische Aufgabe des Staates, den Wettbewerb auf den Märkten zu erhalten. Er soll Unternehmensgründungen fördern, Kartelle verbieten, Fusionen kontrollieren und Monopole verhindern. Über diesen Rahmen hinaus, darf der Staat aber keinesfalls in die Marktgeschehnisse und die Preisbildung eingreifen. Die neoklassische Mikroökonomik bewegt sich in diesem Sinne voll und ganz im Fahrwasser des politischen Liberalismus eines John Lockes oder David Humes. Es regt sich Kritik an dem Modell In der zweiten Hälfte des vorigen Jahrhunderts regte sich zunehmend Kritik an den Prämissen des mikroökonomischen Modells. Vor allem der Homo oeconomicus geriet ins Fadenkreuz. Bereits Adam Smith war sich sicher, dass es diesen rationalen Entscheider nicht gibt. In seinem zweiten großen Werk, der bereits 1759 erschienenen „ Theory of Moral Sentiments “ – „Theorie der ethischen Gefühle“, hatte sich der Philosoph unter anderem mit der Psychologie von Trugschlüssen auseinandergesetzt. Smith konstatierte, dass die Menschen zur Selbstüberschätzung neigen und eine ausgeprägte Gegenwartspräferenz haben. Sie ziehen es vor, lieber weniger sofort zu haben als mehr in der Zukunft – lieber den Spatz in der Hand als die Taube auf dem Dach. Derlei psychologische Überlegungen wurden allerdings durch die neoklassische Lehre fast 200 Jahre lang vollkommen verdrängt. Erst die Spieltheorie konnte aufzeigen, dass gängige Strategien von Marktteilnehmern zu suboptimalen Ergebnissen führen. Damit rückte die irrationale Seite des menschlichen Handelns wieder in den Fokus der Ökonomen. Mit der Verhaltensökonomie entstand eine neue Strömung, die im Laufe der Jahre eine Fülle von Beispielen zusammentrug, die deutlich machen, wie schnell wir auf unseren mikroökonomischen Entscheidungspfaden stolpern oder falsch abbiegen: Wir schätzen Wahrscheinlichkeiten falsch ein, gewichten Information, die unsere Hypothesen zu bestätigen scheinen, stärker als jene, die ihnen widersprechen und sind Opfer eines Herdentriebs, der uns verleitet, bei steigenden Kursen Aktien nur deshalb zu kaufen, weil alle anderen es ebenfalls tun. Die Verhaltensökonomie zeigt, dass unsere Rationalität in nicht unerheblichem Maße eingeschränkt ist. Gerade bei der Verarbeitung ökonomischer Daten scheint unser Neokortex im Konflikt mit älteren Gehirnschichten besonders oft zu unterliegen. Dass wir das Geld erfunden haben garantiert noch nicht, dass wir auch richtig damit umgehen können. Psychologie und Marktversagen Die beiden israelischen Psychologen Amos Tversky (1937-1996) und Daniel Kahneman (1934-2024) beschrieben solche Phänomene 1979 erstmals systematisch im Rahmen ihrer „ Neuen Erwartungstheorie “. (Kahneman erhielt 2002 hierfür den Nobelpreis für Wirtschaftswissenschaften.) Ein zentrales Element ihrer Betrachtungen ist das Phänomen der Verlustaversion . Eine Person, die 5 Euro geschenkt bekommt, ist glücklicher, als eine, die zunächst 10 Euro erhält, aber davon 5 Euro wieder abgeben muss. [vi] Ein Homo oeconomicus wäre beiden Fällen gegenüber vollkommen indifferent. In der Praxis führt die Verlustaversion unter anderem dazu, dass sich viele Anleger nicht rasch genug von fallenden Aktien trennen und dadurch noch größere Verluste erleiden. Ein Psychologe erhält den Wirtschaftsnobelpreis: Daniel Kahneman Auch die Annahme, dass alle Marktteilnehmer über vollständige Information verfügen, ist fragwürdig. Tatsächlich ist die Realität von Informationsasymmetrien geprägt. Eine Seite hat einen Wissensvorsprung, der die Bildung freier Marktpreisgleichgewichte behindert. Der Nobelpreisträger George Akerlof – er erhielt den Preis ein Jahr vor Kahneman – zeigte die Konsequenzen am Beispiel des Gebrauchtwagenmarkts. Der Käufer eines Gebrauchtwagens weiß im Gegensatz zum Verkäufer nicht, ob ein Wagen technische Mängel hat. Dieses Risiko kalkuliert er in seinen Angebotspreis ein und macht ein entsprechend niedriges Angebot. Für die ehrlichen Verkäufer einwandfreier Fahrzeuge ist dieser Preis aber zu niedrig; sie ziehen sich deshalb vom Gebrauchtwagenmarkt zurück. Die Informationsasymmetrie führt somit zu einer Negativauslese: Weil sich auf dem Markt nur noch unredliche Händler tummeln, finden Verbraucher und ehrliche Anbieter nicht mehr zueinander. Funktioniert nicht richtig: der Markt für Gebrauchtwagen Wie verteilt man den Kuchen? Effizienter Ingenieur, Soziologe, Ökonom: Vilfredo Pareto Rationale Entscheider, vollkommener Wettbewerb, homogene Güter und vollständige Information führen nach neoklassischer Überzeugung alle Beteiligten in einen idealen Zustand, das so genannte Pareto-Optimum . Benannt ist es nach Vilfredo Pareto (1848-1923), einem italienischen Ingenieur und Soziologen. Handlungen sind Pareto-effizient, wenn durch ihr Ergebnis mindestens ein Akteur bessergestellt wird, ohne dass sich die Situation eines anderen Akteurs dadurch verschlechtert. Preisabsprachen, unehrliche Händler oder betrügerische Kunden schaden daher der Pareto-Effizienz, weil eine Seite zwar gewinnt, die andere aber verliert. Wenn einer sie alleine isst, tut dies der Effizienz keinen Abbruch Neben der Einsicht, dass Menschen faktisch irrational handeln und Märkte versagen können, gibt es noch eine weitere Kritik an der neoklassischen Wirtschaftstheorie: Ideale Wettbewerbsmärkte führen zwar theoretisch zu einem bestmöglichen Zustand. Ob dieser aber gerecht ist, ist eine ganz andere Frage. Pareto-Effizienz herrscht auch dann, wenn ein Einzelner einen ganzen Kuchen allein vertilgt. Der Egoist hat sich dadurch bessergestellt, aber ansonsten niemandem geschadet. Pareto selbst hatte sich eingehend mit diesem Problem beschäftigt. Für seine umfangreichen statistischen Recherchen konsultierte er Steuerbücher der Städte Basel und Augsburg aus dem 15. Jahrhundert, zeitgenössische Aufzeichnungen über Mieteinnahmen in Paris und Einkommenstabellen aus Großbritannien, Sachsen und Peru. Das 1909 veröffentlichte Ergebnis war über alle Epochen und Länder hinweg ebenso eindeutig wie ernüchternd: Seit Beginn der Aufzeichnungen bis zu Gegenwart ist der Reichtum in allen untersuchten Gesellschaften extrem ungleich verteilt. Im Durchschnitt gehören den reichsten 20% der Bevölkerung rund 80% aller Vermögen. Die übrigen 80% teilen sich die verbliebenen 20%. Pareto erschien diese Ungleichverteilung wie ein „soziales Gesetz“, etwas, das ganz offenbar in der „Natur des Menschen“ liegt. [vii] Der alte Widerspruch von Freiheit und Gleichheit war nun erstmals quantifiziert: Ideale, effiziente Wettbewerbsmärkte insgesamt viel Wohlstand hervorbringen – Verteilungsgerechtigkeit können sie jedoch nicht sicherstellen. Das neoklassische Wirtschaftsethos, genährt aus dem Individualismus der Aufklärung , barg sozialen Sprengstoff. Den Blog entdecken Wer mehr wissen will: Gossen, Hermann Heinrich (1854): „ Die Entwicklung der Gesetze des menschlichen Verkehrs und der daraus fließenden Regeln für menschliches Handeln.“, Vieweg. Marshall, Alfred (2013): „Principles of Economics”, Palgrave. Kahneman, Daniel (2011): „Schnelles Denken, langsames Denken“, Siedler. Akerlof, George / Shiller, Robert (2010): „Animal Spirits“, Princeton University Press. Bildnachweise: Daniel Kahneman Gebrauchtwagen Torte [i] Gossen (1854) S.1. [ii] Gossen (1854) S.1. [iii] Die Bestimmung des Gewinnmaximums ist für die meisten Unternehmen wesentlich komplexer als die Nutzenmaximierung der Haushalte, da Teile der Kosten, etwa Mieten, fix, andere Kostenteile wie Materialverbrauch hingegen variabel sind. Die Grenzkosten ergeben sich dann aus der Ableitung der Gesamtkostenfunktion. [iv] Vgl. Marshall (2013) S.290. [v] Die Preiselastizität der Nachfrage darf nicht mit der Steigung der Nachfragekurve verwechselt werden. Die Steigung einer linearen Nachfragekurve ist an allen Stellen gleich; Elastizitäten können hingegen durch den sich laufend ändernden Grenznutzen an jeder Stelle der Kurve unterschiedlich ausfallen. [vi] Vgl. Kahneman (2011) S.447-452. [vii] Vgl. Mandelbrot (2007) S. 153 f.
- Geschichte der Mathematik: Wie man das Gewicht der Erde berechnet
Fortsetzung von: "Eine kurze Geschichte der Geometrie " Jagd auf das Unbekannte: Die Entstehung der Algebra Entgegen einem verbreiteten Vorurteil war das Mittelalter eine Epoche wichtiger Fortschritte. Das gilt auch für die Mathematik. Indische Gelehrte wie Brahmagupta entwickelten das Dezimalsystem und erfanden die Null ; der Italiener Fibonacci verband als einer der Ersten Mathematik und Naturbeobachtung. Eine ganz besondere Rolle kommt dem Perser Muhammad ibn Musa al-Chwarizmi zu. Um das Jahr 830 verfasste er ein Buch mit dem Titel „Rechnen mithilfe der Ergänzung und des Ausgleichs“, in der er das Wissen des Griechen Diophantos von Alexandria mit dem Brahmaguptas verband. Diese neue Synthese aus Ost und West bezeichnete Al-Chwarizmi als al-gabr “. Statue des Muhammad ibn Musa al-Chwarizmi: Von seinem Namen leitet sich der Begriff " Algorithmus" ab. Was man alles auf eine Waage legen kann… Al-Chwarizmis einfache Darstellungen wurden mehrfach ins Lateinische übertragen. Der Gelehrte aus dem Orient begegnet uns daher auch heute noch auf Schritt und Tritt: Aus seiner Methode al-gabr wurde Algebra , aus dem arabischen Wort „ Sifr “ für „ Null “ entstand das Wort „ Ziffer “ und der Name des Autors wurde in dem Wort „ Algorithmus “ verewigt. Algebra erlaubt es uns, zahllose Zusammenhänge in allgemeiner Form darzustellen. Allgemein, weil wir zum Beispiel Buchstaben als Platzhalter verwenden können: a´`2 + b´`2 = c´`2. Die vielleicht bekannteste Gleichung der Welt beschreibt die Beziehung zwischen den Quadraten, die sich aus den Seiten eines rechtwinkligen Dreiecks konstruieren lassen. Diese Beziehung gilt immer, ganz gleich welche reelle Zahlen wir als Variablen für die Buchstaben einsetzen. Die beiden Aussagen links und rechts des Gleichheitszeichens wiegen gewissermaßen gleich schwer; wir können sie uns wie die Schalen einer Waage im Gleichgewicht vorstellen. Auf der linken Schale lasten a´`2 + b´`2, auf der rechten c´`2. Eine Seite aus al-Chwarizmis Buch Sind zwei „Gewichte“ bekannt, beispielsweise 3 für b und 5 für c, können wir das dritte „Gewicht“ ausrechnen. Al-Chwarizmis Methode des systematischen Ausgleichens beschreibt, wie sich der fehlende Wert „a“ bestimmen lässt. Bei der Betrachtung von a´`2 + 9 = 25 stört, dass sich in der Waagschale für a auch noch die 9 befindet, wir müssen sie daher entfernen. Damit gerät die Waage allerdings aus dem Gleichgewicht, denn die rechte Waagschale wiegt nun 9 schwerer als die linke. Nehmen wir nun auch auf der rechten Seite 9 weg, kommt das Ganze wieder ins Lot. Mathematisch ausgedrückt : a ´` 2 + 9 - 9 = 25 - 9 . Diese Beziehung können wir arithmetisch vereinfacht als a´`2 = 16 darstellen. Nach derselben Logik lassen sich nun beide Seiten der Gleichung einer Wurzelbehandlung unterziehen: Somit erhalten wir a = 4. Die konkrete Ausprägung des Satz des Pythagoras lautet in diesem Fall also: 16 + 9 = 25. Man kann so ziemlich alles auf die algebraische Waage legen, zur Not auch den Planeten Erde Ausgerechnet! Algebra erlaubt uns also, das Unbekannte zu finden. Damit lässt sich Wissenschaft betreiben. Über die Kenntnis abstrakter Zusammenhänge bringen wir Neues in Erfahrung. Wir müssen nicht losziehen und die Seite „a“ des Weizenfeldes abschreiten oder eine Bildschirmdiagonale mit dem Zollstock ausmessen. Algebraisches Wissen hat der Menschheit bereits unzählige Tonnen Schweiß und unzählige Jahre Arbeit erspart: Bereits die babylonischen Landvermesser konnten sich in der Mittagshitze einfach unter einen Baum setzten und die fehlende Information ausrechnen. Mathematik lehrt uns eindrücklich, dass Studieren über Probieren geht. a´`2 + b ´` 2 = c ´` 2 als algebraische Darstellung einer geometrischen Beziehung.3,4 und 5 ist dabei nur eines unter unendlich vielen pythagoreischen Zahlentripeln Die Ausgleichstechnik erlaubt es uns, selbst Dinge auf die virtuelle Waagschale zu legen, die wir in der Realität niemals wiegen könnten. Newtons Gravitationsformel – beschreibt etwa die Kraft, mit der sich zwei Massen gegenseitig anziehen. Diese Massen können beispielsweise ein Apfel und die Erdkugel sein. Durch algebraische Umformungen lässt sich die Formel einfach nach der Erdmasse auflösen und der Apfel verrät uns, dass die Masse der Erde rund 5.973 Milliarden Billionen Tonnen beträgt. Experimentell ließe sich diese Zahl unmöglich bestimmen, doch Algebra löst das Problem auf eine verblüffend einfache Art und Weise. Newton erkannte, dass nicht nur die Erde den Apfel anzieht, sondern auch der Apfel die Erde Alles, was sonst noch unter Algebra behandelt wird, sind Variationen dieses Themas. Stets geht es um einen Ausgleich, wobei die technische Durchführung in einigen Fällen recht anspruchsvoll sein kann. Dazu gehören Gleichungen höherer Ordnung , bei denen die Unbekannte in der zweiten, dritten oder einer noch höheren Potenz steht (x´`2, x´`3 … x´`n) oder lineare Gleichungssysteme , bei denen viele verschiedene Gleichungen und Unbekannte (x1, x2, … xn) zueinander in Beziehung gesetzt werden. Solchen Schwierigkeiten rückt man mit Polynomdivision, Eliminationsverfahren (ein einfaches Verfahren für lineare Gleichungen stammt übrigens von Gauß) Linearer Optimierung, Matrizen- oder Vektorrechnung zu Leibe. Doch letztlich stecken dahinter stets al-Chwarizmis algebraische Ausgleichs- und Umformungsregeln. [i] Der kurze Weg von „einfach“ nach „unmöglich“ Bereits in der Antike war bekannt, dass es für den Satz des Pythagoras unendlich viele so genannte pythagoreische Tripel gibt, also drei natürliche Zahlen, die die Gleichung a´`2 + b´`2 = c´`2 erfüllen, wie etwa 3, 4 und 5 oder 119, 120 und 169. Intuitiv würden wir daher für a´`3 + b´`3 = c´`3 und höhere Potenzen dasselbe erwarten. Doch Intuition ist in der Mathematik kein guter Ratgeber. Denn wie der Franzose Pierre de Fermat bereits im 17. Jahrhundert vermutete, gibt es für diese höheren Potenzen überhaupt keine Lösung. Vermutete richtig: der Rechtsanwalt und Zahlenjongleur Pierre de Fermat Fermat musste damals den Beweis für seine Vermutung schuldig bleiben. Allerdings ist dieser Nachweis auch alles andere als trivial. Nachdem sich 350 Jahre lang zahllose Mathematiker an ihm versucht haben, gelang dem Briten Andrew Wiles 1994 schließlich, nach vieljähriger Arbeit, das Kunststück den Beweis der Unmöglichkeit zu erbringen. Für die Darstellung seines Gedankengangs brauchte er über 100 Seiten. Die vermeintlich einfache Erhöhung eines Exponenten von 2 nach 3 führt hier von simpler Schulmathematik zu einer selbst für die versiertesten Mathematiker kaum nachzuweisenden Unmöglichkeit… Den Blog entdecken Wer mehr wissen will: Beutelspacher, Albrecht (2010): „Kleines Mathematikum“, C.H. Beck. Pickover, Clifford A (2014): „Das Mathebuch“, Librero. Bryson, Bill (2024): “Eine kurze Geschichte von fast allem“, Goldmann Bildnachweise: Statue al-Chwarizmis Andrew Wiles unter der Statue von Pierre de Fermat Anmerkungen: [i] Matrizenbasierte Gleichungssysteme führte zur Entwicklung des Operations Research , das heute vor allem in den Ingenieurs- und Wirtschaftswissenschaften eingesetzt wird, dessen Ursprünge aber im Zweiten Weltkrieg liegen. Alliierte Wissenschaftler suchten damals nach mathematischen Modellen zur Unterstützung militärökonomischer Fragestellungen: Wie lässt sich die Wirkung von Bombenteppichen maximieren? Welches Kosten-Nutzen-Verhältnis von Transport- zu bewaffneten Begleitschiffen minimiert die Verluste eines Geleitzugs?
- Schicksalhafte Erbträger: Eine kurze Geschichte der Genetik
Fortsetzung von: "Unintelligentes Design - Darwins Evolutionstheorie" Ein neugieriger Augustinermönch Am 8. Februar 1865, keine sechs Jahre nach der Veröffentlichung der „ Entstehung der Arten “ brütete der österreichische Augustinermönch Gregor Mendel über den letzten Feinheiten des Vortrags, den er am Abend vor den Mitgliedern des Naturforschenden Vereins von Brünn halten würde. Noch waren die Beete im Klostergarten vom Schnee bedeckt. Doch in einigen Monaten würden hier seine Hülsenfrüchte wieder Spalier stehen. Über viele Jahre hatte er alles genau beobachtet und akribisch für über 10.000 gemeine Gartenerbsen aufgezeichnet, wie sich deren Merkmale von Generation zu Generation veränderten. Dabei war ihm etwas aufgefallen: Erbsen, bei denen der eine Elternteil und dessen Vorfahren jeweils nur rote und der andere jeweils nur weiße Blütenblätter aufwiesen, hatten stets rote Blüten. Kreuzte man die Nachkommen aber untereinander, zeigte sich, dass in 25% aller Fälle die nächste Generation weiße Blütenblätter aufwies. Ganz offenbar wurden die Merkmale nach einem genau definierten Muster vererbt. Ausprägungen, die sich in der nächsten Generation gegenüber denen des anderen Elternteils durchsetzen, bezeichnete Mendel als „dominant“, die unterlegenen als „rezessiv“. [i] Hielt sich gerne in seinem Garten auf: Gregor Mendel Weder Mendels Vortrag noch seine Veröffentlichung erzeugten irgendein unmittelbares Echo. Der Augustinermönch war seiner Zeit wohl zu sehr voraus, um beachtet zu werden. Niemand hatte verstanden, dass er soeben jene Wissenschaft begründet hatte, die einst das Rätsel um Darwins Variabilität lösen sollte. Anfang des 20. Jahrhunderts gelang dann dem Amerikaner Walter Sutton und dem Deutschen Theodor Boveri der nächste Erkenntnisschritt. Die beiden stellten – einmal mehr – unabhängig voneinander eine Theorie auf, mit der sich die Mechanik der Mendelschen Regeln erklären ließ. Sie besagt, dass eine als Chromosomen bezeichnete Substanz im Zellkern der Träger der vererbten Merkmale ist. 1953 schließlich publizierten der Amerikaner James D. Watson und der Brite Francis Crick einen kurzen Aufsatz über die „Molekulare Struktur von Nukleinsäuren“. Er schloss mit der Bemerkung: „Es ist unserer Aufmerksamkeit nicht entgangen, dass die speziellen Paarungen […] unmittelbar auf einen möglichen Vervielfältigungsmechanismus für die genetische Erbsubstanz schließen lassen.“ [ii] 1962, fast hundert Jahre nach Mendels Entdeckung, erhielten die beiden Molekularbiologen den Nobelpreis für Medizin. Watson und Crick hatten mit einem erstaunlich einfachen Modell Mendels Regeln, die Chromosomentheorie der Vererbung und die Evolutionslehre auf eine molekulare Grundlage gestellt. Sie hatten die Maschinerie entdeckt, mit der Information von einer Generation auf die nächste übertragen wird. [iii] James D. Watson Francis Crick Wie das Leben Informationen kodiert Träger dieses Wissens ist ein Molekül, das von seiner Erscheinung her an eine verdrehte Strickleiter erinnert, eine doppelte Helix mit Holmen aus Zucker- und Phosphorsäurebausteinen und Sprossen aus den vier Basen Adenin , Thymin , Guanin und Cytosin . Die Desoxyribonukleinsäure , kurz DNS , ist das größte Molekül, das wir im Universum kennen, eine molekulare Festplatte, die unvorstellbar viel Information enthält. So wie bestimmte Buchstabenkombinationen Wörter bilden und dadurch eine Bedeutung erhalten, stellen auch bestimmte Sequenzen der Basen Mitteilungen dar. Das Schriftmolekül erzählt mit nur vier Lettern A, T, G und C den Roman des Lebens. Die Sätze dieses Romans bezeichnen wir als Gene . Chemisch gesehen sind Gene nichts weiter als bestimmte Abschnitte des DNS-Moleküls, die Anweisungen für die Herstellung von Proteinen geben. [iv] Kohlenhydrate und Lipide geben dem Leben Struktur und Energie – Proteine geben ihm seine Individualität : Das Pigment Melanin bestimmt beispielsweise Haut-, Haar- Fell- und Augenfarbe bei Mensch und Tier. Je nachdem, welche Menge Melanin in der Iris eingelagert wird, erscheint das Auge als blau, grün oder braun. Aktin und Myosin bilden Muskelmasse und bestimmen so ebenfalls das äußere Erscheinungsbild; Hormone wie Oxytocin oder Testosteron haben einen maßgeblichen Einfluss auf unser Verhalten. Die Rolle der DNS gleicht der eines mittelalterlichen Kathedralenbaumeisters: In jedem Stein steckt die Möglichkeit, zu einem beliebigen Element der Kathedrale zu werden. Der Baumeister kennt als einziger den gesamten Plan. Nach seinen Anweisungen entstehen aus rohen Bruchsteinen glatte Mauerstücke, Elemente eines Pfeilers, der Schlussstein eines Torbogens oder die Fratze eines Wasserspeiers. Jeder Stein hat eine bestimmte Funktion – zusammen formen sie ein atemberaubendes Ganzes. Genauso stellt das Informationsmolekül sicher, dass aus einer einzigen Zelle durch immer neue Teilungsprozesse Wurzeln, Blätter, Blüten, Haare, Herzmuskelgewebe oder Nervenstränge entstehen. Ein ausdifferenzierter Organismus besteht aus Billionen von Zellen mit hunderten von spezialisierten Zelltypen. Doch wie bewerkstelligen die Gene diese Aufgabe? Wie stellen sie sicher, dass Haut-, Haar- und Regenbogenhautzellen Melanin produzieren, Herzmuskelzellen hingegen Aktin und Myosin? Um diese Frage zu beantworten, müssen wir etwas ausgreifen. Wie entstehen Organismen? Zunächst gilt es zu verstehen, wie ein Organismus wächst. Bei Lebensformen mit sexueller Vermehrungsstrategie (es gibt auch Strategien, die ohne Sex funktionieren) steht am Anfang eine befruchtete Eizelle, eine Zygote . Sie enthält den vollständigen, von Vater und Mutter ererbten Bauplan. Durch Zellteilung differenziert sie sich zu einem neuen Individuum aus. Bevor sich die Zygote zum ersten Mal teilt, muss sie sicherstellen, dass jede Tochterzelle eine vollständige Kopie ihres Bauplans erhält. Jeder Stein muss gleichsam das Wissen um die gesamte Kathedrale in sich tragen. Nur so kann sich der wachsende Organismus alle Differenzierungsmöglichkeiten offenhalten. Das Kopieren des Bauplans, die Replikation , ist eine hochkomplexe biochemische Prozesskette, die durch eine Vielzahl von Enzymen gesteuert wird. Die Enzyme entwinden zunächst die verdrehte Struktur der Doppelhelix und trennen die schwachen Bindungen der Basenpaare. Da sich jede Base nur mit genau einem komplementären Partner verbinden kann – Adenin immer nur mit Thymin, und Guanin immer nur mit Cytosin – enthält jeder der beiden getrennten Stränge immer noch die vollständige und eindeutige Information . Der Replikationsprozess der DNS-Doppelhelix Im nächsten Schritt wird die jeweils fehlende Hälfte unter tatkräftiger Mitwirkung von Enzymen Stück für Stück wieder mit den komplementären Bausteinen ergänzt; die Zelle hat sie zuvor eigens zu diesem Zweck hergestellt: Adenin wird mit einem Thymin-Baustein verbunden, Guanin mit einem Cytosin-Partner und umgekehrt. Dadurch entstehen aus einem alten zwei neue DNS-Stränge, die jeweils zur Hälfte aus dem aufgetrennten Mutterstrang und dem neu gebildeten Tochterstrang zusammengesetzt sind. Zum Abschluss führt der Zellkern eine aufwändige Qualitätskontrolle durch, bei der ein weiteres Enzym die Basenfolge noch einmal abliest und mögliche Kopierfehler korrigiert. Die DNS ist im Zellkern in Päckchen aufgeteilt, eben jene von Boveri und Sutton beschriebene Chromosomen. Nach dem Verdopplungsprozess besteht jedes Chromosom aus zwei genetisch identischen Chromatiden , die in der Mitte, dem Centromer, miteinander verbunden sind. Die Anzahl der Chromosomen ist artspezifisch, es gibt keinen Zusammenhang mit der Komplexität der jeweiligen Lebensform: Menschen haben 23 Chromosomen, Kartoffeln und Schimpansen jeweils 24, Krabben hingegen 127. Da Zygoten aus der Verschmelzung zweier Geschlechtszellen hervorgehen, enthalten sie jedes Chromosom zweimal – beim Menschen also 46 Chromosomen, die je zur Hälfte von Mutter und Vater stammen. Chromosom mit zwei Chromatiden kurz vor der Zellteilung Nachdem sich die Chromosomen verdoppelt haben, wird die Mitose , die Zellteilung , eingeleitet. Der Zellkern löst sich auf und die freigelassenen Chromosomen wandern zur Zellmitte. An den beiden Polen der Zelle bilden sich fangarmartige Spindelapparate, die jeweils eines der beiden Schwesterchromatiden auf ihre Seite ziehen. Nach der Trennung werden die Chromatiden mit einer neuen Zellkernmembran umgeben, danach teilt sich die Zelle in zwei Tochterzellen: bei Pflanzen geschieht dies durch die Errichtung einer neuen Zellwand; bei tierischen Zellen durch Einschnüren mit Hilfe von Aktin-Myosin-Fasern. Jede der neu entstandenen Tochterzellen enthält nun einen einfachen Chromosomensatz, der mit dem der Schwesterzelle völlig identisch ist. Nach einer Wachstumsphase und einer weiteren DNS-Replikation wird die nächste Zellteilung eingeleitet – ein exponentieller Wachstumsprozess, der sicherstellt, dass jeder Abkömmling den ursprünglichen Bauplan vollständig in sich trägt. So entstehen die verschiedenen Zelltypen Woher aber weiß die einzelne Zelle, welchen Teil des Erbes sie antreten darf? Diese Nachlassverwaltung übernimmt die Genexpression mit ihren beiden Prozessen Genregulation und Proteinbiosynthese . Sie sorgt dafür, dass sich in dem wachsenden Organismus nach und nach unterschiedliche Gewebe und Organe ausprägen. Die Genregulation gewährleistet mithilfe chemischer Aktivatoren, dass nur jene Rezepte abgerufen werden, die der jeweilige Zelltyp für seine Aufgabe auch benötigt: Muskelzellen sollen hauptsächlich Aktin und Myosin herstellen, Haarzellen Melanin. Nicht benötigte Rezepte werden durch Repressoren blockiert. Daneben gibt es etliche Gene, die im Normalfall nie zum Zug kommen; sie sind das Erbe der Vorfahren, das in der aktuellen Umwelt seine Bedeutung verloren hat und daher durch Selektionsmechanismen abgeschaltet wurde – so verfügen wir Menschen etwa immer noch passiv über die Anleitung für die Herstellung von Affenfell und Affenschwanz. Die Proteinbiosynthese , die Herstellung der zelltypspezifischen Eiweiße, beruht auf einem einfachen Prinzip: Proteine sind letztlich nichts anderes als lange Ketten von Aminosäure-Bausteinen, wobei die konkreten Eigenschaften des jeweiligen Eiweiß durch die Reihenfolge der Säuren bestimmt wird. Eine bestimmte Sequenz lässt Myosin entstehen, eine andere Aktin, eine weitere Melanin. Im menschlichen Genom sind rund 20.000 solcher Eiweiß-Rezepte hinterlegt – weniger übrigens als bei Fadenwürmern, Wasserflöhen oder zahlreichen Unkräutern. Es kommt also nicht auf die Anzahl der Gene an, sondern auf das, was der Organismus aus ihnen macht. Proteinherstellung durch Translation Die Proteinbiosynthese besteht aus zwei verschiedenen Prozessen, die als „ Transkription “ und „ Translation “ bezeichnet werden, als „Abschrift“ und „Übersetzung“. Die Transkription ähnelt in mancher Hinsicht der Replikation: Ein Enzym trennt die DNS in zwei Stränge. Allerdings dient diesmal nur einer der beiden Stränge als Kopiervorlage und es werden immer nur einzelne Gene kopiert. Des Weiteren kommt eine etwas andere Chemie zum Einsatz: Statt Desoxyribose wird der Zucker Ribose verwendet, statt Thymin die Base Uracil. Das Ergebnis des Transkriptionsprozesses ist das Nachrichtenmolekül „m-RNS “. Das kleine „m“ steht dabei für Englisch „messenger“, das „R“ für den Ribose-Baustein. Aufgabe der m- RNS ist es, die Botschaften der DNS an die Ribosomen zu übermitteln. [v] An den Ribosomen vollzieht sich der zweite Teil der Proteinbiosynthese, die Translation, bei der der eigentliche Produktionsauftrag abgearbeitet wird. Insgesamt 22 verschiedene Aminosäuren können als Rohstoffe bei der Proteinherstellung zum Einsatz kommen. Jede Säure wird durch eine Reihenfolge von nur drei Basen exakt definiert. Beispielsweise codiert das Basentriplet AUG (Adenin, Uracil, Guanin) für die Aminosäure „Methionin“. [vi] Bei der Produktion hilft eine zweite RNS, die t-RNS (das t steht dabei für Translation). Wie das Abschrift-Molekül wurde auch das Übersetzer-Molekül zuvor von der Zelle hergestellt. Aus den Abbauprodukten des Eiweiß-Stoffwechsels sucht die t-RNS die von der m-RNS festgelegten Aminosäuren heraus und verbindet sie zu Peptidketten, die sich zu Melanin, Aktin, Myosin, Melatonin, Elastin, Kollagen und tausenden weiteren Proteinen zusammenfügen. So wie der Steinmetz die Anweisungen des Kathedralenbaumeisters umsetzt, materialisiert die Proteinbiosynthese die Informationen des Zellkerns, um verschiedene Zelltypen auszuprägen: Die DNS ist das Wissen; die Proteine sind das Handeln. Der Einfluss der Eltern Bisher haben wir nur betrachtet, wie Organismen wachsen und sich dabei ausdifferenzieren. Damit sind allerdings weder Darwins Variabilität noch Mendels Vererbungsregeln erklärt. Wie kann es beispielsweise sein, dass Eltern mit braunen Augen ein Kind mit blauen Augen haben können, blauäugige Eltern aber kein Kind mit braunen Augen? Um diese Fragen zu beantworten, müssen wir noch einmal zur Ursprungszelle des neuen Organismus zurückgehen. Die Zygote ist die Verschmelzung einer weiblichen mit einer männlichen Geschlechtszelle. Wie alle anderen Zelltypen sind auch Spermien und Eizellen aus der Mitose entstanden und haben somit den zweifachen, von Mutter und Vater ererbten Chromosomensatz. Dies aber führt zu einem offenbaren Problem: Da bei einer Befruchtung die beiden Keimzellen miteinander verschmelzen, würde sich mit jeder neuen Generation die Anzahl der Chromosomen verdoppeln. Wie bei den Reiskörnern auf dem Schachbrett, wäre das Fassungsvermögen der Zelle für ihre Erbträger nach wenigen Generationen gesprengt. Geschlechtszellen haben daher einen eigenen Zellteilungsprozess, die Meiose . Der wichtigste Unterschied zur Mitose ist ein vorgelagerter zusätzlicher Schritt, die Reduktionsteilung, bei dem der doppelte Chromosomensatz halbiert wird – im Falle des Menschen also von 46 auf 23 Chromosomen. Ein doppelter Chromosomensatz bedeutet, dass jedes Gen einmal in einer von der Mutter und einmal in einer von dem Vater ererbten Ausprägung vorliegt. Doppelte Gene, die für das gleiche Protein codieren, werden als homolog bezeichnet. Es kann nun sein, dass der DNS-Abschnitt, der die Augenfarbe bestimmt, beim väterlichen Chromosom die Anweisung enthält, nur wenig Melanin herzustellen – das ergibt blaue Augen. Falls das homologe mütterliche Gen diesbezüglich aktiver ist, werden die Augen braun. Der Zufall spielt immer mit Welches der beiden Gene zum Zuge kommt, wird bereits im ersten Schritt der Meiose entschieden: Die homologen Chromosomen ordnen sich in der Zellmitte an, wobei es vollkommen dem Zufall überlassen ist, auf welcher Seite des Zelläquators sich die mütterlichen und väterlichen Chromosomen jeweils wiederfinden. In dieser Lotterie bekommt der Zufall sogleich noch eine weitere Chance: Während der Anordnungsphase können sich die homologen Chromosomen berühren und dabei beim sogenannten „ Crossing over “ untereinander Chromatidenabschnitte austauschen. Nach dieser Rekombination sind die Gene nun, wie für ein Kartenspiel, gründlich gemischt. Die Spindelapparate teilen die Chromosomen gleichmäßig auf die beiden Zellhälften auf, sodann teilt sich die Zelle. Die zwei Teilschritte der Meiose: Das graue Chromosom repräsentiert die väterliche Seite (blaue Augen), das schwarze die mütterliche (braune Augen) Der zweite Meiose-Schritt verläuft nun im Wesentlichen analog der Mitose. Die Chromosomen werden nochmals in ihre beiden Chromatiden getrennt, anschließend teilt sich die Zelle ein weiteres Mal. In zwei Schritten sind so aus einer Zelle mit doppeltem Chromosomensatz vier Keimzellen mit jeweils nur einem Chromatid entstanden. Auf väterlicher Seite werden alle vier Keimzellen zu Spermien, während sich mütterlicherseits nur eine der vier Keimzellen zu einer Eizelle ausbildet. Mit dem Verschmelzen von Spermium und Eizelle, entsteht wieder eine Körperzelle mit doppeltem Chromosomensatz. Während die Mitose also alles daran setzt, die Originaltreue der Kopiervorlage zu bewahren, ist die Meiose darauf angelegt, jede Keimzelle mit einer neuen, einzigartigen Variante des genetischen Materials auszustatten. [vii] Der Rekombinationsmechanismus ist jedoch nicht die einzige Möglichkeit, Neues in die Welt zu setzen. Zu Darwins Variabilität trägt ebenfalls bei, dass es trotz aller Sorgfalt auch bei der DNS-Replikation zu Fehlern kommen kann. Umweltfaktoren, wie elektromagnetische Strahlen, können zu winzigen, dauerhaften Veränderungen des Bauplans führen. Diese Mutationen haben zur Folge, dass die DNS nun für ein anderes Protein mit anderen Eigenschaften codiert oder dass sich die Genregulation nichtcodierender DNS-Abschnitte verändert. Während die Rekombination also lediglich vorhandene Karten neu mischt, bringt die Mutation durch „biochemische Unfälle“ neue Karten ins Spiel. Ob sich die durch die beiden Evolutionsmotoren Rekombination und Mutation erzeugten Veränderungen bewähren, entscheidet allein die Selektion . [viii] Farbabstufungen des Auges Die Genetik der mendelschen Regeln Bis jetzt haben wir aber noch immer nicht geklärt, wie die molekularen Vervielfältigungsprozesse mit den Mendelschen Regeln zusammenhängen. Betrachten wir dazu noch einmal das Gen, das für die Augenfarbe codiert: In der Zygote findet sich eine vom Vater ererbte DNS-Sequenz für blaue Augen und eine von der Mutter stammende Kodierung für braune Augen. Die Augenfarbe des Kindes hängt von der genauen Gen-Variante, dem Allel, ab. Gene bestimmen lediglich das „was“ – also etwa die Augenfarbe als solche. Allele hingegen legen das „wie“ fest, die konkrete Ausprägung – bei der Augenfarbe also blau, grün oder braun. Unter den Allelen herrscht Rivalität, es gibt eine festgelegte Hackordnung : Die Variante braun („stelle viel Melanin her“) ist „dominant“; die unterlegene Variante blau („stelle wenig oder kein Melanin her“) ist „rezessiv“. Im direkten Kräftemessen sticht immer das dominante Allel. Ererbt das Kind also ein braunes und ein blaues Allel, so wird es stets braune Augen haben. Pflanzt sich dieser Nachfahr seinerseits mit einem Partner fort, der ebenfalls Träger eines braunen und eines blauen Allels ist, werden nach den Gesetzen der Kombinatorik im Durchschnitt 75% aller Nachfahren braune Augen haben – nämlich die Kombinationen braun-braun, braun-blau, blau-braun. In 25% der Fälle aber, wenn zwei blaue Allele aufeinandertreffen, sind die Augen blau. Die von Mendel gefundene Uniformitäts- und Spaltungsregel Allerdings sind die Zusammenhänge oftmals nicht ganz so einfach. Die Mendelschen Regeln gelten nämlich nur unter sehr speziellen Voraussetzungen, nämlich bei sexueller Vermehrung mit dominant-rezessivem Erbgang, bei dem nur ein einziges Gen das Merkmal festlegt. Diese drei Bedingungen sind kumulativ in der Natur aber nur selten erfüllt: Es gibt, wie erwähnt, zahlreiche Lebensformen, die sich nicht sexuell fortpflanzen, darunter sämtliche Einzeller. Bestimmte sexuelle Erbgänge, kennen kein dominant-rezessiv-Schema, sondern erzeugen, wie die intermediäre Vererbung, Mischformen. Blumen, deren Eltern rote und weiße Blüten haben, weisen dann eine rosa Farbe auf. Insbesondere aber ist die Merkmalsbestimmung durch ein einziges Gen in der Natur eher die Ausnahme: Das Erscheinungsbild, der Phänotyp, ergibt sich zumeist aus einem undurchsichtigen Zusammenspiel verschiedener Erbträger. [ix] Lesen können heißt nicht verstehen Da die Vererbung keinen einfachen deterministischen Zusammenhängen folgt, haben sich auch nicht die großen Hoffnungen erfüllt, die man um die Jahrtausendwende in das internationale Humangenomprojekt gesetzt hatte. Zwar gelang es, sämtliche menschliche Erbträger zu sequenzieren, doch es war so, als ob man ein Buch in einer fremden Sprache gelesen hätte. Das Buchstabieren von Zeichenfolgen garantiert eben noch nicht, dass sich dadurch auch ein Sinn erschließt. Das Projekt machte deutlich, dass wir bis heute die komplexen Wechselwirkungen der Genexpression noch kaum verstehen. Doch es lieferte auch einige wichtige Erkenntnisse. Insbesondere zeigte es die verblüffende Universalität des Gencodes: Kaum eine Art verfügt über eigene, exklusive Gene. Das Genom, das alle Menschen miteinander teilen, ist zu 99,9% identisch; aber auch bei unseren nächsten Verwandten, den Schimpansen, beträgt der gemeinsame Genpool immer noch fast 99%. Zwar kommen rund 7% aller Proteinfamilien nur in Wirbeltieren vor, doch die große Mehrzahl der menschlichen Erbanlagen findet sich auch bei Flusskrebsen, Fruchtfliegen, Steinpilzen und Broccoli. Die Genetik liefert heute die stärksten Argumente für die Richtigkeit der Evolutionstheorie . Erneut zeigt sich hier auch der Konservativismus der biologischen Entwicklung: Anstatt neue Bausteine zu schaffen, zieht sie es vor, seit Jahrmilliarden bewährten Elemente ständig neu zu kombinieren. Der Mensch kann den Verlauf der Evolution steuern Das Wissen um die Allgemeingültigkeit des Gencodes hat konkreten praktischen Nutzen. Wurde vor einigen Jahren noch das für die Behandlung von Diabetes notwendige Insulin aufwändig aus den Bauchspeicheldrüsen von Schweinen extrahiert, stellen heute in Bakterien und Hefepilze verpflanzte menschliche Gene das Hormon zuverlässig in großen Mengen her. Es ist denkbar, dass solche artenübergreifende horizontale Gentransfers eines Tages die Erschaffung von Zwitterwesen ermöglichen, wie wir sie bisher nur aus der Mythologie kennen. [xi] Die Manipulation des Gencodes ist nichts grundsätzlich Neues – sie gibt es, seit der Mensch Pflanzen und Tiere mittels Zuchtwahl domestiziert. Doch die Möglichkeiten des technischen Gentransfers werden diese Entwicklung noch einmal exponentiell beschleunigen. Die Fähigkeit, Geschwindigkeit und Richtung der biologischen Evolution gezielt beeinflussen zu können ist heute zweifelsohne eine der weitreichendsten Folgen der kulturellen Evolution des Menschen. Das egoistische Gen Folgen wir der Theorie der Evolutionsbiologen George C. Williams, Edward O. Wilson und Richard Dawkins unterliegen wir hier allerdings einer Illusion: Nicht wir nutzen Gene zu unseren Zwecken, sondern die Gene benutzen uns! Nicht Arten oder einzelne Individuen kämpfen um ihr Dasein, sondern die Gene selbst. Da sie sich ohne Unterlass replizieren sind die Molekülketten potentiell unsterblich. Die biologischen Arten sind letztlich nur Replikationsplattformen deren sich „egoistische Gene“ skrupellos bedienen. In dieser Perspektivenumkehr sind sämtliche Spezies letztlich reine, roboterhaft fremdgesteuerte Erfüllungsgehilfen der DNS, Experimentalformen, die selbstsüchtige Gene in einem ewigen Kampf ums Überleben gegeneinander antreten lassen. [xii] Propagiert die Selbstsucht der Erbträger: Richard Dawkins Die Theorie vom „ egoistischen Gen “ ist freilich umstritten. Unstrittig ist hingegen, dass Gene nicht nur unser Aussehen bestimmen, sondern auch erheblichen Einfluss auf unser Verhalten und unsere Persönlichkeit haben. Denn unser Handeln wird zu einem maßgeblichen Teil durch Hormone bestimmt. Welche Mengen von welchen Botenstoffen hergestellt werden und wie gut unsere Rezeptoren sie verarbeiten können, ist in unseren Erbanlagen festgeschrieben: Ein hoher Spiegel des Hormons Serotonin lässt uns als vertrauensvolle, gelassene und risikobereite Frohnaturen durchs Leben gehen; ein Mangel macht uns zu misstrauischen Griesgramen. Welcher Anteil unserer Persönlichkeit genetisch bedingt und welcher auf Erfahrungen unseres neuronalen Netzwerks zurückzuführen ist, ist umstritten – manche Wissenschaftler bringen selbst politische Einstellungen mit unserer DNS in Verbindung. Spielen die Gene tatsächlich die Rolle, die wir früher den Sternen zugeschrieben haben, bestimmen sie unser Schicksal? Die Umwelt hat ein Mitspracherecht Die noch relativ junge genetische Teildisziplin Epigenetik lässt die Dinge in einem weniger dramatischen Licht erscheinen. Tatsächlich hat sich seit der Jahrtausendwende mehr und mehr gezeigt, dass die Gene auch mit der Umwelt im Dialog stehen. Faktoren, wie Temperatur, Ernährung oder Stress können Aktivatoren und Repressoren beeinflussen und verschaffen sich so ein direktes Mitspracherecht bei der Verwirklichung unseres genetischen Potentials. Das Schicksal einer Bienenlarve wird nicht nur durch ihre Erbanlagen, sondern auch durch ihre Ernährung bestimmt: Wird sie mit Gelée Royale gefüttert, wird aus ihr eine Königin – andernfalls landet sie in der riesigen Heerschar der Arbeiterinnen; bei Krokodilen und Schildkröten entscheidet die Umgebungstemperatur, ob aus einem Ei ein männliches oder ein weibliches Tier schlüpft; menschliche eineiige Zwillinge, bei ihrer Geburt nicht zu unterscheiden, entwickeln sich mit zunehmendem Alter zusehends auseinander; trotz identischer Genausstattung erkrankt ein Zwilling an Diabetes, der andere nicht. Unser Schicksal liegt nicht (nur) in den Genen Die Beispiele zeigen, dass wir keine starre mathematische Funktion unseres Erbguts sind. Unser Genom ist keine Schablone, aus der sich unser Schicksal von vornherein ablesen ließe. Epigenetische Programme bestimmen gewissermaßen als Software, die auf unserer genetischen Plattform läuft, welche passiven DNS-Sequenzen in einer bestimmten Situation aktiviert werden. Die bisher verblüffendste Erkenntnis in diesem Zusammenhang ist, dass diese umweltinduzierten Expressionen sogar vererbt werden können. Lamarck , der für seine These von der Weitergabe erworbener Eigenschaften viel Spott einstecken musste, ist durch die aktuelle Genforschung ein Stück weit rehabilitiert. Wir kommen zwar nicht als unbeschriebenes Blatt auf die Welt, aber auf dem Blatt gibt es noch viel Platz, die Geschichte in ganz unterschiedliche Richtungen fortzuschreiben. Unsere Gene sind ein Drehbuch, das durch verschiedene Regisseure unterschiedlich interpretiert werden kann. Was wir essen, wo und wie wir leben, kann bei der Umsetzung der Geschichte eine entscheidende Rolle spielen. Dass dabei unser eigener Lebenswandel – etwa der Konsum von Drogen – auch eine Bestimmungsgröße für das Leben künftiger Nachfahren sein kann, ist eine Bürde, die dem Wort „Erbsünde“ eine ganz neue Bedeutung verleiht. Den Blog entdecken Wer mehr wissen will: Mendel, Gregor (1865): „Versuche über Pflanzen-Hybriden. In: Verhandlungen des naturforschenden Vereines in Brünn. Band IV S. 3–47 Watson, James / Crick, Francis (1953): „Molecular Structure of Nucleic Acids”, Nature 171. Dawkins, Richard (1996): „Das egoistische Gen“, Rowohlt. Bildnachweise: Foto Francis Crick Farbabstufungen des Auges Mendelsche Regeln Anmerkungen [i] Die beiden Regeln werden heute als Uniformitäts- und Spaltungsregel bezeichnet. Die dritte von Mendel gefundene Regel, die Unabhängigkeitsregel, bezieht sich auf die Kombination von zwei Merkmalen, die unabhängig voneinander vererbt werden, etwa Blütenfarbe (rot oder weiß) und Samenform (lang oder rund). Wenn lange Samen gegenüber runden dominant sind, ergibt sich bei reinerbigen Großeltern in der zweiten Generation eine zu erwartende Aufteilung von 9 Nachkommen mit roten Blüten und langen Samen, 3 Nachkommen mit roten Blüten und runden Samen, 3 Nachkommen mit weißen Blüten und langen Samen, sowie einem Abkömmling mit weißen Blüten und runden Samen. [ii] Watson / Crick (1953). [iii] Vgl. Kandel (2006) S.404. [iv] Gene machen nur rund 10% der DNS aus. Abschnitte, die keine Bauanweisungen für Proteine darstellen, wurden vor einiger Zeit noch als „Junk-DNS“ bezeichnet. Mittlerweile hat sich gezeigt, dass diese vermeintlichen Müll-Abschnitte zahlreiche wichtige Funktionen haben. Insbesondere steuern sie die Genexpression, auf die wir noch eingehen werden. [v] 2020 wurde im Zusammenhang mit der Weltweiten COVID-19-Pandemie erstmals ein auf m-RNA basierender Impfstoff zugelassen. Dabei wird nicht das Antigen selbst verabreicht, sondern nur die benötigte Anweisung, dieses in den Körperzellen selbst herzustellen. [vi] Methionin ist immer der Startschuss für einen neuen Produktionsauftrag; an ihm erkennt das Ribosom, dass ein neues Protein hergestellt werden soll. [vii] Die Rekombinationen erklärt, warum Kinder uns meist als offenbare Mischung ihrer Eltern erscheinen. Die Zahl der Anordnungsmöglichkeiten ist allerdings gigantisch: Beim Menschen gibt es 223 = 8.388.608 Möglichkeiten, um eine einzelne Keimzelle genetisch zu bestimmen. Da eine Zygote aus zwei Keimzellen entsteht, gibt es 223 x 223 d.h. rund 70 Tausend Milliarden Möglichkeiten den Chromosomensatz des neuen Organismus festzulegen. Wir dürfen daher getrost davon ausgehen, dass wir alle – selbst ohne Crossing over – ziemlich einzigartig sind. [viii] Bei Mutationen kommt es auf den richtigen Mix aus Replikationstreue und Veränderung an. Viren haben sehr hohe Mutationsraten. Damit unterlaufen sie die Fähigkeit des von ihnen befallenen Organismus, sie mithilfe des Immunsystems abzuwehren. Bei Säugetieren hingegen sind die Mutationsraten sehr klein; rasche Veränderungen würden das komplexe Zusammenspiel der hochspezialisierten Organverbände sofort zusammenbrechen lassen. [ix] So sind bei der Augenfarbe tatsächlich mindestens drei Gene im Spiel. Die noch recht junge Disziplin der Genomik, versucht unter anderem mit stochastisch-quantitativen Methoden solche Zusammenhänge aufzudecken und zu bestimmten, welchen Beitrag ein bestimmtes Gen etwa zur Festlegung der Augenfarbe leistet. Vgl. Tautz (2019). [xi] In Großbritannien ist die Züchtung von Mensch-Tier-Chimären zu Forschungszwecken bereits seit 2008 gesetzlich gestattet. [xii] Vgl. Dawkins (1996) S.68.
- Der Chemiebaukasten des Lebens
Fortsetzung von „Wie der Sauerstoff zu seinem Namen kam“ Der wunderbare Kohlenstoff Falls es einen Lavoisier des 20. Jahrhunderts geben sollte, so wäre das zweifelsohne Linus Pauling (1901-1994). Die Beiträge des Amerikaners zu unserem Weltverständnis umspannen sämtliche Bereiche der modernen Chemie: Pauling verband Chemie mit Quantenphysik , führte das Konzept der Elektronegativität ein und erforschte darauf aufbauend die Natur der Bindungsformen. Neben Watson und Crick ist er einer der wichtigsten Mitbegründer der Molekularbiologie , jener Wissenschaft, die die atemberaubend weite Brücke zwischen toter Materie und der Welt des Lebendigen schlägt. [i] Linus Pauling Die Statik für das organische Brückenende liefert ein Element, das auf den ersten Blick wenig spektakulär erscheint: Kohlenstoff . Doch Kohlenstoff verfügt über eine Reihe besonderer Eigenschaften, die es ihm ermöglichen, einen eigenen Chemiezweig, die organische Chemie , zu begründen. Kohlenstoffverbindungen zerspringen bei Belastung nicht wie spröde Steine, sondern sind weich, biegsam und anpassungsfähig. Diese Resilienz ist eine der wichtigsten Eigenschaften, die das Leben auszeichnen. Angesiedelt in der vierten Hauptgruppe der zweiten Periode steht der Kohlenstoff zwischen allen Fronten. Mit vier Valenzelektronen fallen ihm Entscheidungen grundsätzlich schwer, er wahrt zu beiden Rändern des Systems respektvollen Abstand: Ist es besser, Elektronen abzugeben oder aufzunehmen, um sich der Edelgaskonfiguration anzunähern? Dem Kohlenstoff stehen beide Optionen offen. Eine geringe Aktivierungsenergie reicht aus, um wahlweise mit Vertretern der linken oder rechten Hälfte des Periodensystems zusammenzugehen. Die kovalenten Allianzen, die auf diese Weise geschmiedet werden, sind wie ein guter Seemannsknoten: Sie sind einerseits stabil, lassen sich andererseits aber auch leicht wieder lösen. Organische Moleküle sind lang und komplex - das Rückgrat ist stets eine Kohlenstoffkette Wasserstoff als Lieblingspartner Bei Fragen der Partnerwahl hat der Kohlenstoff gewisse Präferenzen. Am liebsten bleibt er unter seinesgleichen und liiert sich über Atombindungen zu langen Ketten. Der zweitliebste Bindungspartner ist ihm der Wasserstoff . Aufgrund des geringen Elektronegativitätsunterschieds sind solche Verbindungen nach außen wenig polar. Kohlenwasserstoffe bauen daher keine Bindungen mit Wasser auf und können so im Gegensatz zu zahlreichen anorganischen Molekülen im feuchten Milieu ihre Strukturen gut erhalten. Mit seinen Artgenossen hat Kohlenstoff verschiedene Paarungs-Optionen. Einfache Kohlenstoff-Kohlenstoff-Bindungen, bei denen die verbleibenden freien Elektronen an Wasserstoffatome gebunden sind, werden Alkane genannt. Da sie keine Neigung haben, weitere Atome oder Moleküle aufzunehmen, handelt es sich um so genannte gesättigte Kohlenwasserstoffe . Zur Familie der Alkane gehören Methan (CH4), Ethan (C2H6), Propan (C3H8) und Butan (C4H10), allesamt leicht brennbare und hochenergetische Gase, die zu Wasser und CO2 oxidieren. Zwei- und dreifach gebundene Kohlenwasserstoffe werden Alkene , beziehungsweise Alkine genannt. Anders als die satten Alkane, sind sie stets bereit, ihre bestehenden Mehrfachbindungen gegen neue Molekülgruppen zu tauschen; sie sind daher ungesättigte Kohlenwasserstoffe. Von links nach rechts: Propan, Propen als typische Vertreter der Stoffgruppen der Alkane, Alkene und Alkine Die Nomenklatur der Monsternamen Im Gegensatz zu der recht übersichtlichen Welt der anorganischen Moleküle erblüht die Kohlenstoffchemie in unüberschaubarer Vielfalt. Das liegt vor allem daran, dass Kohlenstoff sehr lange und verästelte Ketten zu bilden vermag. Um bei der phantastischen Zahl von Anordnungsmöglichkeiten den Überblick zu behalten, haben die Chemiker ein Ordnungssystem eingeführt. Ist man mit dessen Namenskonvention vertraut, lässt sich aus der chemischen Bezeichnung der Aufbau des organischen Stoffs ableiten. Nehmen wir das Beispiel „Dimethylpropan“: Die Silbe „Prop-“ macht deutlich, dass es sich um eine lineare Kette aus drei Kohlenstoffatomen handelt. Die Endung „-an“ kennzeichnet die Kette als einfach gebunden. „Dimethyl“ stellt klar, dass vom mittleren Atom der Dreierkette zwei weitere Kohlenstoffatome seitlich verzweigen, deren Valenzelektronen allesamt an Wasserstoffatome gebunden sind. Fast ein Kunstwerk: Dimethylpropan Neben Kohlenstoff und Wasserstoff gibt es noch eine Handvoll weiterer Elemente, die bei der organischen Chemie in der ersten Reihe mitspielen: Sauerstoff , Stickstoff , Phosphor , Schwefel , sowie die beiden Metalle Calcium und Magnesium . Aus ihnen entstehen „funktionelle Gruppen“, kleine Molekülbausteine, die sich an Kohlenwasserstoffe andocken und ihnen dadurch ganz spezifische Eigenschaften verleihen (das „R“ in der folgenden Tabelle steht stellvertretend für den angehängten Kohlenwasserstoff-Rest). Funktionelle Gruppe Kennzeichnung Endung Vorsilbe Alkene C Doppelbindung -en - Alkine C Dreifachbindung -in - Halogenalkane R-X (X = F, Cl, Br, I) wie Alkane wie Alkane Alkohole R-OH -ol Hydroxy- Ether R-C-O-C-R -ether - Aldehyde R-CHO -al Formyl- Ketone R-C=O -on Oxo- Carbonsäuren R-COOH -säure Carboxy- Ester R-COO-R -ester - Amine R-NH2 -amin Amino- Wichtige funktionelle Gruppen Halogenalkane, zu denen unter anderem die Flurchlorkohlenwasserstoffe (FCKW) gehören, sind beispielsweise gut fettlöslich. Das Anhängen einer einfachen Sauerstoff-Wasserstoffverbindung an eine Kohlenwasserstoffkette (R-OH) führt zur Entstehung eines Alkohols (bekanntester Vertreter ist der Trinkalkohol Ethanol). Alkohole sind sehr gut wasserlöslich; lässt man sie allerdings mit einer Säure reagieren, entsteht ein Ester, eine Stoffgruppe, deren Angehörige wiederum ausgesprochen wasserscheu sind. Eine für das Leben besonders wichtige funktionelle Gruppe sind die basischen und wasserlöslichen Amine, die auf der simplen Verbindung eines Stickstoffatoms mit zwei Wasserstoffatomen (R-NH2) beruhen. Der Chemiebaukasten des Lebens Verbindungen aus funktionellen Gruppen und Kohlenwasserstoffen werden als Monomere bezeichnet. Sie können sich ihrerseits zu Polymeren zusammenschließen, die sich mitunter zu monströsen Gebilden aus vielen Millionen Atomen entwickeln. Polymere lassen sich in vier fundamentale Stoffklassen einteilen: Proteine (Eiweiße), Saccharide (Kohlenhydrate), Lipide (insbesondere Fette) und Nukleinsäuren . Diese vier Polymerarten sind der Chemiebaukasten des Lebens. Proteine sind die Alleskönner unter den Biomolekülen und prägen insbesondere das tierische Leben: Sie strukturieren Zellen , ermöglichen Bewegung, übermitteln Informationen, katalysieren biochemische Prozesse und bekämpfen Eindringlinge. Ihre Monomere sind die Aminosäuren , Verbindungen aus Carbonsäuren (R-COOH) und Aminogruppen. [ii] In der Natur findet sich eine Vielzahl von Aminosäuren, doch für das Leben sind nur jene 23 Varianten von Bedeutung, bei denen die Aminogruppe am zweiten Atom der Kohlenstoffkette andockt. Die genauen biochemischen Eigenschaften eines Proteins werden durch die Reihenfolge der Aminosäuren bestimmt. Proteine sind sehr empfindlich gegenüber hohen Temperaturen. Hitze verändert ihre Struktur, sie denaturieren, was sich jedes Mal leicht beobachten lässt, wenn man ein Ei in eine heiße Pfanne schlägt. Kohlenhydraten kommen zwei wichtige Aufgaben zu. So wie Proteine der wichtigste Baustoff des tierischen Lebens sind, bestimmen die Kohlehydrate das Erscheinungsbild der Pflanzen. Das macht sie zum mit Abstand größten Bestandteil der globalen Biomasse. Ihre zweite Rolle ist die des unmittelbaren Energielieferanten aller Lebewesen. Aus funktioneller Sicht handelt es sich bei Kohlehydraten um Aldehyde und Ketone, deren Moleküle mindestens zwei Hydroxygruppen (R-OH) enthalten. Dadurch erklärt sich die enge Beziehung zwischen Kohlehydraten und Alkoholen, die es erlaubt, aus Obst und Getreide Wein, Bier und Schnaps zu machen. Wie die Proteine beruhen auch die Kohlenhydrate auf einem Baukastensystem. Zwei wichtige Grundbausteine sind die Einfachzucker „Fruchtzucker“ (Fructose) und „Traubenzucker“ (Glucose), die lebende Organismen unmittelbar mit Energie versorgen . Links: die allgemeine Struktur einer Aminosäure; Mitte: der Einfachzucker Glucose; rechts: Buttersäure, eine einfache Fettsäure Aus dem Zusammenschluss von Einfachzuckern entstehen zunächst Zweifachzucker , wie Malzzucker (Maltose) und Milchzucker (Laktose). Einfach- und Zweifachzucker schließen sich wiederum zu Vielfachzuckern (Polysacchariden) zusammen, den Hauptbestandteilen von Gräsern, Blättern, Holz und Stärke. Im Tierreich spielen Vielfachzucker außerhalb der Energieversorgung eine eher untergeordnete Rolle. Sie finden sich dort vor allem in Form des Polysaccharids Chitin, dem wichtigsten Baustoff der Außenskelette von Insekten, Spinnentieren und Krebsen. Eine der unzähligen Erscheinungsformen von Vielfachzuckern Die dritte Gruppe biochemischer Makromoleküle sind die Lipide , ein Sammelbegriff für eine recht heterogene Stofffamilie, die vor allem die Gemeinsamkeit verbindet, aufgrund ihrer fehlenden Polarität ziemlich wasserscheu zu sein. Zu den Lipiden gehören pflanzliche und tierische Fette aber auch Wachse, Terpene und Phospholipide. Aus biochemischer Sicht handelt es sich um Veresterungen des dreiwertigen Alkohols Glycerol (C3H8O3) mit langen, zumeist unverzweigten Kohlenwasserstoffketten, die als Fettsäuren bezeichnet werden. Fette sind ausgesprochen energiereich und eignen sich daher hervorragend als Speichermedium. Tierische Fette haben einen relativ hohen Schmelzpunkt, denn sie weisen in aller Regel einen bedeutsamen Anteil fast unpolarer gesättigter Fettsäuren auf, in denen die Van-der-Waals-Kräfte den Schmelzpunkt nach oben treiben. Rindertalg etwa, wie er im traditionellen britischen Plumpudding Verwendung findet, beginnt erst ab 40° Celsius zu schmelzen; die Energie der menschlichen Körpertemperatur reicht nicht, um die Ketten aufzubrechen und das Fett zu verflüssigen, was die Süßspeise zu einem gewöhnungsbedürftigen Geschmackserlebnis macht. Pflanzliche Fette basieren hingegen auf ungesättigten Fettsäuren, denen die reaktionsfreudigeren Alkene und Alkine zugrunde liegen. Sie verflüssigen sich bereits bei niedrigeren Temperaturen – der Grund, warum Olivenöl am Gaumen nicht den gleichen Eindruck hinterlässt, wie Rindertalg. Zu der bunten Welt der Terpene gehören Carotinoide, die nicht nur Karotten, sondern auch Tomaten, Bananen, Eigelb und dem Herbstlaub seine warmen Farbtöne verleihen, Steroide als Grundbausteine von Vitaminen und Sexualhormonen sowie Phospholipide, die als grundlegende Module von Biomembranen, die Grenze zwischen belebter und unbelebter Natur ziehen. Die letzte der vier grundlegenden Biomolekülgruppen sind die Nukleinsäuren, Konglomerate aus Einfachzuckern und stickstoffhaltigen Basen, zusammengehalten durch einen Kitt aus Phosphorsäuren. Diesen höchst komplexen Strukturen kommt eine ganz besondere Rolle zu: Mit ihrer Hilfe speichert die Natur nicht weniger als ihre Bauanleitungen für das Leben . Der Sprung in die Welt des Lebendigen Das Zusammenspiel der vier biochemischen Stoffklassen ermöglicht den fast unvorstellbar weiten Sprung von toter Materie zu belebter Natur. In letzter Konsequenz sind damit auch die dem Leben zugrundeliegenden physiologischen Vorgänge reine Physik. Doch um das dem Leben innewohnende Potential zu entwickeln, bedurfte es noch eines Mechanismus, der auf einem ganz anderen Prinzip beruhte, als die physikalischen Naturgesetze . Mit diesem Blogbeitrag endet die Artikelserie „Chemie“ Den Blog entdecken Wer mehr wissen will: Winter, Arthur (2006) „Organische Chemie für Dummies“, Wiley Bildnachweise: Symbolbild organische Chemie Bambus [i] Pauling ist unter den großen Wissenschaftlern auch deshalb eine Ausnahme, weil er gleich zweimal mit dem Nobelpreis ausgezeichnet wurde: für seine Leistungen im Bereich der Chemie und neun Jahre später mit dem Friedensnobelpreis für sein Engagement gegen Atomwaffen. Eine doppelte Nobelpreisauszeichnung in zwei verschiedenen Disziplinen erhielt außer ihm bisher nur Marie Curie. [ii] Kurze Ketten von Aminosäure-Monomeren werden als Peptide bezeichnet. Erst wenn die Anzahl der verbundenen Aminosäuren etwa 100 übersteigt, spricht man von Proteinen.
- Sugar makes the World go Round!
Fortsetzung von „ Die Zelle als Chemiefabrik“ Die Zauberformel Ursprung aller irdischen Lebensenergie ist ein gigantisches kosmisches Kernkraftwerk , in dem das Zusammenspiel der vier physikalischen Grundkräfte pro Sekunde vier Millionen Tonnen Masse zu elektromagnetischer Strahlung verdampft. Ein winziger Teil dieser Sonnenenergie erreicht die Erde und trifft hier auf die vergleichsweise einfache Lebensform der Pflanzen . Mithilfe der Strahlung aus dem All verbinden sie zwei anorganische Moleküle zu einer organischen Substanz: Aus Kohlenstoffdioxid und Wasser entsteht der Einfachzucker Glucose , mit reinem Sauerstoff als Nebenprodukt. Es ist die wichtigste chemische Reaktion auf unserem Planeten: (Sonnen)Energie + 6 CO 2 + 6 H 2 O ⇆ C 6 H 12 O 6 + 6 O 2 . Aus thermodynamischer Sicht enthält C 6 H 12 O 6 , mehr Information, mehr Ordnung, als CO 2 und H 2 O allein. Die Energie der Sonne ist nun in den Bindungen des Glucosemoleküls gefangen. Dieses Speichern kosmischer Kraft bezeichnen wir als Photosynthese . Sie steht am Anfang einer langen Kette gegenseitiger Abhängigkeiten, die die Schicksale von Pflanzen und Tieren miteinander verweben: Tiere vermögen es, die Photosynthesereaktion umzukehren und die dabei wieder freigesetzte Sonnenenergie für sich zu nutzen. Dieser Zusammenhang begründet den fundamentalen Unterschied zwischen Tieren und Pflanzen: Pflanzen, sowie einige Bakterien, sind in dieser Welt für das Konstruktive zuständig. Sie bauen auf. Tiere und Pilze sind hingegen auf diese Aufbauprodukte angewiesen. Sie müssen Leben zerstören, um selbst leben zu können. In nüchterner Biologensprache heißt das: Pflanzen sind autotroph , Tiere heterotroph . Tiere müssen für ihren Lebensunterhalt mehr leisten als Pflanzen Die beiden Lebenswelten unterscheiden sich grundsätzlich. Den Pflanzen fällt Energie gleichsam zu; der tägliche Sonnenaufgang, dem sie ihre Autarkie verdanken, ist nicht an Bedingungen geknüpft. Das erlaubt ihnen einen passiven, standortgebundenen Lebensstil. Tiere aber müssen sich ihre Brennstoffzufuhr aktiv erarbeiten. Die Unsicherheit ihrer Energieversorgung macht sie unstet, aber auch kreativ. Stoffwechsel I: So gewinnen Pflanzen ihre Energie Ihre beneidenswerte Unabhängigkeit verdanken die Pflanzen den Chloroplasten . Chloroplasten sind Zuckerraffinerien, die mit zwei grundlegenden Syntheseschritten arbeiten. Im ersten Schritt, der Lichtreaktion , wird mittels Photonen Wasser gespalten. Die dabei freiwerdende Energie wird dazu verwendet, das Molekül Adenosindiphosphat ( ADP ) mithilfe eines dritten Phosphoratoms zu Adenosintriphosphat ( ATP ) aufzubauen. ATP ist eines der wichtigsten Bio-Moleküle überhaupt. Ein Mini-Akku, der alle pflanzlichen und tierischen Zellen mit wohl dosierten Energieeinheiten versorgt. Der zweite Photosyntheseschritt, die Dunkelreaktion , nutzt die bei der Lichtreaktion gewonnenen Wasserstoffprotonen, um mithilfe von Kohlendioxid dann das Glucosemolekül herzustellen. (Der Begriff Dunkelreaktion ist missverständlich, denn es muss keinesfalls dunkel sein, damit dieser Vorgang ablaufen kann. Gemeint ist lediglich, dass hierfür kein Licht benötigt wird.) Die Energie für den Aufbau liefert das zuvor hergestellte ATP, indem es sein drittes Phosphoratom wieder abgibt. Zurück bleibt ADP, sozusagen ein leerer Akku. Hinter dieser vereinfachten Beschreibung steckt tatsächlich ein komplexer, vielstufiger Regenerierungskreislauf, der nach seinem Entdecker, Melvin Calvin , als Calvin-Zyklus bezeichnet wird. Mit dem Nebenprodukt Sauerstoff weiß die Pflanze nichts anzufangen – vielmehr birgt eine Oxidation sogar die Gefahr, dass Zellgifte entstehen. Die Pflanze entlässt ihn deshalb sicherheitshalber in die Umwelt. Dies ist der Ursprung fast sämtlichen freien Sauerstoffs in der Atmosphäre. Die Pflanze kann die Glucose nun entweder für den energetischen Eigenbedarf in Früchten oder Knollen speichern, oder weiter zu dem komplexen Kohlehydrat Cellulose aufbauen, dem universellen Baustoff für Stängel, Rinden und Blätter. So stellen Pflanzen Zucker her Stoffwechsel II: So gewinnen Tiere ihre Energie Der pflanzliche Einfachzucker ist die Währung, in der das Leben Energie zwischen den Organismen verrechnet. Die zugrundeliegenden Transaktionen bezeichnen wir als Nahrungskette: Tiere fressen Pflanzen (aus Sicht der Pflanzen sind auch Pflanzenfresser Raubtiere), Pflanzenfresser werden Opfer von Fleischfressern, die ihrerseits anderen Fleischfressern als Nahrungsquelle dienen. Die chemischen Abläufe, die dem tierischen Stoffwechsel zugrunde liegen, sind dabei ungleich komplexer als bei den Pflanzen. Höhere Wirbeltiere , auf die wir uns im Folgenden beziehen, müssen dem Energiegewinnungsprozess gleich drei ihrer Organsysteme widmen: Verdauungstrakt, Blutkreislauf und Harnsystem. Der Verdauungstrakt, ein schlauchartiges System, das den ganzen Körper durchzieht, rückt Kohlehydraten , Eiweißen und Fetten mit recht rabiaten Mitteln zu Leibe. Sie werden mechanisch zermahlen, mithilfe aggressiver Chemikalien wie Salz- und Gallensäure zerfasert und schließlich durch Enzyme in kleine Einheiten zerschnitten. Im Dünndarm angelangt, sind die komplexen Biomoleküle wieder in ihre ursprünglichen Bausteine Aminosäuren , Einfachzucker , Fettsäuren und Glycerin aufgespalten. Erst damit liegt die Nahrung in einer für den Organismus verwertbaren Form vor. Aminosäuren , die ein tierischer Organismus nicht selbst herstellen kann und die er daher mit der Nahrung aufnehmen muss, werden als „ essentiell “ bezeichnet. Beim Menschen sind dies acht der insgesamt 22 proteinerzeugenden Aminosäuren. Die Monomere werden nun durch die Darmwand in den Blutkreislauf geschleust. Blut – ein „ganz besonderer Saft“ – übernimmt als flüssiges Organ alle weiteren Beförderungs- und Verteilaufgaben. Unter anderem reist mit ihm auch der für die Reaktionen nötige Sauerstoff zu den Zellen, der sich zu diesem Zweck an den eisenhaltigen Proteinkomplex Hämoglobin bindet. Das so entstandene Eisenoxid verleiht dem Blut seine rote Farbe. Angetrieben wird das System durch eine druckwellenerzeugende Hochleistungspumpe, das Herz . Bei Säugetieren und Vögeln besteht dieser mächtige Hohlmuskel aus zwei getrennten und mit Rückschlagventilen gesicherten Kammern. Dieses Konstruktionsprinzip erlaubt es, den Blutkreislauf in zwei Teile, Lungen- und Körperkreislauf, zu zerlegen, die mit unterschiedlichem Druck betrieben werden können. Der niedrigere Druck des Lungenkreislaufs erleichtert den Gasaustausch zwischen Lungenbläschen und Blutgefäßen. Die Venen des Lungenkreislaufs führen das sauerstoffreiche Blut in die linke Herzkammer. Von dort bringen es die Arterien des Körperkreislaufs zu den Zellen. An den zahllosen Wendepunkten des Kreislaufs treffen arterieller Sauerstoff und venöse Glucose zusammen. Dadurch kommt in den Zellen ein Verbrennungsprozess in Gang: Zuckermoleküle geben Elektronen ab, Sauerstoffatome nehmen sie auf. Die dabei freiwerdende Energie ist Grundlage unserer Existenz. Durch sie werden Moleküle bewegt, komplexe Stoffe aufgebaut, Nerven befeuert und Muskeln in Aktion versetzt. Betrachten wir die zugrundeliegenden Abläufe etwas näher. Lauter schwierige Wörter Da Tiere keine Chloroplasten haben, benötigen sie für ihren ATP-Akku eine andere Ladetechnik. Sie besteht aus einer aufwändigen Prozesskette mit vier zentralen Abschnitten. Der erste Abschnitt, die Glykolyse , ist ein Prozess, den nicht nur Tiere, sondern praktisch sämtliche Lebewesen der Erde beherrschen. (Für sehr einfache Lebensformen wie Bakterien und Archaeen ist sie zugleich die einzige Möglichkeit der Energiegewinnung.) Die Glykolyse kommt ohne Sauerstoff aus und funktioniert grundsätzlich wie die alkoholische Gärung: Das Zuckermolekül mit seinen sechs Kohlenstoffatomen wird im Cytoplasma in zwei sogenannte Pyruvat-Moleküle aufgespalten. Die dabei freiwerdende Bindungsenergie lädt zwei ADP zu ATP auf. Diese Form der Energiegewinnung ist zwar schnell, aber auch ausgesprochen ineffizient, denn sie nutzt nur 5% des im Glucosemolekül gebundenen chemischen Potentials. Die beiden folgenden Prozessabschnitte, oxidative Decarboxylierung und Citratzyklus dienen dazu, die Erschließung der noch ungehobenen Kraftreserve vorzubereiten. Zunächst wird das Pyruvat in den Mitochondrien in Acetyl und CO2 aufgespalten. Aus dem Acetyl werden wiederum Wasserstoffprotonen und Elektronen gewonnen, die von den Trägermolekülen Nicotinamid-Adenin-Dinukleotid und Flavin-Adenin-Dinukleotid aufgenommen werden. (Aus verständlichen Gründen werden die Trägermoleküle üblicherweise mit NAD und FAD abgekürzt.) Hierbei entstehen ganz nebenbei zwei weitere ATP-Einheiten . Noch immer sind rund 90% der vorhandenen chemischen Bindungsenergie ungenutzt. Erst im vierten und letzten Schritt, der oxidativen Phosphorylierung , auch als Atmungskette bezeichnet, wird die Energiegewinnung wirklich effizient. Denn jetzt kommt der Sauerstoff ins Spiel. Er verleiht dem Leben jenen Energieschub, ohne den sich komplexe tierische Organismen nie hätten entwickeln können. Der Sauerstoff reagiert mit den von NAD und FAD bereitgestellten Protonen und Elektronen zu Wasser. Das klingt harmlos, doch Chemiker wissen, dass die Wassersynthese ein überaus spektakulärer Zusammenschluss ist, der nicht ohne Grund auch als „ Knallgasreaktion “ bezeichnet wird und unter anderem bei Raketenantrieben Verwendung findet. Kalorien zu verbrennen ist daher für die Zelle im Wortsinne ein Spiel mit dem Feuer. Die Natur hat jedoch einen höchst eleganten Weg gefunden der Zelle die oxidativ erzeugte Energie in wohldosierten Mengen zuzuführen. Das grundlegende Prinzip ist die chemische Redoxreihe : Elemente und Moleküle lassen sich nach absteigenden Elektronegativität en sortieren. Eine solche elektrochemische Spannungsreihe findet sich auch an der Innenmembran der Mitochondrien . Zwischen dem mit Wasserstoff aufgeladenen NAD und dem ersten Enzym der Reihe besteht nur ein geringer Elektronegativitätsunterschied; es kann daher die Elektronen ohne heftige Reaktion aufnehmen. Gleichzeitig wird die Elektronenenergie genutzt, um Wasserstoffprotonen in den Raum zwischen Innen- und Außenmembran des Mitochondriums zu pumpen. Schritt für Schritt werden nun die Elektronen an den Eiweißkomplex mit der jeweils nächstniedrigeren Elektronegativität übergeben, dabei werden jedes Mal weitere Protonen nach außen befördert. Die Natur verfährt hier wie bei einem Hausumzug: Das Klavier wird nicht aus dem vierten Stock geworfen, sondern langsam, Stufe für Stufe, die Treppe hinuntergetragen. Ganz schön komplex: auf- und abbauende Stoffwechselprozesse höherer Tiere Die zwischen den Membranen des Mitochondriums eingezwängten Wasserstoff protonen haben mittlerweile, wie ein voller Luftballon, einen beträchtlichen Druck aufgebaut. Um den Druckunterschied auszugleichen, diffundieren die Protonen nun durch eigens dafür vorgesehene Tunnelproteine in den Innenraum zurück. Mithilfe der dabei entstehenden starken Strömungsenergie werden etwa 34 weitere ADP zu ATP aufgebaut, während der Sauerstoff sich am Ende der Elektronegativitätstreppe nun ganz ohne Knall mit den Wasserstoffprotonen zu Wasser verbindet. Sauerstoff macht den Unterschied Der vollständige Abbau eines Zuckermoleküls liefert insgesamt also rund 38 ATP, 90% davon durch Sauerstoffatmung . Wenn wir essen und uns ausruhen, tun wir das letztlich, um dem dritten Phosphoratom die Möglichkeit zu geben, sich wieder an das ADP-Molekül anzuflanschen. Wir laden dann unsere Akkus tatsächlich im Wortsinne neu auf. Neben Kohlenhydraten, können auch Proteine und Fette ATP erzeugen. Ihre Abbauprodukte – Aminosäuren, Fettsäuren und Glycerin – lassen sich ebenfalls in Pyruvat und Acetyl verwandeln. Allerdings werden Fettreserven erst dann angegriffen, wenn die reguläre Glucoseversorgung unterbrochen ist. Aminosäuren werden nur in dramatischen Notlagen zur Energiegewinnung eingesetzt – sie sind für den Aufbau körpereigener Proteine vorgesehen und somit schlichtweg zu wertvoll, um einfach nur verbrannt zu werden. Wenn die ATP-Akkus aufgeladen sind, das Blut aber noch weiterhin Glucose, Glycerin und Fettsäuren anschwemmt, kann aus den Nährstoffen keine unmittelbare Energie mehr gewonnen werden. Der Überschuss wird daher eingelagert. Glucose wird dazu in den Mehrfachzucker Glykogen umgewandelt und in Muskulatur und Leber deponiert. Bei Bedarf kann der Organismus im Schnellverfahren auf diese kleinen Reserven zugreifen und sie rasch wieder in Glucose zurückverwandeln. Soll die Energie längerfristig gelagert werden, wird Fettgewebe aufgebaut. Fett ist ein ideales Speichermedium, denn es hat von allen Biomolekülen die höchste Energiedichte : Sein Brennwert ist etwa doppelt so hoch, wie der von Kohlehydraten und Proteinen. Die Auf- und Abbauprozesse laufen dabei immer über das Zwischenprodukt Acetyl – es ist der zentrale Dreh- und Angelpunkt im Hin und Her des Stoffwechsel-Labyrinths. Entschlüsselte den Stoffwechsel der Pflanzen: der Biochemiker Melvin Calvin Kompliziertes Zusammenspiel Das alles klingt bereits sehr kompliziert. Tatsächlich sind die Vorgänge aber noch weitaus komplexer als hier dargestellt . Neben unzähligen Stoffwechselreaktionen müssen weitere Parameter wie Wasserhaushalt, Druckverhältnisse, Ionenkonzentrationen oder pH-Wert des Bluts, permanent im Lot gehalten und an wechselnde Umweltbedingungen angepasst werden. Ist auch nur eine der zahllosen Einflussgrößen nicht exakt justiert, gibt es Probleme. Menschen, denen etwa das für den Abbau von Milchzucker zuständige Enzym fehlt, leiden an der Stoffwechselkrankheit Laktoseintoleranz , ein Phänomen, das weltweit immerhin drei Viertel aller Erwachsenen betrifft. Die damit verbundenen Verdauungsbeschwerden sind zwar eher harmlos, doch das Beispiel lässt erahnen, dass andere Fehleinstellungen weitaus dramatischere Folgen haben können. In jedem Augenblick muss eine unüberschaubare Zahl an Bedingungen erfüllt sein, damit Billionen chemischer Reaktionen unseren Organismus jede Sekunde am Leben erhalten, anstatt ihn zu zerstören. Ein Wunder, das wir allein der Unbestechlichkeit der Naturgesetze verdanken. Den Blog entdecken Wer mehr wissen will: Link Knallgasreaktion (Youtube ) Biologie für Dummies Die hier behandelten Stoffwechselprozesse sind vereinfacht dargestellt. Die folgenden Übersicht vermittelt einen Eindruck von der wahren Komplexität: https://upload.wikimedia.org/wikipedia/commons/8/8d/Metabolic_pathways_poster.pdf
- Wie ein eidgenössischer Patentprüfer dritter Klasse die Welt aus den Angeln hob.
Fortsetzung von "Sieg des Chaos - Thermodynamik für Anfänger " Eine folgenreiche Sonnenfinsternis Am 29. Mai 1919 herrschte auf der kleinen, beschaulichen Vulkaninsel Príncipe vor der westafrikanischen Küste einige Aufregung. Die britischen Astronomen, die unter der Leitung von Sir Arthur Eddington ihre Instrumente aufgebaut hatten, blickten sorgenvoll nach den herannahenden Wolken. Doch schließlich hatten sie Glück und es gelang ihnen den Verlauf einer totalen Sonnenfinsternis auf die Fotoplatten zu bannen. Historische Aufnahme der Sonnenfinsternis vom 29. Mai 1919 Sir Arthur Stanley Eddington erbrachte den ersten empirischen Beweis für die Richtigkeit von Einsteins Kopfkino Die seltene Konstellation ermöglichte es, die sonst unsichtbaren Sterne dicht neben der Sonne zu beobachten. Die Bilder bestätigten eine unglaubliche Vorhersage. Und sie machten Albert Einstein über Nacht zu einem der bekanntesten Menschen auf dem Planeten. Rätsel Lichtgeschwindigkeit Die Geschichte beginnt allerdings rund 30 Jahre früher. Ende des 19. Jahrhunderts herrschte allgemein die Überzeugung, dass elektromagnetische Wellen ein Medium benötigen, um sich ausbreiten zu können – so wie mechanische Wellen hierzu auf Wasser oder Luft angewiesen sind. Allerdings hatte man diesen als Äther bezeichneten mutmaßlichen Wellenträger noch nicht gefunden. Zwei amerikanische Wissenschaftler, Albert Michelson und Edward Morley , hatten sich 1887 das Ziel gesetzt, das geheimnisvolle Trägermedium endlich nachzuweisen. Sie vermuteten, dass es sich mit einer anderen Geschwindigkeit als der der Erde bewegen und so einen „Ätherwind“ erzeugen müsse, der die Ausbreitung von Lichtstrahlen abbremst. Doch sooft sie auch maßen: Das Licht war unter allen Bedingungen immer gleich schnell. Es ließ sich weder durch den "Ätherwind" abbremsen noch in irgendeiner Form beschleunigen. Der Däne Ole Rømer erkannte bereits im 17. Jahrhundert, dass die Lichtgeschwindigkeit endlich ist Ein eidgenössischer Patentprüfer dritter Klasse Dass der Betrag der Lichtgeschwindigkeit im Vakuum immer gleich groß ist, war um 1900 eines der wenigen störenden Details in dem ansonsten fast vollkommenen Gebäude der Physik. Einen jungen technischen Prüfer dritter Klasse beim Eidgenössischen Patentamt in Bern ließ dieser merkwürdige Umstand nicht mehr los. Der diplomierte Fachlehrer für Mathematik und Physik nahm 1905 das Michelson-Morley Experiment zum Ausgangspunkt einer Reihe von Überlegungen. Da er über keinerlei Geräte verfügte, mit denen er seine Ideen hätte überprüfen können, war es ein reines Gedankenexperiment . Der Name des Patentprüfers war Albert Einstein und seine Gedanken sollten die physikalische Welt aus den Angeln heben. Der junge Einstein im Patentamt in Bern Kopfkino in der Eisenbahn Einstein begab sich mit seinen Überlegungen auf eine fiktive Bahnfahrt: Wenn ein Reisender in einem fahrenden Zug in Fahrtrichtung durch das Abteil läuft, bewegt er sich aus Sicht seiner Mitreisenden mit Schrittgeschwindigkeit. Für einen Beobachter auf dem Bahnsteig hingegen addieren sich die Geschwindigkeit des Zuges und die Laufgeschwindigkeit des Reisenden. Die einfache Regel, dass die Geschwindigkeit stets relativ zum Bezugssystem des Betrachters ist, gilt aber nicht für das Licht: Schaltet der Zugführer die Scheinwerfer ein, kann er damit die Geschwindigkeit des Lichts durch den fahrenden Zug nicht weiter erhöhen. Selbst wenn der Zug mit 99,99% der Lichtgeschwindigkeit führe, würden sich die Lichtwellen immer noch mit Lichtgeschwindigkeit vom Zug entfernen. Geschwindigkeit, so Einsteins Gedanke, ist definiert als Weg pro Zeit. Um sie zu ermitteln, benötigt man also ein Maßband und eine Uhr. Die Uhr gibt an, wieviel Zeit während eines bestimmten Vorgangs – etwa einer gleichmäßigen Pendelbewegung – vergeht. Auch die Auf- und Abwärtsbewegung eines Lichtblitzes, der zwischen zwei Spiegeln hin- und hergeworfen wird, lässt sich als solch eine Pendeluhr betrachten. Der Reisende in einem stehenden Zug und der Beobachter auf dem Bahnsteig würden beide die Bewegung eines im Zug installierten Lichtpendels als ein regelmäßiges Auf und Ab sehen. Ist der Zug aber in Bewegung, so ist die Wahrnehmung für die beiden Beobachter nicht mehr die gleiche. Aus Sicht des Zugreisenden ändert sich nichts. Die Person auf dem Bahnsteig hingegen sieht aufgrund der gleichförmigen Zugbewegung keine vertikale Auf- und Abwärtsbewegung, sondern eine diagonale Zickzacklinie. Derselbe Vorgang wird also relativ zum Bewegungszustand des Betrachters unterschiedlich wahrgenommen: Aus der Bahnsteigperspektive müsste der Lichtimpuls im gleichen Zeitraum eigentlich einen längeren Weg zurücklegen. Das aber wäre nur mit einer höheren Geschwindigkeit möglich. Diese aber kann es für das Licht wiederum nicht geben. Das ließ nur einen einzigen Schluss zu: Wenn die Geschwindigkeit für das Licht immer konstant ist, benötigt es für den längeren Weg zwangsläufig mehr Zeit. Die relative Wahrnehmung eines Vorgangs hängt vom Betrachter ab Dass die beiden Beobachter das Pendeln des Lichts unterschiedlich wahrnehmen, bedeutet letztlich, dass sich ihnen auch die Zeit als unterschiedliche Größe darstellt – jeder der beiden Betrachter hat seine persönliche Zeit. Da in der Formel Weg und Geschwindigkeit konstant sind, kann nur eine variable Zeit für beide Betrachter wieder die gleiche, absolute Wahrheit herstellen. Das heißt, dass aus Sicht des außenstehenden Beobachters die Zeit in dem fahrenden System „Zug“ weniger schnell vergeht. [i] Zeit wird gedehnt, Körper werden gestaucht Die Zeitdilatation , die Tatsache, dass bewegte Uhren langsamer gehen, ist die erste wichtige Erkenntnis der Relativitätstheorie . Zeitangaben haben nur dann einen Sinn, wenn man auch das jeweilige Bezugssystem deutlich macht. Die Dehnung gilt nur für den außenstehenden Beobachter; der Reisende im Zug nimmt sie nicht wahr, für ihn verhält sich das Lichtpendel nicht anders, als im stehenden Zug. Für den externen Beobachter bedeutet die Zeitdehnung hingegen, dass aus seiner Sicht auch alle Vorgänge in dem bewegten Körper des Reisenden, wie Herzschlag, Zellwachstum und damit letztlich der Alterungsprozess, langsamer ablaufen. Dieses Phänomen tritt bei jedem Spaziergang, jeder Zugfahrt, jeder Flugreise auf – spürbar wird es jedoch erst bei extrem hohen Geschwindigkeiten. [ii] Für einen Astronauten, der sich rasend schnell in seinem Raumschiff durch das All bewegt, wäre es sehr viel bedeutsamer. Reiste er nahe der Lichtgeschwindigkeit, würde seine Zeit aus Perspektive eines auf der Erde zurückgebliebenen Zwillingsbruders viel langsamer vergehen. Während für den Astronauten nur ein Jahr verstreicht, würde sich die Erde mehrmals um die Sonne drehen. Mit einem phantastisch schnellen Raumschiff könnte der Astronaut also in die Zukunft unseres Planeten reisen. Einstein überlegte weiter, was geschieht, wenn die Lichtuhr gedanklich um 90° gedreht wird. Der Blitz pendelt nun horizontal. Auch dieser Vorgang wird von den beiden Beobachtern unterschiedlich wahrgenommen. Der Zug fährt nun gleichsam vor dem herannahenden Lichtstrahl davon; somit müsste das Licht auch diesmal, von außen betrachtet, in der gleichen Zeit einen längeren Weg zurücklegen. Da seine Geschwindigkeit aber nicht weiter gesteigert werden kann, ist auch in diesem Fall nur ein Schluss möglich: Aus Sicht Außenstehender verkürzt sich der fahrende Zug in Bewegungsrichtung. Anders gesagt: Bewegte Objekte schrumpfen. [iii] In der Natur treten Zeitdilatation und Längenkontraktion immer gemeinsam auf. Das heißt, dass für alle Beteiligten die absolute Gleichheit der Ereignisse nur durch eine variable Zeit und einen variablen Weg hergestellt werden kann. Dabei gibt es keine richtigen oder falschen Bezugssysteme, man kann letztlich nicht sagen, ob der Zug am Bahnsteig vorbeifährt, oder der Bahnsteig am Zug. Das Ende der newtonschen Physik Die Entdeckung von Zeitdilatation und Längenkontraktion war nicht weniger als das Ende der Newtonschen Physik, die die Naturwissenschaften mehr als 200 Jahre lang regiert hatte . Einstein hatte erkannt, dass Zeit und Raum keine starren Naturkonstanten sind, dass sie nicht lediglich die Bühne darstellen, auf der die Physik ihr Schauspiel aufführt, sondern dass sie vielmehr als Darsteller unmittelbar in die Handlung eingreifen. Da Zeitdilatation und Längenkontraktion aneinandergekoppelt sind, sind auch Raum und Zeit miteinander verwoben. Einstein übernahm hierfür von dem Mathematiker Hermann Minkowski den Begriff der „ Raumzeit “. Er besagt im Kern, dass die Überwindung von Raum Zeit benötigt: Wenn wir unseren Erdtrabanten betrachten, sehen wir nicht den Mond, sondern wir sehen den Mond, wie er vor 1,3 Sekunden ausgesehen hat. Ein 13.000 Lichtjahre entfernter Beobachter sieht heute, wie auf der Erde die ersten Jäger und Sammler sesshaft wurden . Könnten wir ihn bitten, uns diese Geschehnisse zu beschreiben, so müssten wir 26.000 Jahre auf die Antwort warten. So gesehen, ist jeder unserer Blicke ein Blick in die Vergangenheit. Die Lichtgeschwindigkeit von knapp 300 Millionen Metern pro Sekunde verbindet Ereignisse in Raum und Zeit. Zugleich ist sie die Obergrenze, mit der sich Information übertragen lässt. Gemäß den Gesetzen der klassischen Physik wird der Impuls eines aufprallenden Körpers durch das Produkt aus dessen Geschwindigkeit und Masse bestimmt. Der Passagier eines mit astronomischer Geschwindigkeit fahrenden Zuges würde aus seinem Wagon heraus den Einschlag eines Meteoriten aufgrund der Zeitdilatation als langsamer wahrnehmen als ein stehender Betrachter. Die Naturgesetze sind für alle Beteiligten jedoch dieselben; die unterschiedliche Wahrnehmung kann nicht unterschiedliche Einschlagskrater erzeugen. Der Meteorit muss daher aus Sicht des bewegten Beobachters eine größere Masse haben, so dass der Effekt der verminderten Geschwindigkeit exakt ausgeglichen wird und somit den Gesamtimpuls erhält. Dies ist die relativistische Massenzunahme : Masse wächst, je schneller sie sich bewegt. Energie und Masse: zwei Seiten einer Medaille Masse hat gemäß Newtons erstem Bewegungsgesetz die Eigenschaft, in ihrem aktuellen Ruhe- oder Bewegungszustand zu verharren. Allein eine äußere Kraft, die stark genug ist die masseabhängige Trägheit zu überwinden, kann diesen Zustand ändern. Wenn aber die Masse mit der Geschwindigkeit wächst, wächst auch die Trägheit bis zu dem Punkt, ab dem sie nicht mehr überwunden werden kann und keine weitere Beschleunigung mehr möglich ist, ganz gleich, wieviel Energie man dem Körper noch zuführt. Dieser Grenzpunkt ist die Lichtgeschwindigkeit. Nichts im Universum kann die masselosen elektromagnetischen Wellen einholen oder gar überholen. Ein Raumschiff, das mit Lichtgeschwindigkeit flöge, wäre unendlich schwer. Die Astronauten an Bord könnten ihr eigenes Spiegelbild nicht mehr betrachten; die Zeit stünde für sie vollkommen still – sie hätten das ewige Leben. Einstein wusste, dass gemäß dem Erhaltungssatz durch Wandlung keine Energie verloren gehen kann. Was aber geschieht mit der Energie, die eine Masse beschleunigt? Diese Frage führte Einstein zu seiner bislang verblüffendsten Erkenntnis: Die Energie kriecht gleichsam in die Masse des beschleunigten Objekts hinein. Wenn Energie aber eine Masse anschwellen lässt, dann muss auch Masse eine Form von Energie sein. Einstein fand heraus, dass dieser Zusammenhang der Gleichung gehorcht. Die wohl berühmteste Formel der Welt ist Teil unserer Popkultur geworden. Doch was genau besagt sie? Einsteins Gleichung enthält zwei einfache Erkenntnisse: Die erste besagt, dass Masse und Energie ein und dasselbe sind. Masse ist „gefrorene Energie“, ein sehr dichtes Speichermedium für Kraft mal Weg. Masse lässt sich in Energie und Energie in Masse umwandeln. Zwei elementare Einheiten der Physik, Joule und Kilogramm, die bisher niemand in eine direkte Verbindung gebracht hatte, sind zwei Seiten derselben Medaille. Die zweite Erkenntnis ist, dass Masse unvorstellbar viel Energie enthält. Denn der Umrechnungsfaktor ist das Quadrat der Lichtgeschwindigkeit und 300.000 Kilometer pro Sekunde mit sich selbst multipliziert ergeben eine schwindelerregende Zahl: Ein Kilogramm Materie enthält rund 25 Milliarden Kilowattstunden Energie. Wenige vollständig in Energie umgewandelte Tonnen Masse könnten theoretisch den jährlichen Energiebedarf der Menschheit decken. Dabei ist es völlig unerheblich, woraus die Masse besteht: Luft ist genauso gut wie Uran oder Newtons Apfel. Dass der Umrechnungsfaktor nicht die einfache Lichtgeschwindigkeit ist, sondern ihr Quadrat, ergibt sich aus Einsteins mathematischen Herleitungen. Einen intuitiven Zugang zu dieser Beziehung erhalten wir, wenn wir uns an die Macht der kleinen Hochzahl erinnern: Eine doppelt so schnell fallende Kugel hinterlässt einen viermal so tiefen Krater; Wirkung von Gravitation und elektrischer Ladung verringern sich im Quadrat des Abstands; bei dreifacher Geschwindigkeit verneunfacht sich der Bremsweg eines Autos. Kurz: Quadratisches Wachstum ist in der Natur ein sehr gängiges Phänomen. Eine in der Wissenschaftsgeschichte einmalige Persönlichkeit Die spezielle Relativitätstheorie wird erweitert Einsteins Aufsatz „ Zur Elektrodynamik bewegter Körper “ entstand 1905 innerhalb weniger Wochen. Wir kennen ihn heute unter dem Namen „ spezielle Relativitätstheorie “. In ein paar Zeilen hatte ein 26-Jähriger die verborgene Verbindung zwischen Masse und Energie aufgedeckt, Raum und Zeit neu definiert und dabei, fast im Vorübergehen, das Newtonsche Weltbild zerschmettert. Doch Einsteins Theorie hatte eine bedeutsame Einschränkung: Sie galt nur für sich gleichförmig bewegende Objekte und unterstellte zudem die Existenz geschlossener und kräftefreier Systeme. Ein Raumschiff aber, das die Erde umkreist, ist keineswegs ein kräftefreies System. Es unterliegt, wenn auch nur schwach, der Schwerkraft unseres Planeten. Die Gravitation , Newtons universelle, beschleunigende, nicht abschirmbare und mit einer unendlichen Reichweite ausgestattete Kraft, war in die Theorie nicht eingebunden. Diesmal war es nicht in einigen Wochen getan. Einstein stieß bei dem Versuch, Beschleunigung und Gravitation in seine Überlegungen einzubauen, an die Grenzen seiner mathematischen Kunstfertigkeit. Er musste die Hilfe seines alten Studienfreundes, des Mathematikers Marcel Grossmann in Anspruch nehmen. Elf Jahre sollten vergehen, bis Einstein 1916 endlich sein umfassendes Gedankengebäude vorstellen konnte. Die „allgemeine Relativitätstheorie“ ist eine neue Betrachtung der Gravitation, eine grandiose Erweiterung unseres Weltbildes, zugleich aber auch eine grenzenlose Überforderung unseres Vorstellungsvermögens. Beschleunigung und Schwerkraft erzeugen identische physikalische Effekte Ausgangspunkt von Einsteins Überlegungen war diesmal ein Effekt, der sich in jedem Fahrstuhl beobachten lässt: Stellt man sich im Lift auf eine Waage (die nichts anderes als ein Schwerkraftmesser ist) zeigt diese, solange der Fahrstuhl nach oben beschleunigt, eine Gewichtszunahme an. Fährt der Lift dann gleichmäßig, zeigt die Waage das „normale“ Gewicht. Dies ist im Einklang mit Newtons erstem Bewegungsgesetz , das besagt, dass in jedem System, das sich kräftefrei mit gleichbleibender Geschwindigkeit bewegt, die gleichen Bedingungen gelten, wie in einem ruhenden System. Bremst der Lift vor der Ankunft ab, fühlen wir uns nicht nur leichter – wir sind es auch. Unser Gewicht auf der Waage ist nun geringer. Die Fahrstuhlreise macht deutlich, dass Beschleunigung und Schwerkraft letztlich zu identischen physikalischen Effekten führen. Dieses Äquivalenzprinzip ist das Fundament der allgemeinen Relativitätstheorie. In einem sich beschleunigenden System gelten andere Bedingungen als in einem, das ruht oder sich gleichförmig bewegt: Eine Kugel, die in einem Zug auf einem Tisch liegt, rollt bei Beschleunigung entgegen der Fahrtrichtung zurück, Reisende werden in ihre Sitze gedrückt. Ein Lichtimpuls, der in Fahrtrichtung gesendet wird, muss bei Beschleunigung, im Vergleicht zu einem sich gleichförmig bewegenden System, einen noch längeren Weg zurücklegen – die Spitze des Zugs fährt dem herannahenden Lichtblitz zunehmend schneller davon. Das Licht braucht für den längeren Weg mehr Zeit. Somit führt nicht nur eine konstante Geschwindigkeit zu einer Zeitdehnung, sondern auch eine Beschleunigung. Aufgrund des Äquivalenzprinzips gilt das aber auch für die Gravitation. Das bedeutet, dass Uhren mit zunehmender Schwerkraft immer langsamer gehen. 1954 auf dem Bikini Atoll: Hier wird gerade 1% einer überschaubaren Masse in Energie verwandelt Diese Aussage ist eine Verallgemeinerung des ersten Grundprinzips der speziellen Relativitätstheorie: Je stärker Beschleunigung oder Gravitation wirken, desto schleppender vergeht die Zeit. An der Küste gehen Uhren langsamer als auf einer Bergspitze, denn sie befinden sich näher am Erdmittelpunkt, dem Gravitationszentrum unseres Planeten. Die Bewohner von Zermatt und Kathmandu altern also schneller als die Einwohner von Emden und New York. [iv] Zwar beträgt auch diesmal der Effekt auf der Erde nur wenige milliardstel Sekunden; für die großen Maßstäbe des Weltalls aber gilt: Die Zeit wird durch die Gravitationsfelder großer, schwerer Himmelskörper merklich beeinflusst. Damit ließ sich nun auch die zweite Aussage der speziellen Relativitätstheorie erweitern: Wenn in der Nähe großer Gestirne die Zeit langsamer abläuft, müsste sich der Lichtstrahl in der langsameren Zeit eigentlich über eine größere Strecke ausbreiten. Da die Lichtgeschwindigkeit aber konstant ist, ist auch diesmal die einzige Möglichkeit die, dass sich Objekte in der Nähe großer Massen verkleinern. Mit anderen Worten: Körper schrumpfen unter Einwirkung der Schwerkraft. Die Einwohner von Emden altern zwar weniger schnell, dafür werden sie stärker zusammengestaucht. Zeitdilatation und Längenkontraktion führen dazu, dass der gesamte Raum durch die Gravitationswirkung von Massen „verbogen“ und dadurch vergrößert wird. Schwerkraft ist somit letztlich nichts anderes als Raumzeitkrümmung. Verbo(r)gene Welten Es ist besser, wenn wir gar nicht erst versuchen, uns unter Raumzeitkrümmung etwas vorzustellen. Die Evolution hat uns nur auf eine dreidimensionale Welt vorbereitet – das genügt vollkommen, um sich von Ast zu Ast zu schwingen. Das Prinzip der Raumzeitkrümmung lässt sich aber mit einer Analogie aus der dreidimensionalen Welt verdeutlichen, in der ein aufgespanntes zweidimensionales Stofftuch den dreidimensionalen Raum repräsentiert. Legen wir eine Kugel auf das Tuch, wird durch die Masse der Kugel die Fläche gedehnt und damit vergrößert. So wie die Schweiz eine größere Fläche hätte, wenn man ihre Gebirgsfalten auseinanderzöge, so hat der Raum unter Einwirkung der Gravitation ein größeres Volumen. Dieser „verbogenen Welt“, war mit Euklids Geometrie allerdings nicht beizukommen. Nach einigen Mühen gelang es Grossmann und Einstein, Minkowskis Raumzeit mit Riemanns Geometrie gekrümmter Flächen miteinander zu verknüpfen und die Raumzeitkrümmung so mathematisch zu beschreiben. Damit wurde deutlich, dass das Wesen der Schwerkraft ungleich komplexer war, als von Newton ursprünglich beschrieben: Die Gravitation ist eine Eigenschaft des gekrümmten Raumes, die dessen Geometrie verändert. Dort, wo es Masse gibt, ist der Maßstab für Raum ein anderer als im Vakuum. Einstein ersetzte Newtons Fallbeschleunigung durch die Vorstellung eines Fallens in die Krümmung der vierdimensionalen Raumzeit. Die Himmelskörper ziehen ihre Bahnen im Trichter der Raumzeitkrümmung. Damit ließen sich nun endlich auch die von Kepler beobachteten Unregelmäßigkeiten der planetaren Umlaufbewegungen erklären, auf die die klassische Mechanik keine Antwort wusste. Eine letzte Frage galt es noch zu klären: Welchen Einfluss hat der gekrümmte Raum auf das Licht? Licht hatte schließlich Wellencharakter und besaß keine Masse, so dass die Gravitation ihm eigentlich nichts anhaben können müsste. Doch Einstein ging davon aus, dass auch Lichtstrahlen durch massereiche Objekte abgelenkt werden. Genau diese Voraussage der allgemeinen Relativitätstheorie, konnte durch die Sonnenfinsternis von 1919 auf Príncipe erstmals experimentell bestätigt werden. Sterne, die nahe bei der Sonne stehen, haben, bedingt durch das Schwerefeld des Fixsterns, eine scheinbar andere Position am Himmel als jene, die weiter entfernt sind. Die Gravitation verbiegt Raumzeit und Licht Mit der allgemeinen Relativitätstheorie kehrt die Physik zu ihren astronomischen Ursprüngen zurück . Als eine neue Theorie der Gravitation markiert sie den Beginn der modernen Kosmologie. Bereits 1916 hatte der deutsche Astrophysiker Karl Schwarzschild , basierend auf Einsteins Thesen, die Existenz schwarzer Löcher vermutet, Überreste sehr großer, ausgebrannter Sterne, deren Massen auf ein winziges, unvorstellbar dichtes Volumen konzentriert sind. Diese Objekte mussten den Raum dermaßen krümmen, dass er die Form eines Trichters annimmt, der wie ein kosmischer Staubsauger alles frisst, was ihm zu nahekommt. Selbst das Licht wird Opfer der extremen Gravitation und von dem schwarzen Loch vollständig verschluckt. Die Relativitätstheorie - ein ganz neues Weltbild Newtons Weltbild war damit vollständig aus den Angeln gehoben. Ganz offenbar wurde das Universum von einem ganz anderen Regelwerk regiert, als man seit dem späten 17. Jahrhundert geglaubt hatte: Zeit und Raum sind dynamisch; Energie und Materie zwei Erscheinungsformen desselben Phänomens; Massen verbiegen Raum und verschlucken Licht. Allein aus Gedankenexperimenten und Kopfkino geboren, ist die Relativitätstheorie die vielleicht größte intellektuelle Leistung, die jemals einer einzelnen Person zugeschrieben werden konnte. Seit nunmehr über 100 Jahren hält sie allen experimentellen Überprüfungen stand. Mit ihr hat Einstein nicht nur die Physik, sondern auch die Art und Weise, wie wir die Welt betrachten auf eine völlig neue Ebene gestellt. [v] Unwillkürlich drängte sich die Frage auf, ob sich die unglaublichen Energiemengen, die in der Materie schlummern, nicht in irgendeiner Form freisetzen ließen. Die Physiker ahnten, dass ihnen eine Theorie, der großen, kosmischen Maßstäbe hierbei nicht weiterhelfen würde. Sie mussten die Antwort am anderen Ende der Größenskala suchen. (Mehr dazu im nächsten Physik-Blog...) Den Blog entdecken Wer mehr wissen will: Einstein, Albert (1905): „Zur Elektrodynamik bewegter Körper“, Annalen der Physik, vierte Folge, Band 17 Hollinger, Maik (2014): „Einstein erlangt Weltruhm“ in: skriptum-geschichte.de Heft 1 2014. Bodanis, David (2001): „E = mc2 A Biography of the World´s Most Famous Equation”, Pan. Anmerkungen: [i] Allerdings vergeht die Zeit auf dem Bahnsteig besonders langsam, wenn man kalte Füße hat. [ii] Die Zeitdilatation konnte mithilfe von Flugzeugen und Atomuhren mehrfach experimentell bestätigt werden, wenn auch die ermittelten Zeitunterschiede nur wenige milliardstel Sekunden ausmachen. [iii] Der niederländische Physiker Hendrik Antoon Lorentz hatte bereits 1892 bestimmte Abweichungen im Michelson-Morley Experiment mit einer Objekt-Kontraktion erklärt. [iv] Auch dieser Effekt konnte mit Atomuhren experimentell nachgewiesen werden. [v] Zahlreiche Alltagstechnologien, wie etwa die Satellitennavigation, wären ohne die Relativitätstheorie undenkbar. Navigationssysteme liefern nur dann hinreichend genaue Positionsbestimmungen, wenn die durch die Gravitation verursachte Zeitdilatation zwischen Satellit und Erde in den mathematischen Algorithmen berücksichtigt wird.
- Revolutionen und Kriege: Europa 1618-1815
Fortsetzung von „Der Aufstieg Europas“ Dreißig Jahre Krieg Zwischen 1618 und 1648 verheert der Dreißigjährige Krieg die Mitte Europas. Die Katastrophe, der in einigen Regionen Deutschlands weit mehr als die Hälfte der Bevölkerung zum Opfer fällt, beginnt als Glaubenskrieg und endet als Hegemonialkonflikt, den Österreich-Spanien, Frankreich, Dänemark und Schweden auf deutschem Boden untereinander austragen. Der Griff der Habsburger nach der Macht in Europa scheitert, als das katholische Frankreich auf Betreiben des Kardinals Richelieu in der letzten Kriegsphase auf Seiten der Protestanten in den Konflikt eintritt und so den Sieg des Kaisers in Wien verhindert. Eine deutsche Urkatastrophe: Der Dreißigjährige Krieg Mit dem Westfälischen Frieden 1648 trennen sich die Niederlande und die Schweiz – beide hatten sich schon seit geraumer Zeit weitgehende Autonomien erstritten – nun auch formell vom Heiligen Römischen Reich Deutscher Nation . Nach dem Krieg erblühen schon bald wieder überall in Westeuropa Kunst und Wissenschaft. Der Barock entfaltet seine Pracht. René Descartes begründet eine neue, von antiken Vorbildern unabhängige Philosophie. Seinem Dualismus von Geist und Stoff stellt Isaac Newton den Dualismus von Stoff und Naturkräften gegenüber, deren Dynamiken er mathematisch exakt beschreibt. Der erste Monarch wird nicht in Frankreich, sondern in England geköpft Die Niederlande erleben ein goldenes Zeitalter. Der kleinen Republik, nun das reichste Land Europas, gelingt es, sich auch militärisch zur See gegen den großen Handelsrivalen England zu behaupten. Frankreich steigt zur dominierenden Landmacht auf. Während der über 50-jährigen Regentschaft des Sonnenkönigs Ludwig XIV (1638-1715) erlebt der Absolutismus in der zweiten Hälfte des 17. Jahrhunderts seinen Höhepunkt. Überall kopiert der europäische Adel Architektur und Habitus des französischen Hofes. Nicht so bekannt wie der sechszehnte Ludwig von Frankreich, doch auch er fand bereits vor ihm dasselbe unrühmliche Ende: Karl I von England Nur England nimmt einen anderen Weg: Die Bestrebungen Karls I (1600-1649), es den französischen Königen gleichzutun, scheitern grausam: Das Parlament lässt ihn für seine absolutistischen Pläne hinrichten, die Monarchie wird vorübergehend abgeschafft. Die „ Glorious Revolution “ von 1688 sichert dem Parlament dauerhaft wesentliche Teilhabe an der Macht. Wie zuvor bereits in den Niederlanden, hat sich nun auch in England das aufstrebende Bürgertum maßgeblichen politischen Einfluss gesichert. Rivalen In Russland sucht Zar Peter der Große (1672-1725) die Annäherung an das westliche Europa und erzwingt eine radikale Modernisierung seines Landes; die Fortschritte zeigen sich, als Russland im Großen Nordischen Krieg (1700-1721) erstmals im Konzert der europäischen Großmächte mitspielt und die Vorherrschaft der Schweden im Ostseeraum beendet. Deutschland, politisch noch immer in die anachronistische Hülle des Heiligen Römischen Reiches eingekleidet, bleibt territorial und konfessionell gespalten und ist auf der europäischen Bühne weiterhin nur ein Nebendarsteller. Modernisierte Russland und machte es damit zum europäischen Player: Zar Peter der Große Das nun folgende 18. Jahrhundert ist politisch von der wachsenden Rivalität zwischen Frankreich und England geprägt. Als Schottland infolge seines gescheiterten Versuchs, in Panama eine eigene Kolonie aufzubauen, vor dem Staatsbankrott steht, nutzen die Engländer die Gunst der Stunde, übernehmen die schottischen Schulden und vereinigen sich 1707 im Gegenzug dafür mit dem nördlichen Nachbarn zum Königreich von Großbritannien. Die mächtige britische Kriegsflotte erlaubt es dem Inselreich, seine Handelswege und seine koloniale Vormachtstellung in Nordamerika und Indien weiter auszubauen. Auf dem Subkontinent schlagen die Briten die portugiesischen, niederländischen und französischen Rivalen aus dem Feld und vereinbaren mit dem Mogulreich vorteilhafte Handels- und Zollbedingungen. Federführend dabei ist die britische Ostindien-Kompanie, eine Aktiengesellschaft, die nicht nur wirtschaftlich, sondern auch politisch und militärisch aktiv ist und die Kolonisierung Indiens zielstrebig vorantreibt. Ein erster weltumspannender Krieg Im Schatten des britisch-französischen Konflikts wächst eine neue europäische Großmacht heran. Preußen , ein bis dahin unbedeutendes Kurfürstentum, steigt Anfang des neuen Jahrhunderts zu einem kleinen Königreich auf. Im Siebenjährigen Krieg (1756-1763) besiegt ein preußisch-englisches Bündnis unter Friedrich II (1712-1786) eine gewaltige Koalition aus Franzosen, Österreichern, Russen, Spaniern, Sachsen und Schweden. Während in Europa der Krieg um die kleine Provinz Schlesien tobt, geht es in Amerika um einen halben Kontinent – der Konflikt ist in diesem Sinne der erste tatsächliche Weltkrieg. [i] Am Ende bleibt Schlesien preußisch; in Nordamerika fallen zwischen dem Golf von Mexico (ich gehe davon aus, dass er auch weiterhin so heißen wird) und Neufundland riesige französische Territorien an die Briten. Quand l'Amerique était française: Im Siebenjährigen Krieg ging es weniger um das winzige Schlesien, als um das riesige Nordamerika... Die amerikanischen Kolonien sagen sich los Großbritannien ist nun das mächtigste Land der Erde. Doch schon im nächsten Jahrzehnt erleidet die erste globale Supermacht der Geschichte einen heftigen Rückschlag: Dreizehn nordamerikanische Kolonien sagen sich los, weil sie ihre politischen Interessen im Mutterland nicht vertreten sehen. Im folgenden Amerikanischen Unabhängigkeitskrieg (1775-1783) gelingt es den Kolonisten, die neue Freiheit erfolgreich zu verteidigen. Die Verfassung des jungen Staates ist die erste, die grundlegende Menschenrechte festschreibt. ...das sich schon kurz darauf von seinem britischen Kolonialherrn lossagen sollte. Die Revolution auf dem amerikanischen Kontinent wird durch ein trotziges und wachsendes Bürgertum entfacht, das in Zeiten der Aufklärung nicht mehr nur nach religiöser und ökonomischer, sondern nun auch nach politischer und intellektueller Freiheit strebt. Die Anhänger der von Locke, Montesquieu und Rousseau inspirierten Demokratiebewegung möchten selbst entscheiden, was für sie richtig ist – keine monarchistische oder klerikale Autorität soll diese Freiheit einschränken. Man ist überzeugt, sich in einem historischen Prozess zu befinden, der die Menschheit in Richtung Freiheit führt. Frankreich erschüttert Europa 1789, rund hundert Jahre nach England und vierzehn Jahre nach den Vereinigten Staaten, wird nun auch Frankreich von einer großen demokratischen Revolution erfasst. Auch sie beginnt als Aufstand derjenigen, die die Macht nicht mehr ohne eigene Teilhabe finanzieren möchten. Doch die Französische Revolution versinkt schon bald im Blutrausch eines Tugendterrors, der sich nun nicht mehr nur gegen die herrschende Klasse richtet, sondern – beseelt von der Idee, eine gesellschaftliche Utopie verwirklichen zu können – gegen alle Andersdenkenden. Diese Geschichte nahm kein gutes Ende für Louis XVI... Der Rationalismus der Aufklärung wird für die radikale Fraktion der Revolutionsführer zur Obsession: Kathedralen werden im Namen einer Ersatzreligion zu „Tempeln der Vernunft“ umgeweiht. Ein neuer Kalender ersetzt Wochen durch Dekaden. Die Tage der Franzosen bestehen nun, ganz rational, aus 10 Stunden à 100 Minuten zu je 100 Sekunden. In dem neuen Weltbild haben auch subjektive Maße wie Zoll, Fuß oder Elle keine Daseinsberechtigung mehr. Der neue Standard der Vernunft entstammt der Geometrie : Der Meter ist definiert als der zehnmillionste Teil der Strecke, die vom Nordpol über Paris zum Äquator führt. Die Napoleonischen Kriege und ihr Erbe Die Revolutionäre schlagen sämtliche Versuche der benachbarten Mächte zurück, den Spuk in Frankreich wieder beenden zu wollen. Dies gelingt erst 1799 dem Revolutionsgeneral Napoleon Bonaparte , der mit einem Staatsstreich nach der Macht greift und sich, römischen Vorbildern nacheifernd , zunächst vom Senat zum Ersten Konsul ernennen lässt, um sich fünf Jahre später selbst die Würde eines Kaisers der Franzosen zu verleihen. Nun greift Napoleon nach der Macht in Europa. Fast elf Jahre lang werden in den Napoleonischen Kriegen der französische Kaiser und seine deutschen, polnischen und italienischen Vasallenstaaten gegen wechselnde Allianzen von Briten, Österreichern, Russen und Preußen kämpfen. Nach anfänglichen großen Erfolgen der Franzosen beenden der katastrophale Russlandfeldzug von 1812, die Völkerschlacht bei Leipzig 1813 und die Schlacht bei Waterloo 1815 das französische Hegemonialstreben auf dem Kontinent. [ii] Veränderte Europa weit über seinen Tod hinaus: Napoleon Bonaparte, selbsternannter Kaiser der Franzosen Trotz seines militärischen Scheiterns hinterlässt Napoleons Herrschaft tiefe Spuren. Der Kaiser der Franzosen ist eine Figur des Übergangs und damit auch der Widersprüche. Nach absolutistischer Manier krönt er sich selbst, verleiht deutschen Herzögen die Königswürde und nimmt das revolutionäre Dekret zur Abschaffung der Sklaverei in den Kolonien zurück. Zugleich zeigt sich der gelernte Artillerieoffizier aber auch als aufgeklärter Machtmensch, der 1806 das anachronistische Heilige Römische Reich begräbt, moderne Nationalstaaten aus der Taufe hebt, effiziente Verwaltungen schafft und dem europäischen Kontinent zu einem von den Ideen der Aufklärung inspirierten Zivil- und Strafrechtssystem verhilft, das bis heute das Rechtsverständnis Europas und zahlreicher nichteuropäischer Staaten prägt. Die europäischen Monarchien drehen das Rad noch einmal zurück Auf dem Wiener Kongress ordnen die Siegermächte Europa neu. Den konservativen Kräften auf dem Kontinent gelingt es, das Rad der Geschichte noch einmal zurückzudrehen und die gefährlichen Forderungen nach Freiheit und Gleichheit einzudämmen; trotz Revolutionsversuchen 1832 und 1848, wird Frankreich noch ein halbes, Deutschland und Österreich noch ein ganzes Jahrhundert von Monarchen regiert werden. Strippenzieher der konservativen Restauration: Fürst Metternich Doch hinter der beschaulich-konservativen Fassade von Biedermeier und Spätromantik bereitet sich ein Epochenwandel vor: Im Takt der Dampfhammer schreiten Industrialisierung und die Entzauberung des alten Europa voran. Vorreiter ist Großbritannien, die militärische und ökonomische Weltmacht. Den Blog entdecken Wer mehr wissen will: Kennedy, Paul (2000): „Aufstieg und Fall der großen Mächte“, Fischer. Anmerkungen: [i] Außerhalb Europa und Nordamerika gab es zwischen Großbritannien und Frankreich auch Kampfhandlungen in Indien, der Karibik, Afrika und auf den Philippinen. [ii] Der Auslöser des Russlandfeldzugs war ein rein ökonomischer: Napoleon hatte den Zaren gezwungen, sich an dem als Kontinentalsperre bezeichneten Wirtschaftsboykott gegen Großbritannien zu beteiligen; da dies der russischen Wirtschaft schwer zusetzte, war Russland 1810 aus der Kontinentalsperre ausgeschert und hatte den Handel mit den Briten wieder aufgenommen.
- Welche Rolle spielt der Zufall in der Welt?
Fortsetzung von: „Welche Theorien können die Welt eigentlich am Besten erklären“ Welche Rolle spielt der Zufall in der Welt? Der Zufall spielt bei der Erklärung, warum die Welt so ist, wie sie ist, eine ganz besondere Rolle. Er begegnet uns in der Zahlentheorie, der Statistik, der Rechtsprechung, der Quantenphysik, der Thermodynamik, der Evolutionstheorie und er kommt in Form von Katastrophen, schwarzen Schwänen, Glück, Pech, Risiken oder Lottogewinnen daher. Was ist also der Zufall? Gibt es hinter alldem einen gemeinsamen Nenner, etwas, das all diese Phänomene verbindet? Regiert der Zufall die Welt oder ist alles vorherbestimmt? Gibt es überhaupt einen Zufall? Die Möglichkeit, Naturgesetze mathematisch exakt darstellen zu können – wie dies insbesondere Isaac Newton erstmalig mit seinen Bewegungsgesetzen und dem Gravitationsgesetz tat – leitete einen Epochenwandel ein. Denn mit dem Wissen um deterministische Zusammenhänge ließen sich nun künftige Ereignisse verlässlich prognostizieren. Der naturphilosophische Fortschritt befeuerte eine Euphorie, die Hoffnung, die Welt mithilfe der Mathematik vollständig beschreiben zu können. Der Franzose Pierre-Simon Laplace spann diesen Gedanken radikal weiter. Übervater des Determinismus: Pierre-Simon Laplace 1814 ersann er einen fiktiven, allwissenden Weltgeist , der sämtliche Kausalitäten des Universums in Form von Funktionsgleichungen erfassen und simultan verarbeiten kann. Rein theoretisch ließ sich damit die Bewegung aller Materie und damit die Zukunft der Welt bis an ihr Ende vorausberechnen. Der Laplacesche Dämon – wir würden ihn heute als einen „Supercomputer“ bezeichnen – wurde zum Leitmotiv eines deterministischen Weltbilds, das neben den Naturphilosophen bald auch das Denken von Militärs, Sozialutopisten und Ökonomen bestimmen würde: Warum sollte nicht auch menschliches Handeln mathematisch beschreibbar und somit prinzipiell berechenbar sein? In diesem Sinne gab es eigentlich keinen Zufall. Das, was wir als überraschende, unvorhersehbare Ereignisse wahrnehmen, beruhte lediglich auf Unkenntnis der zugrundeliegenden Zusammenhänge. Kenntnisse dieser Zusammenhänge verhießen Macht. Der Zufall in der antiken Philosophie Bis in die Antike hinein war für die Menschen alles, was geschah, der Wille von Dämonen, Geistern oder Göttern – einen Zufall gab es nicht. Die Zukunft war vorherbestimmt; Seher wie die römischen Auguren und Haruspices konnten künftige Ereignisse aus dem Flug der Vögel oder aus der Leber von Opfertieren lesen. Einmal mehr waren es die Griechen , die genauer hinsahen und sich als Erste etwas differenzierter mit dem Phänomen Zufall auseinandersetzten. Lasen die Zukunft aus dem Flug der Vögel oder gerne auch aus der Leber von Opfertieren: römische Seher Bereits lange vor Laplace war Demokrit davon überzeugt, dass das, was wir als Zufall wahrnehmen, lediglich menschliches Unvermögen sei, die wahre Ordnung der Welt erkennen zu können. Aristoteles unterschied drei Arten von Ereignissen: sichere, wahrscheinliche und unerkennbare. Für die philosophische Schule der Pythagoreer war alles Zahl. Natürliche Zahlen und Zahlenverhältnisse waren für sie Ausdruck einer göttlichen Harmonie, die nichts der Willkür überlies. Wir können daher kaum ihre Verzweiflung ermessen, als sie bei ihren Erkundungen auf Zahlen stießen, die sich nicht als Verhältnis natürlicher Zahlen darstellen ließen, wie dies – "ausgerechnet" – beim Satz des Pythagoras der Fall ist: Wenden wir a^ 2 + b^2 = c^2 auf ein rechtwinkliges Dreieck an, bei dem die Seiten a und b jeweils die Länge von 1 haben, ist die längste Seite c, die Hypotenuse, dann definitionsgemäß die Wurzel aus 2 (= 1,414213…). Diese Zahl lässt sich bis in die Unendlichkeit nachverfolgen, ohne dass jemals ein Muster erkennbar würde, die jeweils nächste Stelle ist vollkommen dem Zufall überlassen. Beschäftigte sich so ziemlich mit Allem - einschließlich des Zufalls: Aristoteles Am Ende der Antike sorgte jedoch vor allem die Prädestinationslehre des Kirchenvaters Augustinus dafür, dass der Determinismus weiterhin das bestimmende Weltbild blieb: Der allwissende Gott kennt den Lauf der Dinge von Anfang an; da er weiß, wie sich jeder einzelne Mensch auf seinem Lebensweg zwischen Gut und Böse entscheiden wird, ist auch das Seelenheil bei der Geburt bereits unweigerlich vorbestimmt. Die Macht des Determinismus Der Gedanke, dass das Schicksal der Menschheit von vornherein festgelegt sei, hat auch noch lange nach Augustinus einen zentralen Platz in der Philosophiegeschichte . Georg Wilhelm Friedrich Hegel sah den Lauf der Welt als einen dialektischen Prozess, der durch die Entfaltung eines Weltgeists vorangetrieben wird. Dieser Prozess ist von der Idee der Freiheit geleitet, die sich im Laufe der Zeit immer bewusster und konkreter verwirklicht. Konflikte und Widersprüche sind zentrale Triebkräfte der Geschichte, die durch eine Synthese überwunden werden und dadurch eine höhere Entwicklungsstufe entstehen lassen. Für Hegel ist die Geschichte ein rationaler Prozess, der auf das Ziel der Selbstverwirklichung des Geistes in Freiheit zusteuert. Gab den Geschichtsphilosophen des 19. Jahrhunderts die Spur vor: Kirchenvater Augustinus Sein Schüler Karl Marx betrachtete die Geschichte als eine Abfolge von Klassenkämpfen, die durch ökonomische Strukturen und Produktionsverhältnisse bestimmt werden. Der geschichtliche Fortschritt wird durch den Kampf um Produktionsmittel und gesellschaftliche Dominanz angetrieben, wie z. B. zwischen Kapitalisten und Proletariat in der Phase des Kapitalismus . Dieser Konflikt führt letztlich zu einer revolutionären Umwälzung und zur Überwindung des Kapitalismus. Der Endpunkt der historischen Entwicklung ist die klassenlose, kommunistische Gesellschaft. Sowohl Hegel als auch Marx sehen damit die Geschichte als vorherbestimmt. Ihr Verlauf ist nicht zufällig. Auch wenn ihre Betrachtungsperspektive eine ganz andere ist, reihen sie sich damit in die Denkwelt eines Demokrit, Augustinus und Laplace ein. Der Zufall wird berechenbar Zu einer ganz neuen Entwicklung kam es Mitte des 17. Jahrhunderts als die Franzosen Blaise Pascal und Pierre de Fermat den Ausgang von Glücksspielen mathematisch analysierten. Der Briefwechsel, den die beiden über dieses Thema führten, gilt heute als die Geburtsstunde der Wahrscheinlichkeitsrechnung . Monsieur Blaise Pascal Die Wahrscheinlichkeitsmathematiker erkannten, dass Einzelereignisse – etwa die Augenzahlen beim Würfeln – unvorhersehbar waren, dass sich bei häufigen Wiederholung jedoch Verteilungsmuster fanden, die sich mathematisch beschreiben ließen. Risiken wurden damit berechenbar – eine entscheidende Voraussetzung etwa für den Aufbau von Versicherungen. Ganz offenbar war, wie Goethe es später formulierte, „das Gewebe dieser Welt [.] aus Notwendigkeit und Zufall gebildet“. [i] Die Quantenmechanik gibt eine definitive Antwort Damit war aber immer noch nicht klar, ob das, was uns Menschen als unvorhersehbar erscheint, grundsätzlich einem echten Zufall überlassen ist oder uns nur deshalb als zufällig vorkommt, weil wir die Zusammenhänge, die das Resultat bestimmen, nicht verstehen. Die vor 100 Jahren entwickelte Quantenphysik gab endlich eine Antwort auf diese Frage: Die materielle, deterministische Welt Newtons und Laplaces entsteht durch die Aggregation zahlloser Atome. Auf der Ebene der einzelnen atomaren Bausteine aber ist die Welt in ihrem tiefsten Inneren unbestimmt. Wo sich ein Elementarteilchen, wie ein Elektron zu einem bestimmten Zeitpunkt befindet, können wir nicht wissen, sondern bestenfalls Wahrscheinlichkeiten dafür berechnen, im welchem Raumbereich es sich möglicherweise gerade aufhält. Es gibt ihn also, den „echten“ Zufall. Bewies, dass es einen "echten Zufall" gibt: Werner Heisenberg Die physikalische Disziplin der Thermodynamik etwa beschreibt, wie wärmebewegte Atome völlig willkürlich aneinanderstoßen und wie aus dieser Unordnung eine gesichtslose Gleichverteilung entsteht – letztlich, weil diese Verteilung die statistisch wahrscheinlichste Anordnung ist. In der Biologie sorgen quantenphysikalische Vorgänge bei den Replikationsprozessen der DNA dafür, dass Mutationen und Variationen entstehen, die das Lebewesen rein zufällig mit neuen Eigenschaften ausstatten. Ob diese Eigenschaften im biologischen Sinne einen Vor- oder Nachteil darstellen, ist wiederum völlig dem Zufall überlassen; es hängt davon ab, auf welche komplexen ökologischen Bedingungen der belebten und unbelebten Natur, die neuen Varianten jeweils treffen. Der „echte“ Zufall ist somit eine Grundkonstante der Natur. Die Welt, in der wir leben, könnte ohne ihn nicht existieren. Den Blog entdecken Wer mehr wissen will: Lamua, Antonio (2012): „Das Buch der Unendlichkeit“, Librero. Beutelspacher, Albrecht (2010): „Kleines Mathematikum“, C.H. Beck. Heisenberg, Werner (2000): Physik und Philosophie. Hirzel. Hegel, Georg Wilhelm Friedrich (1996): „Vorlesungen über die Philosophie der Weltgeschichte“, Erster Teil, Meiner. Goethe, Johann Wolfgang von (1795): „Wilhelm Meisters Lehrjahre“, Projekt Gutenberg-DE. Anmerkungen: [i] Goethe (1795), 17. Kapitel.
- Zerstörerischer Fortschritt: Wie destruktiv ist der Kapitalismus?
Fortsetzung von „Wie funktionieren Märkte? Die Geschichte des neoklassischen Gedankens“ Sabotage! Eine – wenn auch unbelegte – Anekdote bringt den Begriff „ Sabotage “ mit den Holzschuhen französischer Tagelöhner in Verbindung. Die verzweifelten Menschen sollen ihre als „sabots“ bezeichneten Pantinen im 19. Jahrhundert in den empfindlichen Mechanismus der neuen Landwirtschaftsmaschinen geschleudert haben, die sie ihrer Arbeit beraubt hatten. Tun empfindlichen Maschinen nicht unbedingt gut... Die Verzweiflung war nur verständlich. Während um 1800 in Deutschland noch fast 80% aller Menschen in der Landwirtschaft beschäftigt waren, waren es hundert Jahre später nur noch die Hälfte. Noch einmal hundertzwanzig Jahre danach ist dieser Wert auf 1,4% gefallen. Heute ernährt ein Bauer einer westlichen Industrienation 35-mal so viele Menschen wie zu Beginn des letzten Jahrhunderts. Erfindungen wie die Dreschmaschine machten zu Beginn des 19. Jahrhunderts unzähligen Menschen arbeitslos Die rasante Produktivitätssteigerung in der Landwirtschaft hatte Thomas Malthus Lügen gestraft. Ganz im Gegensatz zu dessen Befürchtung war die Agrarproduktion sogar wesentlich rascher gewachsen als die Bevölkerung. Möglich wurde diese bemerkenswerte Entwicklung durch den Einsatz von Wissen um optimierte Bewässerung, Düngung und Zuchtwahl sowie den Einsatz landwirtschaftlicher Maschinen. Die Folge waren Abermillionen arbeitsloser Landarbeiter, die auf der Suche nach Arbeit in die neu entstandenen industriellen Ballungsräume strömten. Dort setzte sich fort, was in der Landwirtschaft seinen Anfang genommen hatte. So stieg während des gesamten 20. Jahrhundert die Arbeitsproduktivität in den USA im Durchschnitt jedes Jahr um über 2%; ein Zuwachs, der sich seit Mitte der 1990er Jahre durch die fortschreitende Informationstechnologie und aktuell durch die Künstliche Intelligenz noch einmal deutlich beschleunigt hat. [i] Während die größten Frachtschiffe der Welt um 1850 höchstens 650 Tonnen Güter transportieren konnten, bewegen ihre Nachfolger heute bis zu 600.000 Tonnen. Die unzähligen Schauerleute und Dockarbeiter, die noch vor 100 Jahren manchmal wochenlang damit beschäftigt waren, die Ladung eines Schiffes zu löschen, sind verschwunden. Containerbrücken bewegen heute vielhundertfache Massen in weniger als einem Tag. Containerverladung im Hamburger Hafen Radikale Veränderungen Was bedeuten solch radikale Umwälzungen für die Entwicklung einer Volkswirtschaft? Das war die Frage, die den Österreicher Joseph Schumpeter umtrieb. Der 1883 in Mähren geborene und 1950 in den USA gestorbene Ökonom, Politologe und Soziologe erkannte, dass moderne Wirtschaftssysteme einem permanenten Wandel unterliegen. Der Wohlstand einer Nation hängt weniger vom Fleiß ihrer Bevölkerung ab, sondern vielmehr von deren Fähigkeit, Waren und Dienstleistungen effizient herzustellen. Um diese Produktivität zu entfalten, bedarf es, ganz im Sinne Nietzsches, einer destruktiven Kraft, die in der Lage ist, Altes aus dem Weg zu räumen. Joseph Schumpeter Ein instabiles System Diesen Gedanken einer „ schöpferischen Zerstörung “ legte der erst 28-jährige Wissenschaftler 1911 in seiner „Theorie der wirtschaftlichen Entwicklung“ dar. Als einer der Ersten nach Marx‘ Tod nimmt Schumpeter nicht Individuen, sondern wieder die gesamte Wirtschaft in den Blick. Wie Marx hält auch Schumpeter das kapitalistische System für grundsätzlich instabil. Die Ursache ist allerdings keine historische Zwangsläufigkeit, sondern vielmehr ein bestimmter Typus von Unternehmer. Oft sind es junge Pioniere, ohne Geld aber mit Ideen, und bereit, Risiken einzugehen. In vielen Fällen sind sie nicht selbst die Urheber der Innovation, aber sie sind die Ersten, die deren Möglichkeiten erkennen. Indem sie die Produktionsfaktoren Arbeit, Boden und Kapital nach völlig neuen Prinzipien kombinieren, entstehen billigere, bessere oder völlig neue Produkte. Dabei geht es nicht um kleine Fortschritte, sondern um disruptive Ideen, die das Potential haben, die Welt zu verändern. Glühbirnen, Verbrennungsmotoren, Halbleitertechnik oder das Internet haben in wenigen Jahren Kerzen, Pferde, Abakusse, und Printmedien aus unserer Welt verdrängt. Das Neue setzt sich durch, weil es die Bedürfnisse der Menschen auf eine bessere Art und Weise befriedigt. Laternenanzünder sind irgendwie von der Bildfläche verschwunden... Der unablässige technologische Wandel bringt Gewinner und Verlierer hervor. Über Nacht verschwinden ganze Branchen. Die Welt braucht heute keine Kutscher, Kerzenzieher, Heizer, Laternenanzünder, Schreibmaschinenmechaniker oder Schriftsetzer mehr. Berufe, die vor zweihundert Jahren noch Millionen Menschen Lohn und Brot gaben, wie Köhler, Böttcher, Wagner, Weber, Bäcker, Metzger, Schmied, Sattler oder Gerber existieren heute fast nur noch als Familiennamen. Destruktiv-kreativer Kapitalismus Zerstörerische Kreativität ist nach Schumpeters Überzeugung das eigentliche Wesen des Kapitalismus . Die alten Strukturen müssen verschwinden, um Neuem Platz zu machen. Das macht die dynamischen Unternehmer zu Maschinenstürmern. Wer sich nicht anpassen kann geht unter, gleich den zahllosen Arten, die die Auslesekriterien der Evolution nicht zu erfüllen vermochten. Schumpeters Unternehmer ist ein Getriebener, der sich nie lange auf seinen Lorbeeren ausruhen kann. Doch in dem Maße, indem Altes vergeht, entsteht auch laufend Neues. Kurzfristig mögen einzelne Menschen durch den strukturellen Wandel hart getroffen werden, doch langfristig profitieren alle von billigeren oder innovativen Produkten. [ii] „Kapitalismus, Sozialismus und Demokratie“, 1942 veröffentlicht, ist das zweite bedeutsame Werk Schumpeters. In ihm untersucht er die Wechselwirkungen zwischen ökonomischen und politischen Prozessen. Schumpeter zeigt Respekt für Marx‘ Analyse des kapitalistischen Systems, insbesondere seine Vorhersage fallender Profitraten und monopolistischer Tendenzen. Dennoch kommen dem unsteten Kapitalismus große Verdienste zu: Nur seine Innovationskraft ermöglicht Massenwohlstand und finanzierbare Sozialsysteme. Monopole spielen für Schumpeter in diesem Zusammenhang sogar eine nützliche Rolle; aus einer Position der Stärke heraus können sie wichtige Innovationen aus eigener Kraft finanzieren. Das Risiko, dass sie ihre Position missbrauchen, ist gering; täten sie es, würden sich die Verbraucher von ihnen abwenden und nach Alternativen suchen. Am Ende regieren Technokraten Dennoch wird der Kapitalismus nach Schumpeters Überzeugung allen historischen Verdiensten zum Trotz am Ende dem Sozialismus weichen. Nicht, wie von Marx vorhergesagt, durch eine Weltrevolution verelendeter Massen, sondern aufgrund eines inneren Verfalls, der früher oder später die Vorteile einer sozialistischen Gesellschaftsordnung überwiegen lässt. Die durch den Kapitalismus initiierten Innovationsschübe werden mit der Zeit erlahmen, die wirtschaftliche Entwicklung der Gesellschaft wird zunehmend statisch. Die Unternehmerpersönlichkeiten, die Neuerungen gegen Widerstände durchzusetzen vermögen, werden nach und nach durch angestellte Technokraten ersetzt, die mehr auf ihr Eigeninteresse bedacht sind, als auf das Wohl des Unternehmens. Ein weiterer Grund für den Niedergang des Kapitalismus ist der Aufstieg der Intellektuellen. Herrschen am Ende die Technokraten? Das kapitalistische System hat ihnen zwar Zugang zu Bildung verschafft, doch infolgedessen gibt es nun mehr Gebildete, als das System für Führungsaufgaben benötigt. Die frustrierte Intelligenzija wird zu Wortführern der Arbeiterklasse und entfacht so eine kritische Haltung großer Teile der Gesellschaft gegenüber dem herrschenden System. Am Ende wird ein – allerdings demokratisch legitimiertes – sozialistisches System den Kapitalismus verdrängen, letztlich, weil es den Menschen größere Sicherheit verheißt. Schumpeters angreifbare Krisentheorie In der destruktiven Kraft des Kapitalismus sieht Schumpeter auch die Ursache für die konjunkturellen Schwankungen, die die Volkswirtschaften immer wieder heimsuchen. Kommt es zu einer technischen Revolution, sind die Unternehmen der betroffenen Branchen gezwungen, alle gleichzeitig zu investieren, um die neue Technologie zu adaptieren. Die so entstandene Nachfrage nach Investitionsgütern führt zu einer Hochkonjunktur. Wer es nicht schafft, rasch genug auf die neue Technologie umzurüsten, geht bankrott. Unter den Überlebenden setzt ein gnadenloser Verdrängungswettbewerb ein. Zwar können sie nun mehr und billiger produzieren, doch infolge der allgemeinen Überproduktion kommt es zu einem Preiskampf, dem viele Anbieter zum Opfer fallen, so dass die Wirtschaft dadurch in eine Rezession rutscht. In der Tat lässt sich häufig beobachten, dass einem massiven Abschwung eine boomende Konjunktur vorausgeht – etwa bei der durch die neuen Informationstechnologien befeuerten Dotcom-Blas e der Jahrtausendwende oder der Hausse am amerikanischen Immobilienmarkt unmittelbar vor der Finanzkrise von 2007 . Schumpeters Konjunkturtheorie konnte sich allerdings nicht als Krisentheorie etablieren. Die Verwerfungen, die durch Höhen und Tiefen wirtschaftlicher Zyklen entstehen, ihre Ursachen und die Frage, wie sie sich überwinden lassen, sollten das bestimmende ökonomische Thema des 20. Jahrhunderts werden. (Mehr dazu im nächsten Ökonomie-Blog.) Den Blog entdecken Wer mehr wissen will: Schumpeter, Joseph (1987): „Theorie der wirtschaftlichen Entwicklung“, Duncker & Humblot. Schumpeter, Joseph (2005): Kapitalismus, Sozialismus und Demokratie, UTB. Samuelson, Paul A.; Nordhaus William D. (2010): „Volkswirtschaftslehre“, Mi-Wirtschaftsbuch. Bildnachweise: Containerbrücke im Hamburger Hafen Anmerkungen: [i] Vgl. Samuelson / Nordhaus S. 185-186. [ii] Der Nobelpreisträger Robert Solow konnte in einer 1956 veröffentlichten Studie zeigen, dass die in der ersten Hälfte des letzten Jahrhunderts erzielten Produktivitätsfortschritte fast ausschließlich auf neue Technologien zurückgeführt werden können. Heute befeuert vor allem der neue Produktionsfaktor „Information“ die Digitale Revolution. Unternehmen, die den neuen Rohstoff handeln, haben in den letzten Jahren an den Börsen astronomische Wertsteigerungen erfahren und übertreffen die Bewertungen der größten Industriekonzerne mittlerweile um ein Vielfaches.
- Selbstmorde und der „Geist des Kapitalismus“: Ein Franzose und ein Deutscher begründen um 1900 die moderne Soziologie.
Fortsetzung von "Entstehung der Parteien" Selbstmord als gesellschaftliches Phänomen Die 1897 veröffentlichte Studie „Le suicide“ – „Der Selbstmord“ des französischen Soziologen Émile Durkheim (1858-1917) eröffnete bisher ungeahnte Einblicke. Ganz offenbar hing die Wahrscheinlichkeit, ob sich ein Mensch umbringt, entscheidend von Kriterien wie Nationalität, Ethnie, Religion, Geschlecht, Alter, Familienstand, Bevölkerungsdichte, Klima oder Jahreszeit ab. Selbst Wochentag und Uhrzeit spielten eine Rolle. So stellte Durkheim nüchtern fest, dass mehr Männer als Frauen, Protestanten als Katholiken, Alleinstehende als Verheiratete, Kinderlose als Eltern, Soldaten als Zivilisten oder Gebildete als Ungebildete den Freitod wählen. [i] É mile Durkheim Doch Durkheim beließ es nicht bei den statistischen Fakten – es ging ihm um die tiefer liegenden Ursachen. Suizid konnte kein psychologisches, sondern musste ein gesellschaftliches Phänomen sein. Anders ließen sich die länder-, konfessions-, geschlechts- oder schichtspezifischen Unterschiede der Selbstmordraten kaum erklären. Mit der Zeit destillierte Durkheim aus Daten und Hypothesen eine Typologie des Selbstmords: Protestanten etwa haben ein egoistisches Motiv. Obwohl beide Konfessionen Selbstmord verbieten, ist der Protestantismus individualistischer als der streng hierarchische und stärker integrierende Katholizismus. In weniger entwickelten Gesellschaften mit pantheistischen Religionen und knappen Ressourcen, aber auch in traditionsgebundenen modernen Staaten wie Japan, gibt es wiederum den altruistischen Selbstmord, dessen Ursachen nicht in der Vereinzelung, sondern, im Gegenteil, in einer zu wenig ausgeprägten Individualität zu suchen sind; zentrales Motiv ist es, anderen nicht zur Last zu fallen. [ii] Der anomische Selbstmord wird überall dort begünstigt, wo sich überkommene moralische Normen auflösen, insbesondere also in Zeiten des sozialen Wandels und des damit einhergehenden Verfalls traditioneller Ordnungen. Das führt überraschenderweise dazu, dass die Suizidhäufigkeit nicht nur während Wirtschaftskrisen, sondern auch in Phasen der Hochkonjunktur überdurchschnittlich hoch ist. Die Menschen leiden darunter, dass in guten Zeiten Bedürfnisse und Erwartungen stark ansteigen. Offenbar sind es Begrenzungen – sei es nach oben, sei es nach unten – die dem Menschen mentale Stabilität verleihen. [iii] Eine neue Wissenschaft Mit seinem Ansatz befindet sich Durkheim ganz in der Tradition des Positivismus . Anders als Locke oder Marx geht es ihm nicht darum, gesellschaftliche Tatbestände zu werten, sondern empirisch zu beschreiben und zu erklären. Keine einfache Aufgabe, denn die neue Wissenschaft der Soziologie ist ein weites Feld: Soziale Tatbestände umfassen Beziehungen zwischen zwei Menschen ebenso wie kulturelle Unterschiede zwischen zwei Nationen. Zwischen diesen Extremen gibt es eine schier endlose Zahl von Einflussfaktoren, die erklären könnten, warum menschliche Gesellschaften so sind wie sie sind. Was die neue Wissenschaft auszeichnet, ist die Kombination natur- und geisteswissenschaftlicher Methoden. Ziel ist es, statistische Muster mit sozialem, kulturellem und historischem Beziehungswissen zu erklären. Je nach Betrachtungsgegenstand entsteht so eine Industrie- und eine Kriminalsoziologie, eine Soziologie der Marginalisierung, der Immigration, der ethnischen Gruppen, des Stadtlebens, der sozialen Schichten, der Geschlechter, der Paarbeziehungen, der Homosexualität, der Arbeitslosigkeit, der gesellschaftlichen Umgangsformen oder eben des Selbstmords. [iv] Von der Gemeinschaft zur Gesellschaft Der Nationalökonom und Philosoph Ferdinand Tönnies (1855-1936) gilt als wichtiger Mitbegründer der deutschsprachigen Soziologie. In „Gemeinschaft und Gesellschaft“, 1887 erschienen, beschreibt er die beiden aus seiner Sicht grundsätzlichen Formen menschlichen Zusammenlebens: Mitglieder einer Gemeinschaft richten ihr Handeln an einem gemeinsamen, übergeordneten Zweck aus. Sie sehen sich – beispielsweise als Stämme, Klans, Dorfgemeinschaften oder Angehörige einer Religion – als Teil eines größeren Ganzen. Von einer Gesellschaft spricht Tönnies, wenn Menschen getrennt voneinander „im Zustande der Spannung gegen alle“ leben. [v] In Gesellschaften bedienen sich Menschen anderer Menschen , um eigene Zwecke zu verfolgen, etwa mittels Unternehmen oder moderner staatlicher Strukturen. Es ist der Individualisierungsprozess, der aus Gemeinschaften Gesellschaften entstehen lässt. Gesellschaft voller Abhängigkeiten: Menschen in New York um 1900 Anfang der 1890er Jahre beschäftigte sich Durkheim in „Über soziale Arbeitsteilung“ mit der Frage, warum die Menschen in den westlichen Gesellschaften einerseits immer autonomer werden, andererseits aber immer mehr von der Gesellschaft abhängig sind. Den Grund für dieses Paradoxon sieht Durkheim in einer Veränderung der „sozialen Solidarität“. Der Gemeinsinn führt in traditionellen Gesellschaften (jene, die Tönnies als „Gemeinschaften“ bezeichnet) zu einer „mechanischen Solidarität“. Die Menschen teilen Anschauungen, Werte und Gefühle. Wer dagegen verstößt, wird durch ein repressives System hart sanktioniert. Moderne Gesellschaften üben hingegen eine „organische Solidarität“, deren Strukturen wesentlich differenzierter sind und bei denen Verträge und Arbeitsteilung eine zentrale Rolle spielen, während gemeinsame Anschauungen und Werte in den Hintergrund treten. Dies ist typisch für die hochgradig spezialisierten Industriegesellschaften, die dem Einzelnen eine extreme Abhängigkeit aufzwingen. Der Individualismus suggeriert dem modernen Menschen lediglich die Illusion von Unabhängigkeit. Das Großherzogtum Baden: nicht nur optisch, sondern auch konfessionell ein Flickenteppich Die Religionssoziologie möchten erklären, warum man reich wird „Das Territorium bietet, vom rauhen Waldgebirg zur fruchtbaren Tiefebene sich senkend, für die verschiedenen Berufe günstige Verhältnisse, und die ereignisreiche Geschichte der Landesteile mit ihren vielfachen Wechselfällen verleiht der Forschung einen besonderen Reiz“. [vi] Mit diesen poetischen Worten beschreibt der Volkswirt Martin Offenbacher im Jahre 1900 das Großherzogtum Baden. Doch dann wird er sachlich. Im fünften Heft des vierten Bandes der „Volkswirtschaftlichen Abhandlungen der Badischen Hochschulen“ stellt der Autor die Ergebnisse seiner statistischen Forschungsarbeit „Konfession und soziale Schichtung“ vor. Offenbacher hat den südwestdeutschen Landstrich ausgewählt, weil hier Katholiken und Protestanten seit der Reformation in einem eng verwobenen konfessionellen Flickenteppich nebeneinander leben . Seine detaillierten Auswertungen weisen nach, dass über alle Berufsgruppen, Gewerbe und Landesteile hinweg, die Protestanten den „unternehmenderen Teil“ der Bevölkerung ausmachen und „fast überall […] im Vorteil [sind], sei es, dass man die wirtschaftliche, sei es, dass man die gesellschaftliche Seite in den Vordergrund stellt.“ [vii] Erforschte den Geist des Kapitalismus: Max Weber Die Arbeit seines ehemaligen Studenten Offenbacher brachte den Mitherausgeber der „Volkswirtschaftlichen Abhandlungen“ ins Grübeln. Max Weber , 1864 in Erfurt geboren, hatte nach dem Studium der Rechtswissenschaften, Nationalökonomie, Philosophie und Geschichte und akademischen Stationen in Berlin und Freiburg 1896 eine Professur für Nationalökonomie in Heidelberg angetreten. Aus den wirtschaftsgeschichtlichen Betrachtungen, die Weber anstellte, entstand eine der bedeutsamsten soziologischen Theorien überhaupt. Sie erschien 1904 und 1905 in zwei Teilen unter dem Titel „Die protestantische Ethik und der Geist des Kapitalismus“. Die Entzauberung der Welt Weber geht in seiner Untersuchung den tieferen Ursachen der epochalen Veränderungen nach, die sich ab 1500 in Europa vollzogen . Anders als Marx sieht er sie nicht in veränderten Produktionsweisen und Besitzverhältnissen, sondern in einer neuen Art zu denken. Dieses Denken leitet die „Entzauberung der Welt“ ein und ist ursächlich für unser unstetes, modernes Leben. Das statische, gottgegebene Fundament des Mittelalters wurde durch eine neue Dynamik abgelöst, angetrieben vom Glauben an den Fortschritt und der Hoffnung auf eine bessere Zukunft. Entfesselt wurde dieser Wandel durch ein zunehmend rationales Verhalten der Menschen. Es äußert sich im methodischen wissenschaftlichen Arbeiten, der ständigen Suche nach Prinzipien und Mustern, dem Wunsch, alles zu hinterfragen und überall die Grenzen des Machbaren auszuloten. Das streng formale System, mit dem Musik aufgezeichnet wird, gehört ebenso dazu, wie eine immer komplexer werdende Architektur oder die Feststellung „Zeit ist Geld“. Solche Denkweisen waren den Menschen zuvor vollkommen fremd. Früher hatte man Zeit – nun hatte man Uhren. Knechte im Dienste der Rentabilität: Arbeiter in einem Eisenwalzwerk Angstvoller Konsumverzicht Die strenge, alles durchdringende rationale Zweckorientierung bleibt allerdings auf die westlichen Gesellschaften beschränkt. Das führt Weber zu der Frage, worin „die Ursachen für die occidentalen Sonderentwicklungen “ liegen, die den Aufstieg des Kapitalismus erklären. Gewinnstreben als solches ist es nicht – dieses liegt in der Natur aller Menschen. Das Wesen des Kapitalismus, sein Geist , kommt vielmehr in einer bestimmten Form von Erfolgsstreben zum Ausdruck, die Weber mit dem Begriff „Rentabilität“ beschreibt. Tatsächlich steckt in dem durchstrukturierten Räderwerk des Kapitalismus ein sehr irrationaler Aspekt. Liegt nicht der Zweck von Reichtum darin, ein gutes und entspanntes Leben führen zu können? Genau das aber verwehren sich die Kapitalisten. Arbeit und Mehrung des Reichtums scheinen im Kapitalismus Selbstzweck zu sein. Das Geld wird nicht, wie Adel und Klerus dies tun, konsumiert, sondern akkumuliert, um dann rentabilitätssteigernd reinvestiert werden zu können. Es ist diese merkwürdige Verbindung aus rationalem und irrationalem Verhalten, die das Handeln des entstehenden Bürgertums im nördlichen Europa bestimmt. Die Macht der Religion Offenbachers empirische Studie liefert Weber den Schlüssel zur Erklärung dieses seltsamen Umstandes. Dass Kapitalismus und Protestantismus gleichzeitig entstanden sind, ist für Weber kein Zufall. Zwischen rationaler Gewinnmaximierung und protestantischem Berufsethos besteht ein enger Zusammenhang. Auslöser der neuen Dynamik war die Reformation, genauer eine besondere Variante des Protestantismus, der Calvinismus. Der französische Reformator Jean Calvin (1509-1564) hatte Mitte des 16. Jahrhunderts die auf Augustinus zurückgehende „ Prädestinationslehre “ wieder aufgegriffen, nach der das jenseitige Schicksal eines jeden Menschen – Himmel oder Hölle – bereits vor seiner Geburt festgelegt ist. Der Allwissende weiß von vornherein, wer ein gottgefälliges Leben führen wird. Die calvinistische Lehre wurde insbesondere durch ausgewanderte französische Hugenotten, die im katholischen Frankreich grausam verfolgt wurden, in die Niederlande, die Schweiz und nach Deutschland getragen. Auf den Britischen Inseln etablierte sich der Calvinismus in Form des Puritanismus . Spaßbremse: Jean Calvin Die Ungewissheit, ob man zu den Auserwählten gehört, lastete schwer auf den Calvinisten. Ein gottgefälliges, arbeitsames und sündenfreies Leben war Voraussetzung, aber noch keine Garantie für das Himmelreich. Diese psychologische Bürde ließ die Calvinisten nach Hinweisen Ausschau halten, die Rückschlüsse auf ihr jenseitiges Schicksal zuließen. Wohlstand war ein solcher Fingerzeig Gottes. Gelangte man zu Reichtum, wies die Lebensführung in Richtung Paradies. Weber ist überzeugt, dass dieser Wunsch nach Selbstvergewisserung ein wichtiger Faktor bei der Entstehung des Kapitalismus im nördlichen Europa war. Die Mehrung des Wohlstands ergab sich fast zwangsläufig aus der Kausalkette von Konsumverzicht, Sparen und Reinvestieren. Erlösung war damit nicht mehr eine mystische göttliche Gnade, sondern ließ sich durch eine fleißig-asketische Grundhaltung erarbeiten. So entstand aus dem protestantischen Arbeitsethos der Geist des Kapitalismus. Weber stellt ausdrücklich fest, dass das neue Wirtschaftsmodell kein alleiniges „Erzeugnis der Reformation“ war; er weist darauf hin, „dass gewi sse Formen des kapitalistischen Geschäftsbetriebs notorisch erheblich älter sind“. [viii] Doch zweifellos kommt der protestantischen Ethik bei der Entstehung des Kapitalismus die zentrale Rolle zu. Die Erklärmacht von Webers Theorie ist beeindruckend. Die „Entzauberung der Welt“ fällt zusammen mit Tönnies Übergang von der Gemeinschaft zu individualistischen, am ökonomischen Erfolg ausgerichteten Gesellschaft. Sie erklärt die Wohlstandsverteilung des Großherzogtums Baden ebenso wie die heutigen, teils erheblichen Unterschiede beim Bruttoinlandsprodukt pro Kopf zwischen Nord- und Südeuropa, Nord- und Südamerika sowie die auffällige Asymmetrie bei der Vergabe von Nobelpreisen. [ix] Auch wenn der Glaube im Alltag vieler Menschen in den protestantisch geprägten Ländern heute keine große Rolle mehr spielen mag, so bleiben wesentliche Teile des zugrundeliegenden Ethos für das Handeln weiterhin bestimmend. Weber begründete mit der „ Protestantischen Ethik“ die Religionssoziologie . In einer Reihe weiterer Aufsätze, die unter dem Titel „Die Wirtschaftsethik der Weltreligionen “ veröffentlicht wurden, weitete er seine Analyse auf Konfuzianismus, Taoismus, Hinduismus, Buddhismus und das antike Judentum aus. [x] Für jede dieser Religionen möchte Weber nachweisen, warum sich aus ihnen heraus kein kapitalistisches System entwickeln konnte. Zwar durchliefen auch sie alle eine Phase der Rationalisierung, doch keine begünstigte in ihrem jeweiligen politisch-sozialen Kontext eine nüchtern-asketische Lebensführung. Der Konfuzianismus etwa ist für Weber Ausdruck einer „Beamtenmoral“, die die bestehenden Verhältnisse stabilisieren möchte und in Gewinnstreben vor allem die Gefahr sozialer Unruhen sieht. Als ein „Rationalismus der Ordnung“ ließ er für die Entwicklung des Individuums keinen Raum. Allein das Judentum stellt eine Ausnahme dar, denn es teilt eine wichtige Eigenschaft mit dem Christentum: Anders als die fernöstlichen Religionen, wenden sich die beiden monotheistischen Bekenntnisse nicht von der Unvollkommenheit der Welt ab, sondern möchten sie zum Besseren verändern. Wann verhalten wir uns? Wann handeln wir? Die Transformationsmechanismen, die in die moderne Welt führen, sind auch das Leitmotiv von Webers Handlungstheorie . Sie widmet sich dem Spannungsfeld von rationalem und irrationalem Handeln. Grundlage ist die Unterscheidung zwischen „Verhalten“ und „Handeln“. Verhalten charakterisiert Weber ganz im biologischen Sinn: Es ist durch Regelmäßigkeit gekennzeichnet, vollzieht sich unbewusst, ist aber stets im positivistischen Sinne erklärbar. Dem gegenüber ist Handeln immer absichtsvoll, also mit einem subjektiven Sinn verbunden. Es ist im Sinne Diltheys allenfalls verstehbar. Das konkrete Handeln eines Individuums bezeichnet Weber als „Lebensführung“. Wie rational oder irrational ein Individuum agiert, wird von einer Reihe sozialer Einflussfaktoren bestimmt. Zwischen den Extremen eines rein rationalistischen Kopfmenschen und einer von reiner Willkür getriebenen Person, finden sich vier weitere Grundtypen: Wer sich bei seinem Tun nach Zweck, Mitteln und Konsequenzen ausrichtet, handelt zweckrational; wer sich von ethischen, religiösen oder ästhetischen Überzeugungen leiten lässt, handelt wertrational; wessen Handeln von Emotionen bestimmt wird, entspricht dem affektuellen Typus; wer Mustern folgt, die von anderen vorgelebt werden, handelt traditional . Die vier Typen finden sich beispielsweise anhand von Wählern illustrieren. Derjenige, der Parteiprogramme detailliert studiert, mit seiner Lebenssituation abgleicht und Wahrscheinlichkeitsüberlegungen darüber anstellt, welche Wahlversprechen auch umgesetzt werden, um schließlich die Partei zu wählen, die seine Kriterien maximiert, verhält sich zweckrational. Wertrational verhält sich, wer die Partei wählt, die seinem ethischen oder religiösen Weltbild am nächsten steht. Wer sich spontan nach einfachen Slogans auf Wahlplakaten richtet, handelt affektuell. Wer die Partei wählt, die auch schon seine Eltern gewählt haben, handelt traditional. Weber stellt klar, dass dies „Idealtypen“ sind; in der Realität ist unser soziales Handeln stets eine Mischung verschiedener Motive. Webers Handlungstypen Auch Webers bekannte Unterscheidung zwischen Verantwortungsethikern und Gesinnungsethikern , knüpft an dieses Handlungsschema an. Sein 1919 gehaltener Vortrag „Politik als Beruf“ verbindet die Charaktere des zweckrationalen und des wertrationalen Entscheiders mit den beiden Grundpositionen der Moral. Der Verantwortungsethiker richtet sein Handeln an zweckrationalen, utilitaristischen Überlegungen aus; für ihn stehen die Konsequenzen seines Handelns im Mittelpunkt. Der Gesinnungsethiker hört mehr auf seine innere Stimme; sein Handeln ist primär an Werten orientiert und seine Ethik ist die des kategorischen Imperativs . Diese beiden Positionen stecken für Weber das Spannungsfeld ab, innerhalb dessen Politiker das rechte Maß finden müssen. Eine der einflussreichsten Schriften der Soziologiegeschichte Webers Handlungstypen lassen sich auch mit Tönnies‘ Unterscheidung zwischen Gemeinschaft und Gesellschaft in Verbindung bringen: Die Gemeinschaft beruht auf einem affektuellen oder traditionalen Gefühl. Eine Gesellschaft hingegen gründet auf zweck- oder wertrationalen Übereinkünften. Der Rationalismus, der die modernen westlichen Gesellschaften auszeichnet, bestimmt also nicht nur die Wirtschaft, er durchzieht vielmehr die gesamte Gesellschaft. Dies zeigt sich etwa in der Bürokratie und in einem immer komplexer werdenden Gesetzes- und Vertragswesen. Sie machen den Unterschied zu Machiavellis chaotischem Feudalstaat deutlich: Der moderne Staat benötigt weder charismatische Führer noch traditionelle Erbmonarchen; seine Legitimität beruht auf Gesetzen, auf einer „legal-rationalen“ Autorität, letztlich dem Glauben an das System selbst. Ein Staatsdiener verrichtet seine Arbeit nicht wie ein mittelalterlicher Handwerker aufgrund überkommener Regeln, sondern führt aus, was die Gesetze und Vorschriften von ihm fordern. Gibt es eine neue Regel, folgt er dieser, ohne zu zögern. Bürokraten und Technokraten sind Spezialisten, die in eine klare Hierarchie eingebunden sind und auf der Basis von detaillierten Vorschriften bevorzugt schriftlich kommunizieren. Ein Sachverhalt wird nach einem fest vorgegebenem Schema bearbeitet und – anders als in vormoderner Zeit – ohne Ansehen der Person. Nach dieser Logik funktionieren Finanzämter, Gemeindeverwaltungen, Meldeämter, Katasterämter, Arbeitsämter, Gesundheitsämter, Prüfstellen, Staatsanwaltschaft und Polizei. Der moderne Staat ist ein Regelapparat, dessen Regeln den Herrscher ersetzt haben. Das macht die auf Gesetzen beruhende Bürokratie neben der charismatischen und der traditionalen Autorität zur dritten und jüngsten gesellschaftlichen Autoritätsform. Die Rolle von Klassen, Ständen und Parteien Webers Arbeitseifer verdanken wir noch eine weitere bedeutsame Typologie. Mit seiner Schichtentheorie möchte er die Position eines jeden Individuums in der Gesellschaft durch drei Parameter bestimmen. Der erste Parameter sind die Klassen . Sie sind die wirtschaftliche Perspektive. Während Marx lediglich in Abhängigkeit vom Besitz der Produktionsmittel Bourgeoisie und Proletariat unterscheidet, differenziert Weber hier stärker. Es gibt Besitzende, eine besitzlose Intelligenz, ein Kleinbürgertum, also Handwerker und selbständige Bauern, und die Arbeiterschaft. Sie unterscheiden sich nicht nur hinsichtlich der Besitzverhältnisse, sondern auch bezüglich Aufstiegschancen und Erwerbsmöglichkeiten. Der zweite Parameter sind die Stände . Sie sind die soziale Ordnungsdimension. Man gehört etwa einem bestimmten Berufsstand an, der mit mehr oder weniger Prestige verbunden ist. Dazu gehört auch ein gewisser Lebenswandel und dass man bevorzugt mit seinesgleichen verkehrt. Die Stände sind daher ein traditionelles, stabilisierendes, oft aber auch lähmendes Element der gesellschaftlichen Ordnung. Der dritte Parameter schließlich sind die Parteien . Sie repräsentieren die Sphäre der Macht. Parteien sind institutionalisierte Interessengruppen, typischerweise in Form von politischen Parteien, aber auch Verbände oder Kirchen fallen unter diese Definition. Als Zweckbündnisse, manchmal nur auf Zeit geschlossen, verfolgen sie systematisch ein bestimmtes Ziel. Letztlich geht es darum, den Parteiführern eine Machtbasis zu sichern, mit der diese wiederum den Mitgliedern die Möglichkeit verschaffen, sachliche Ziele durchzusetzen oder persönliche Vorteile zu erlangen. [xi] Jedes Mitglied der Gesellschaft kann damit nun hinsichtlich wirtschaftlicher, sozialer und machtpolitischer Kriterien zugeordnet werden. Ein Pfarrer hat ein hohes soziales Prestige, gehört ob seiner Besitzverhältnisse allerdings einer niederen Klasse an, zugleich aber auch einer durchaus mächtigen „Partei“. Ein reicher Privatier, der sein Vermögen ererbt hat, gehört einer hohen Klasse an, verfügt aber nur über einen niedrigeren Status. Ein Beamter mit bescheidenem Einkommen kann wiederum mit beträchtlichen Machtbefugnissen ausgestattet sein. Reiche Unternehmer oder ehrgeizige Intellektuelle haben die Möglichkeit, das Prestige ihrer Klasse oder ihres Berufstands in politische Macht umzuwandeln. Die Breite seiner gedanklichen Ansätze macht Weber neben Durkheim zur zentralen Figur der neuen Wissenschaft von der Gesellschaft. Auf diesem Fundament werden die nun kommenden Soziologengenerationen aufbauen. Den Blog entdecken Wer mehr wissen will: Tönnies, Ferdinand (1935): „Gemeinschaft und Gesellschaft“, Buske. Weber, Max (1919): „Politik als Beruf“, Vortrag. Weber, Max (1922): „Wirtschaft und Gesellschaft“, Mohr. Weber, Max (1922): „Gesammelte Aufsätze zur Wissenschaftslehre“, Mohr. Weber, Max (1988): „Die Wirtschaftsethik der Weltreligionen“, Mohr. Weber, Max (2017): „Die protestantische Ethik und der „Geist“ des Kapitalismus“, Reclam. Durkheim, Émile (1897): „Le suicide : Étude de sociologie “, Félix Alcan Offenbacher, Martin (1900): „Konfession und soziale Schichtung“, Mohr. Lorenz, Ansgar/Ntemiris, Nektarios (2015): „Klassiker der Soziologie: Eine illustrierte Einführung“, Wilhelm Fink. Anmerkungen: [i] Weitere Feststellungen waren unter anderem, dass sich in Ruhephasen – über Mittag und an Wochenenden – weniger Menschen umbringen und dass die Suizidrate in Friedenszeiten höher ist als während eines Krieges. [ii] Dieses Verhalten ließe sich heute auch aus evolutionsbiologischer Sicht im Sinne des egoistischen Gens erklären. [iii] In einer Fußnote erwähnt Durkheim noch einen vierten Typus, den fatalistischen Selbstmord. Er ist verbunden mit einer Perspektivenlosigkeit und der systematischen Unterdrückung natürlicher Triebe. Dazu zählt etwa der gemeinsame Selbstmord junger Liebespaare oder verzweifelter Sklaven. Durkheim misst dieser Form nur eine geringe praktische Bedeutung bei. [iv] Auf den historischen Begründer der Soziologie als Wissenschaft, den Franzosen Auguste Comte werde ich nochmal in einem separaten Blog eingehen. [v] Tönnies (1935) S.40. [vi] Offenbacher (1900) S. 410. [vii] Offenbacher (1900) S. 476. [viii] Weber (2017 ) S. 76. Zu den „notorisch“ älteren Formen gehört beispielsweise das Rechnungswesen. [ix] Der amerikanische Soziologe Robert King Merton stellte 1938 die These auf, dass die naturwissenschaftliche Revolution der Aufklärung vor allem durch englische Puritaner und deutsche Pietisten getragen wurde. Tatsächlich sind sechs der zehn Länder mit den meisten zugesprochenen Nobelpreisen primär protestantisch geprägt. Sie repräsentierten nur rund 6% der Weltbevölkerung aber rund 83 % aller vergebenen Preise (Stand 2019). Den Vereinigten Staaten wurden bis 2010 insgesamt 305 Nobelpreise zugesprochen, allen lateinamerikanischen Staaten zusammen hingegen nur sechs. [x] Seinen Plan, auch den Islam religionssoziologisch zu analysieren, konnte Weber nicht mehr realisieren. Er starb 1920, wahrscheinlich an den Folgen der Spanischen Grippe. [xi] Vgl. Weber (1922) Wirtschaft und Gesellschaft Kapitel 1, § 18.
- Sinn, Verstand und letzte Gründe: Die Philosophie der Neuzeit bis Kant
Fortsetzung von: " Glaube als Wissenschaft – ein Überblick über die Philosophie des Mittelalters" Sinn, Verstand und letzte Gründe Für Europa war die Zeit um 1500 eine Epoche gewaltiger Veränderungen . Neben der Philosophie hatten auch Kunst, Architektur und Literatur die Antike wiederentdeckt. Neues Wissen musste nun nicht mehr rein theologisch , sondern zunehmend auch wieder logisch-rational oder empirisch gerechtfertigt werden. Der Kirche entglitt damit nach und nach ihr Monopol für Wahrheitsvermittlung und das Individuum rückte zunehmend in den Mittelpunkt der Betrachtungen. Eine wesentliche Rolle bei dieser Entwicklung spielte ein Augustinermönch und Professor der Theologie zu Wittenberg, der ab 1517 von sich reden machte. Martin Luther war mit den Lehren des Aristoteles und eines Wilhelm von Ockham vertraut; am stärksten prägte ihn jedoch die Zwei-Reiche-Lehre seines Ordenspatrons Augustinus . Luther gelangte zu der Überzeugung, dass Erlösung und ewiges Leben nicht durch gute Taten oder priesterliche Absolution erlangt werden können, sondern allein durch aufrichtigen persönlichen Glauben und Reue für begangene Sünden. Damit erhob er den einzelnen Menschen zur höchsten irdischen Instanz; ein Perspektivenwechsel, der den weiteren Verlauf der Weltgeschichte maßgeblich beeinflussen sollte. Während sich die neue Konfession innerhalb kurzer Zeit über fast ganz Nordeuropa ausbreitete, sollten noch mehr als 100 Jahre vergehen, bis es auch in der Philosophie zu einem vergleichbaren Aufbruch kam. In der ersten Hälfte des 17. Jahrhunderts sind die Philosophen auf der Suche nach Letztbegründungen ; das Wissen über die Welt soll von einem sicheren methodischen Fundament aus neu erarbeitet werden. Doch um diese Grundlage tobt ein heftiger Streit. Die mehr in der Tradition Platons stehenden Rationalisten sind überzeugt, dass wir nur über unseren Intellekt zu wahrer Erkenntnis gelangen können. Für die eher aristotelischem Denken folgenden Empiristen hingegen ist der menschliche Sinnesapparat, sind schmecken, fühlen, riechen, hören und sehen, das wahre Fenster zur Welt . [i] Drückte den philosophischen Reset-Knopf: der Franzose René Descartes Descartes verordnet der Philosophie einen radikalen Neustart Der französische Philosoph René Descartes (1596-1650) bezieht in dieser Auseinandersetzung eine radikal rationalistische Position; sie wird ihn zum Begründer der neuzeitlichen Philosophie machen. Descartes unterwirft sich dazu selbst einem konsequenten methodischen Zweifel: Meine Sinne können mich täuschen, die Welt um mich herum, aber auch Gott, können reine Einbildung oder ein Traum sein. In seinen „Meditationes de prima philosophia“ reißt Descartes Schritt für Schritt das Gebäude unserer vermeintlichen Gewissheiten ein. Ganz unten findet sich eine einzige sichere Erkenntnis, nämlich die, dass ich als denkendes Wesen existiere. Selbst wenn ich mich in allem täusche, so existieren doch wenigstens meine Gedanken – auch, wenn diese falsch sein sollten. Das ist das berühmte „ cogito ergo sum “. [ii] Von dieser Ausgangsposition möchte Descartes nun schrittweise seine Erkenntnisse denkend zurückgewinnen. Dieses individualistische Ur- Axiom der Erkenntnistheorie war der wichtigste Fortschritt seit fast 2.000 Jahren, ein fulminanter Neustart der Philosophie: Wissen ist im Denken verankert, dennoch darf nichts, was ich denken kann, als gegeben hingenommen werden – alles muss auf den Prüfstand. Die Gewissheit zu sein, gründet nicht mehr in Gott, sondern im Denken jedes einzelnen Menschen. Die von Descartes begründete Tradition des methodischen Skeptizismus und radikalen Rationalismus wurde in den Niederlanden durch den jüdischen Philosophen Baruch de Spinoza (1632-1677) weitergeführt, in Deutschland insbesondere durch Gottfried Wilhelm Leibniz (1646-1716). Leibniz - ein überaus vielseitiger Denker Die Briten denken anders Auf den Britischen Inseln entwickelte sich das Denken hingegen hauptsächlich in der empirischen Tradition von Bacon und Ockham. Als Begründer des modernen Empirismus gilt ein Nachfahre von Roger Bacon: Francis Bacon (1561-1626) war überzeugt, dass der Mensch die Natur nur beherrschen könne, wenn er ihre Gesetze versteht und seine diesbezüglichen Annahmen immer und immer wieder überprüft. Am deutlichsten formulierte später John Locke (1632-1704) das empiristische Credo: „Unser Beobachten, entweder der äußern wahrnehmbaren Dinge oder der innern Vorgänge in unserer Seele ist es, was den Verstand mit dem Stoff zum Denken versieht.“ [iii] John Locke Gegen Descartes skeptische Grundhaltung sei, so Locke, grundsätzlich nichts einzuwenden, doch Quell aller Erkenntnis sind Erfahrung und unmittelbare Anschauung, nicht das reine Denken: „Nichts ist im Verstand, was nicht vorher in den Sinnen gewesen wäre“. Dieses Zitat Lockes kontert Leibniz mit der Bemerkung : „Nichts ist im Verstand, was nicht vorher in den Sinnen war, außer dem Verstand selbst.“ [iv] Die Aufklärung dynamisiert das Denken Dieser erkenntnistheoretische Methodenstreit sollte sich als überaus fruchtbar für die Entwicklung der modernen Wissenschaften erweisen. Die Idee, dass grundsätzlich alles verstehbar ist und nicht nur göttliche Offenbarung, sondern auch Verstand und sinnliche Anschauung Erkenntnisquellen sein können, läutete Mitte des 17. Jahrhunderts das Zeitalter der Aufklärung ein, eine neue Sicht auf die Welt, die bis heute den Kern wissenschaftlichen Denkens ausmacht. Der statische antike-mittelalterliche Kosmos wich einer dynamischen Vorstellung, in der der Leitstern der Vernunft der Menschheit den Weg zu Fortschritt und einer besseren Zukunft bereits im Diesseits weisen sollte. Das neue Denken führte zur Entdeckung zahlreicher Naturgesetze, die den technischen Fortschritt rasant beflügelten, aber auch zur Entstehung eines aufstrebenden Bürgertums , das für sich nun mehr Rechte forderte und die Privilegien adeliger und kirchlicher Autoritäten infrage stellte. Die Aufklärung war, wie Immanuel Kant es später formulieren würde, „der Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit.“ [v] Diese Aufbruchsstimmung machte das 18. Jahrhundert zu einem goldenen Zeitalter der Philosophie. Individualismus und die aus ihm resultierende Säkularisierung, die Saat von Luther und Descartes, begann nun zu keimen. Die beiden auffälligsten Sterne am aufgeklärten Philosophenhimmel waren David Hume und Immanuel Kant (letzterem werden wir den nächsten Artikel der Philosophie-Blogs widmen). Hume, der von 1711 bis 1776 lebte, ist der wichtigste Vertreter des britischen Empirismus . So, wie es dem Engländer Newton gelang, die Physik in wenige einfache Formeln zu packen, möchte der Schotte Hume auf Basis einer kleinen Zahl gesicherter Grundlagen eine erkenntnistheoretisch fundierte „Menschenwissenschaft“ erschaffen. Gibt es Kausalitäten? Hume widmet sich zunächst dem Informationsverarbeitungsprozess . Erkenntnis entsteht allein, indem Gedanken mit Wahrnehmungen gefüttert werden. Nur sie können das neue erkenntnistheoretische Fundament sein – keinesfalls aber die rein spekulative Metaphysik , die sich jeder empirischen Überprüfung entzieht. Ereignisse, die räumlich und zeitlich eng beieinanderliegen, nehmen wir als kausale Ursache-Wirkungsbeziehungen wahr. Dabei liegt der Zusammenhang allerdings keinesfalls in den Dingen selbst; vielmehr neigen wir dazu, die Kausalitäten aufgrund unserer Erfahrungen in die Dinge hineinzuprojizieren. [vi] Wir sehen in diesen Verbindungen Naturgesetze , ohne wirklich wissen zu können, ob der unterstellte ursächliche Zusammenhang auch tatsächlich besteht. Diese radikale Kausalitätskritik ist als Induktionsproblem in die Philosophiegeschichte eingegangen. Die von Aristoteles beschriebene Methode, vom Besonderen auf das Allgemeine zu schließen, ist für Hume überaus problematisch. Wenn 99 Gläser, die zu Boden fallen, allesamt zerspringen, bedeutet das nicht, dass auch das hundertste Glas zerbrechen muss. Nicht einmal darauf, dass morgen die Sonne aufgehen wird, können wir uns absolut verlassen. Da sich Kausalitäten s elbst jeder Observation entziehen, können wir uns der wahren Natur eines Ursache-Wirkungs-Zusammenhangs nie sicher sein. Es ist allein die Gewohnheit, die uns an ihn glauben lässt; letztlich aber bleibt er eine nicht beweisbare Vermutung. Ein absolutes wissenschaftliches Fundament, lässt sich jedenfalls nicht darauf gründen. Seine Überlegungen legte Hume in dem 600 Seiten starken „A Treatise of Human Nature“ dar, dem „Traktat über die menschliche Natur “, das der 28-Jährige nach zehnjähriger Arbeit vollendete. Doch sein Versuch einer systematischen Analyse des menschlichen Erkenntnisapparats fand keinerlei Beachtung. Erst, als er elf Jahre später unter dem Titel „An Enquiry concerning Human Understanding“ eine grundlegend überarbeitete Version veröffentlichte, stellte sich der Erfolg ein. Wichtiger früher Religionskritiker: Baruch de Spinoza Humes Religionskritik Humes radikale Ablehnung der Metaphysik machte ihn zu einem frühen Religionskritiker . Bereits Spinoza hatte sich in einer 1670 veröffentlichten Schrift mit den offenbaren Widersprüchen biblischer Texte auseinandergesetzt. Spinoza hatte die Unstimmigkeiten damit erklärt, dass die Bibel Menschenwerk sei, und nicht das Wort Gottes. Überhaupt erführe man über Gott selbst in der Bibel wenig, dafür aber umso mehr über Verhaltensregeln. Religion aber sei keine Voraussetzung für sittliches Verhalten. Hume ging in seiner Kritik noch wesentlich weiter. Er stand im Verdacht, Atheist zu sein, was ihn letztlich die Berufung zum Professor für Ethik an der Universität Edinburgh kosten sollte. Seine Abrechnung mit der Theologie ist radikal: Weder Gottes Existenz noch seine Güte oder Wunder könne in irgendeiner Form empirisch bewiesen werden. Auch mache die Religion aus den Gläubigen keine guten Menschen. Ganz im Gegenteil: Da sie auf ein besseres Leben im Jenseits hoffen, vergessen sie, bereits im Diesseits hierzu etwas beizutragen. Am Ende ist alle Religion eine Selbsttäuschung, die auf der Illusion aufbaut, der Mensch könne Gott gnädig stimmen und so Einfluss auf sein Schicksal nehmen. Einer der wirkmächtigsten Philosophen des 18. Jahrhunderts: der Schotte David Hume Ein Beitrag zur Ethik Der bekannteste Beitrag des schottischen Philosophen zur Ethik ist heute als „ Humes Gesetz “ bekannt: In ethischen Debatten darf grundsätzlich nicht vom „Sein“ auf das „Sollen“ geschlossen werden, da es sich dabei um zwei verschiedene Kategorien handelt. Anders gesagt: Aus Fakten ergeben sich keine Normen. Wenn es Gott gibt, bedeutet das nicht, dass man sich auch an seine Gebote halten muss. Genauso wenig lässt sich aus der Tatsache, dass Diebstahl bestraft wird, zweifelsfrei ableiten, dass Diebstahl schlecht ist. Den Blog entdecken Wer mehr wissen will: Descartes, René (1641) : „Meditationes de prima philosophia“. Michael Soly, Locke, John (2006) „Ein Versuch über den menschlichen Verstand“, Meiner. Leibniz, Gottfried Wilhelm (1996): „Neue Abhandlungen über den menschlichen Verstand“, Meiner. Hume, David (1739) „A Treatise of Human Nature“, Project Gutenberg-DE. Hume, David (1748) „An Enquiry concerning Human Understanding”, Project Gutenberg-DE. Rationalismus vs Empirismus (Slideshare, Englisch) Anmerkungen: [i] Es wäre eine unzulässige Verkürzung, Platon als Rationalisten und Aristoteles als Empiristen zu bezeichnen. Aristotles‘ Logik ist eine rein auf dem Verstand ruhende Betrachtung. Rationalismus und Empirismus eint zudem die skeptische, vom Individuum ausgehende Suche nach Letztbegründungen, die in der Antike keine Entsprechung hat. [ii] „Ich denke, also bin ich“. Den Ausdruck als solchen verwendet Descartes erst in einer späteren Schrift, dem 1637 veröffentlichtem „Discours“. Der Gedanke findet sich bereits bei Augustinus. Im „Gottesstaat“ schreibt er: „Selbst wenn ich mich täusche, bin ich. Denn wer nicht ist, kann sich auch nicht täuschen.“ [iii] Locke (2006) 2. Buch, 1. Kapitel §2. [iv] Leibniz (1996). [v] Kant (2009). [vi] Eine Annahme, die durch die moderne Hirnforschung bestätigt wurde.
- Dimensionen der menschlichen Seele
Fortsetzung von "Bewusstsein: Auf der Suche nach dem Geist" Wo befindet sich unsere Seele? Es gibt bis heute keine allgemein anerkannte Theorie, die die Dimensionen der menschlichen Seele umfassend beschreibt. Den Kern eines aktuellen neurobiologisch fundierten Modells hat der Hirnforscher Gerhard Roth skizziert. [i] Demnach wird unsere Persönlichkeit zu wesentlichen Teilen durch die mittleren Schichten unseres Gehirns bestimmt, einem anatomisch nicht exakt definierten Bereich, der als limbisches System bezeichnet wird. Diese Schichten sind, evolutionsgeschichtlich gesehen, also weder besonders neu, wie der Neokortex , noch besonders alt, wie unser Reptiliengehirn . Das limbische System Das Modell der menschlichen Seele von Gerhard Roth Die Funktionen der untersten Ebene dieses Systems sind hauptsächlich genetisch oder durch vorgeburtliche Einflüsse determiniert. [ii] Hier ist unser „ Temperament “ verankert, das vegetativ-affektive Verhalten, das in grundlegenden Persönlichkeitsmerkmalen wie Selbstvertrauen, Kreativität, Offenheit, Zuverlässigkeit oder Risikoneigung zum Ausdruck kommt. Die Arbeitsweise dieses Gehirnteils ist nach der Geburt praktisch nicht mehr zu beeinflussen. Im mittleren Bereich des limbischen Systems findet sich das „Selbst“, die Ergebnisse unserer kindlichen Prägung . Es sind unbewusste Anteile von uns, die aufgrund von Erziehung oder Erfahrung unsere Emotionen konditionieren. Untere und mittlere Ebene des limbischen Systems machen zusammen den Kern unserer Persönlichkeit aus. In der oberen limbischen Ebene ist das „Individuell-Soziale Ich“ angesiedelt. Hier sitzt jener Anteil, den wir durch sozial-emotionale Erfahrungen mit anderen insbesondere in der Jugend erlernt haben: Anerkennung, Freundschaft und Moral und somit die wesentlichen Handlungsmuster und Regeln des Zusammenlebens. Dieser Teil von uns ist durch neue soziale Erfahrungen veränderbar und bestimmt zusammen mit den beiden unteren Ebenen unser Sozialverhalten . Die vier Ebenen der Persönlichkeit nach Gerhard Roth Das „Kognitiv-Kommunikative Ich“ als vierte und letzte Dimension unserer Persönlichkeit, befindet sich in der Großhirnrinde . Dieser Beitrag entsteht zuletzt und bleibt ein ganzes Leben lang entwicklungsfähig und formbar. Aus ihm entspringt unsere Ratio , unser Verstand: zweckorientiertes, planvolles Denken und Handeln, systematische Problemlösung, Welterklärung und sprachliche Kommunikation , kurz, unser freier Wille . Haben wir einen freien Willen? Genau dieser freie Wille wurde 1979 infrage gestellt. Der amerikanische Physiologe Benjamin Libet bat in seinem bekanntesten Experiment seine Probanden den Augenblick zu signalisieren, in dem sie bewusst die Entscheidung fällten, die Hand zu bewegen. Ben Libet stellte die Frage, ob wir einen freien Willen haben... Libet stellte fest, dass bereits rund eine halbe Sekunde vor dem bewussten Entschluss ein bestimmtes Aktionspotentia l messbar war, das er als Bereitschaftspotential bezeichnete. Offenbar wurde das Handeln durch das limbische System angebahnt, bevor es ins Bewusstsein drang. Daraus schlossen zahlreiche Wissenschaftler, dass das „Ich“ lediglich die Illusion hatte der Initiator zu sein und die Entscheidung zu diesem Zeitpunkt bereits unbewusst gefallen war. Libet selbst misstraute dieser Interpretation. Er stellte die These auf, dass der Wille nach der unbewussten Initiierung der Aktion während eines Zeitfensters von etwa ein bis zwei Zehntelsekunden ein bewusstes Veto einlegen kann, mit dem sich das Bereitschaftspotential überstimmen lässt. Eine Reihe von Experimenten, die in den folgenden Jahren hierzu durchgeführt wurden, konnten Libets Veto-These im Wesentlichen bestätigen. [iii] Heute geht die Mehrheit der Neurowissenschaftler davon aus, dass wir uns grundsätzlich sehr wohl bewusst und frei gegen unsere natürlichen Eingebungen entscheiden können. Die Determinanten menschlichen Handelns bleiben dennoch überaus komplex. Wir reagieren auf Wahrnehmungen mit Gefühlen und überprüfen diese dahingehend, ob sie mit unseren Erfahrungen, Überzeugungen, moralischen Vorstellungen, Wünschen und Plänen vereinbar sind. Genetische und epigenetische Prädispositionen beeinflussen uns bei diesem Prozess genauso wie Kindheitserfahrungen, Erziehung, soziale Prägung und Kultur. Aber auch ein Text, den wir unmittelbar vor einer Entscheidung gelesen haben oder die Farbe des Zimmers, in dem wir uns gerade befinden, kann unser Verhalten mitbestimmen. Unser freier Wille ist nur ein Teil von uns und es gibt Vieles, was ihn vom geraden Weg abbringen kann. Auch wenn wir davon überzeugt sind, eine Entscheidung „selbst“ und „bewusst“ getroffen zu haben, liegen die tatsächlichen Motive oftmals im Verborgenen. Die Erklärungen, die wir uns im Nachhinein gerne zurechtlegen, müssen nicht unsere wahren Gründe sein. Was sind unsere Bedürfnisse? Abraham Maslow... Die Psychologie geht davon aus, dass alle Menschen ungeachtet ihrer individuellen Unterschiede gemeinsame Grundbedürfnisse haben. Das hierarchische Modell des amerikanischen Psychologen Abraham Maslow besagt, dass ein jeweils grundlegenderes Bedürfnis zuerst erfüllt sein muss, bevor wir uns dem nächsthöherstehenden Bedürfnis zuwenden. Zuunterst in dieser Bedürfnispyramide stehen elementare physiologische Notwendigkeiten wie Nahrung und Schlaf aber auch Fortpflanzung. Darüber steht das Bedürfnis nach Sicherheit, über dem wiederum der Wunsch nach sozialer Integration in menschliche Gemeinschaften steht. Ist dieses Bedürfnis gesichert, strebt der Mensch nach Anerkennung und schließlich nach Selbstverwirklichung. ...und seine berühme Pyramide Ein anderes bekanntes Modell, das der deutsche Psychotherapeut Klaus Grawe entwickelt hat, geht davon aus, dass Menschen allgemein vier Grundbedürfnisse haben: Das Bindungsbedürfnis ist der Wunsch nach einigen wenigen engen, festen Bezugspersonen. Dem steht das Bedürfnis nach Kontrolle über das eigene Leben gegenüber. Hier ist bereits ein möglicher Konflikt mit dem elementaren Bindungswunsch angelegt. Das dritte Bedürfnis ist es, den eigenen Selbstwert zu erhöhen und zu schützen, wir wollen gewissermaßen mit uns selbst im Reinen sein. Das vierte Motiv ist es angenehme, lustvolle Situationen zu suchen und entsprechend unangenehme Situationen zu vermeiden. Grawes „ Konsistenztheorie “ macht deutlich, dass der Mensch sich in einem Spannungsfeld befindet, in dem er einerseits als soziales Wesen in die Gemeinschaft eingebunden sein will, sich andererseits als Individuum aber auch gegen diese Gemeinschaft abgrenzen möchte. [iv] Den Blog entdecken Wer mehr wissen will: Roth, Gerhard, Strüber, Nicole (2018) „Wie das Gehirn die Seele macht“, Klett-Cotta. Müller-Jung, Joachim (2017): “Die Festplatte für die Ewigkeit“ in: Frankfurter Allgemeine Zeitung Online vom 03.03.2017. Evolution of Consciousness - Vortrag von Nicolas Humphrey Bildnachweise: Limbisches System Abraham Maslow Bedürfnispyramide Anmerkungen: [i] Vgl. Roth / Strüber (2018) S. 441 ff. [ii] Dazu gehört auch, dass sich epigenetische Prozesse der Mutter, die etwa durch Stresssituationen ausgelöst werden können, auf die Gehirnstruktur des noch ungeborenen Kindes auswirken. Die so erworbenen Persönlichkeitsmerkmale sind zwar angeboren, aber nicht ererbt. [iii] Vgl. Müller-Jung (2016). [iv] Das lateinische Wort Individuum bedeutet so viel wie „das, was nicht weiter geteilt werden kann“.












