Suchergebnisse
100 Ergebnisse gefunden mit einer leeren Suche
- Was ist Biologie?
Insekten-Mathematik Die Larven der Zikadenart Magicicada septendecim schlüpfen nur alle 17 Jahre. Kämen sie alle 12 Jahre auf die Welt, würden sie auf sämtliche Fressfeinde und Parasiten treffen, die ein-, zwei-, drei-, vier-, sechs oder zwölfjährige Reproduktionszyklen haben. Beim primzahligen 17-Jahres-Zyklus droht den Insekten hingegen nur von jenen ihnen nicht wohlgesonnenen Kreaturen Gefahr, die jährlich schlüpfen oder sich in demselben, ungewöhnlichen Rhythmus reproduzieren, wie die Zikaden selbst. Haben sich die Insekten mit dem Fundamentalsatz der Arithmetik auseinandergesetzt, um die Anzahl möglicher fataler Begegnungen zu minimieren? Wie kommen schlichte Gliederfüßer auf solch eine ausgeklügelte Strategie? Die Biologen haben darauf eine einfache Antwort: „Nichts in der Biologie ergibt einen Sinn, außer im Licht der Evolution“. Die Evolutionstheorie bildet eine mächtige Klammer, die alle biologischen Teildisziplinen, also Zelllehre, Physiologie, Genetik, Botanik, Zoologie, Ökologie und Verhalten zusammenhält. Sie beschreibt ein langfristig angelegtes Spiel mit dem Zufall; ein Spiel, das weder einem Plan folgt noch ein Ziel kennt und dessen einzige Regel lautet, dass alles erlaubt ist, was den eigenen Reproduktionserfolg erhöht. Jeder der unzähligen Spieler verfolgt eine andere Strategie. Es gibt nur wenige Gewinner – die vielen Verlierer zahlen mit ihrem Leben. Leben – was soll das sein? Aber was ist das eigentlich: Leben? Die Biologie hat das gleiche Problem wie die Mathematik : Es ist außerordentlich schwierig, den Untersuchungsgegenstand zu definieren. Wir wissen bis heute nicht genau, was Leben eigentlich ausmacht. Mit dieser schwierigen Definition werden wir uns im nächsten Biologie-Blog beschäftigen. Soviel vorweg: Wenn wir in verschiedene Biologie-Lehrbücher schauen, findet sich dort keine einheitliche Begriffsbestimmung. Jede Quelle listet eine andere Reihe von Merkmalen auf, die kumulativ erfüllt sein sollte, damit etwas als „Leben“ bezeichnet werden kann. Allerdings haben alle im weitesten Sinne immer etwas mit Selbsterhalt oder Reproduktion zu tun. Salopp formuliert: Es geht stets um Fressen und Sex. Übrigens: Die gängige Behauptung, dass der Tod zum Leben gehört, ist, wie wir später ebenfalls noch sehen werden, so nicht uneingeschränkt richtig… Eine folgenreiche Reise Die Ursprünge der Evolutionstheorie sind eng mit einem Vermessungsschiff der Royal Navy verknüpft. Am 27. Dezember 1831 brach die HMS Beagle zu einer langen Reise auf. In den folgenden fünf Jahren sollte die kleine Brigg, mit zahlreichen Zwischenstationen, einmal die Erde umrunden. Mit an Bord war ein 22-jähriger Naturwissenschaftler und ehemaliger Theologiestudent. Sein Name: Charles Darwin . Später sollte er in seiner Autobiographie schreiben: „Die Reise mit der Beagle war das bei weitem bedeutendste Ereignis in meinem Leben und hat meinen gesamten Werdegang bestimmt.“ Die zahlreichen Beobachtungen, die Darwin während seiner Reise machte, prägten, wie wir heute wissen, weitaus mehr als lediglich seinen persönlichen Werdegang: Nach seiner Rückkehr destillierte der neugierige Forscher in jahrzehntelanger Arbeit aus seinen Notizen eine umfassende Theorie des Lebendigen, die alle überkommenen Betrachtungen über den Haufen warf und die (sofern wir nicht dem Kreationismus anhängen) unsere heutige Sicht auf die Biologie in jeder Beziehung entscheidend bestimmt. Darwins bahnbrechendes Werk „ Über die Entstehung der Arten “, 1859 erschienen, beschreibt in beeindruckender Weise jene Kräfte, die aus einer Urzelle Abermillionen von Spezies entstehen ließen. Eine Theorie, die die ganze Biologie erklärt Die Evolutionstheorie erklärt jenes Räderwerk, das aus sich selbstreplizierenden organischen Verbindungen Abermillionen verschiedene Pflanzen- und Tierarten werden ließ. Die Einflussfaktoren, die bei dieser Entwicklung mitspielen, sind so zahlreich und die sich aus ihnen ergebenden Wechselwirkungen so komplex, dass sich ihre Ergebnisse, anders als im Falle der wohldefinierten Wissensbereiche Physik und Chemie , nicht mehr prognostizieren lassen. Wir können vorhersagen, wie sich eine Billardkugel bewegen wird, wenn eine bestimmte Kraft auf sie wirkt, oder welche Verbindung unter bestimmten Bedingungen aus Natrium und Chor entsteht. Wie sich die zahllosen Spielformen des Lebens künftig entwickeln werden, entzieht sich hingegen vollständig unserer Kenntnis. Die Vielfalt der biologischer Phänomene kann daher bestenfalls rückwirkend erklärt werden. Sie ist eine Naturwissenschaft ohne Naturgesetze. Während aktuell niemand mehr das von der Physik vermittelte Weltbild grundsätzlich infrage stellt, wird die Evolutionstheorie bis heute immer noch vielfach abgelehnt oder angefeindet. Einer Umfrage aus dem Jahre 2005 zufolge, sind 42% aller US-Amerikaner der Auffassung, dass sämtliche Arten ihre Existenz einem singulären göttlichen Schöpfungsakt verdanken und nicht einer sich über Jahrmilliarden hinwegziehenden biologischen Evolution. Egoistische Gene Den biochemischen Hintergrund der Artenvielfalt konnte Darwin noch nicht erklären. Den Grundstein hierfür legte wenige Jahre nach der Veröffentlichung von „ Über die Entstehung der Arten “ die empirische Forschung eines österreichischen Augustinermönchs namens Gregor Mendel, der mit seiner Arbeit die Vererbungslehre begründete. Es sollten noch einmal an die 90 Jahre vergehen, bis James Watson und Francis Krick die Molekularstruktur aufklären konnten, mit der Informationen auf die nächste Generation übertragen werden. Damit war die zentrale Verbindung von Darwins Makro-Theorie zu biochemischen Mikro-Prozessen hergestellt. Manche Evolutionsbiologen wie Richard Dawkins sind der Meinung, dass die von Watson und Krick dingfest gemachten Gene, als Träger der Erbinformation, nicht den Arten dienen, sondern dass sich die selbstsüchtigen Gene umgekehrt vielmehr der Arten bedienen, die sie gleichsam als roboterhaft fremdgesteuerte Erfüllungsgehilfen gegeneinander antreten lassen. Diese und zahlreiche weitere biologische Thesen werden wir in den kommenden Biologie Blogs näher beleuchten. Weiterführende Literatur: Darwin, Charles (2008): „Die Entstehung der Arten“, Nikol. Darwin, Charles (2016): „Die Fahrt der Beagle“, Theiss. Dawkins, Richard (1996): „Das egoistische Gen“, Rowohlt.
- Was wir alles nicht wissen
Was wir alles nicht wissen Dieser Blog (und mein Buch ) sind der Versuch, die wichtigsten Theorien vorzustellen, die für die ausgewählten Wissensgebiete den Anspruch haben, die Welt – oder zumindest wesentliche ihrer Aspekte – zu erklären. Bei der Auswahl ging es mir nicht darum, ob ich glaube (oder sonst irgendjemand glaubt), dass diese Theorien richtig sind, sondern darum, welche praktische Bedeutung diese Theorien im Laufe der Geschichte entfaltet haben und welche „Erklärungsmacht“ ihnen heute zugesprochen wird. Bei den Recherchen bin ich aber auch immer wieder darüber gestolpert, was wir heute alles NICHT wissen – und das ist tatsächlich eine ganze Menge. Es gibt zahlreiche Fälle, bei denen unser Wissen an Grenzen stößt. Ich versuche hier einmal einen Überblick zu geben. Für eine Systematik würde ich vier verschiedene Gründe von Nichtwissen vorschlagen (ich freue mich über Kritik oder Kommentare): Methodischer Zweifel Limitationen unserer Sinne Potentiell lösbare Fragen Grundsätzliche Erkenntnisgrenzen Methodischer Zweifel „Was kann ich wissen?“ ist die erste der vier berühmten „ kantschen Fragen “. Es geht also um Erkenntnistheorie , das philosophische Fachgebiet der Epistemologie. Ein zentraler Aspekt dabei ist, dass wir uns stets darüber im Klaren sein müssen, dass alle Erkenntnis immer nur vorläufig ist: Wir meinen etwas zu wissen, weil es sich augenscheinlich mit unseren Beobachtungen deckt. Das ptolemäische Weltbild etwa war in jeder Beziehung plausibel, bis Kopernikus , Kepler und Galile i zu der Erkenntnis kamen, dass es auch anders sein könnte und sich die Beobachtungen auch mit einem Modell erklären lassen, das die Sonne in den Mittelpunkt des Universums rückt. Heute wissen wir, dass die Sonne zwar Mittelpunkt unseres Sonnensystems ist, keinesfalls aber das Zentrum des Universums. Es gibt einige Beobachtungen, die nahelegen, dass auch unser heutiges Verständnis der Kosmologie zumindest unvollkommen, vielleicht aber auch schlichtweg falsch ist und wir keine Ahnung haben, wie wir diese Beobachtungen mit unserem heutigen Modellen versöhnen können. Da gibt es etwa den merkwürdigen Umstand, dass es eigentlich sehr viel mehr Materie im Universum geben müsste, als wir sehen können. Die für uns sichtbaren Sterne umkreisen das Zentrum ihrer Galaxien schneller, als wir aufgrund der uns bekannten Gravitationsträger erwarten würden. Etwa 85% aller Materie, die es demnach im Universum geben müsste, interagiert offenbar nicht mit elektromagnetischen Wellen, das heißt, sie ist unsichtbar und wird daher als „Dunkle Materie“ bezeichnet. Wir haben heute weder eine Vorstellung davon, ob es diese riesigen Stoffmengen überhaupt gibt, noch wie sie sich aufspüren lassen könnten. Dies nur als Beispiel, dass wir uns nie sicher sein können, dass unsere Annahmen über die Welt auch tatsächlich richtig sind. Der Urheber dieses methodischen Zweifels war übrigens René Descartes , der mit seinem Ansatz einen Neustart der abendländischen Philosophie initiierte. Alles, was wir wahrnehmen, kann grundsätzlich eine Täuschung sein. Die einzige Gewissheit, die wir haben, ist die, dass wir als denkendes Wesen existieren. Das ist sein berühmtes „cogito ergo sum“. Sonstige Gewissheiten gibt es erst einmal nicht und müssen schrittweise von diesem einzigen Ur- Axiom aus wieder zurückgewonnen werden. Es steht außer Frage, dass dieses von Descartes aufgehängte Damoklesschwert, das permanente, systematische Hinterfragen unseres vermeintlichen Wissens, seitdem eine der wichtigsten Triebfedern des wissenschaftlichen Fortschritts ist. Limitationen unserer Sinne Eine weitere Erkenntnisgrenze wird uns unmittelbar durch unsere Sinne auferlegt. Die Erklärung hierfür liefert die Evolutionstheorie . Unsere Möglichkeiten, die Welt zu verstehen sind limitiert, denn unsere Sinnesorgane wurden nicht geschaffen, um die Welt zu verstehen, sondern um in ihr überleben zu können. Die knappen Rechenkapazitäten unseres Gehirns haben andere Prioritäten, als elektromagnetische Wellen zu erfassen, die außerhalb jenes Spektrums liegen, das wir als Licht oder Wärme wahrnehmen. Als Homo sapiens werden wir daher niemals wissen, wie ultraviolette, radioaktive oder langwellige Strahlen aussehen oder wie sie sich anfühlen. Genauso wenig haben es die Evolutionsmechanismen als relevant erachtet, die von Einstein entdeckte Raumkrümmung wahrnehmen zu müssen. Eine dreidimensionale Wahrnehmung der Welt war für unsere Vorfahren gut genug, um sich von Ast zu Ast zu schwingen. Immerhin ist es uns heute möglich mit entsprechenden Apparaten physikalische Phänomene außerhalb unseres Wahrnehmungshorizonts zu messen und mathematisch zu beschreiben. Das aber ändert nichts daran, dass uns der sinnliche Zugang verwehrt bleiben wird. Potentiell lösbare Fragen Potentiell lösbare Fragen sind jene, bei denen die Wissenschaft heute gewissermaßen noch „auf dem Schlauch steht“. Dazu gehört etwa, dass die moderne Physik nicht in der Lage ist alle Widersprüche zwischen der allgemeinen Relativitätstheorie und dem „ Standardmodell der Teilchenphysik “ aufzulösen. Eine Theorie, die beides vereinen könnte, wird gemeinhin als „ Weltformel “ bezeichnet. Das Teilchen, das die Schwerkraft vermittelt – das mutmaßliche Graviton – konnte bis heute durch keinen noch so elaborierten Teilchenbeschleuniger nachgewiesen werden. Aber es erscheint nicht grundsätzlich undenkbar, dass wir eines Tages dieses Rätsel werden lösen können. Andere Beispiele liefert die Biologie : Es gibt – zumindest meines Wissens – bis heute weder eine allgemein akzeptierte Theorie des Todes noch eine ebensolche Theorie der Entstehung des Lebens: Wir wissen weder, warum wir sterben müssen, noch wie sich der Sprung von der Kohlenwasserstoffchemie zum Leben vollzog. Zwar gibt es dazu zahlreiche Hypothesen, doch keine, die empirisch belegt sind und im Wissenschaftsbetrieb allgemein anerkannt werden. Aber auch hier erscheint es nicht grundsätzlich ausgeschlossen, dass eines Tages ein besseres Verständnis plausible Erklärungen liefert. Gleiches gilt auch für die Mathematik : Hier gibt es verschiedene Problemsammlungen, wie die des Clay Institute, das zu Beginn des neuen Jahrtausends die aus Sicht des Institutes sieben wichtigsten ungelösten mathematischen Probleme zusammenstellte und für deren Lösung jeweils ein Preisgeld von einer Millionen Doller auslobte. Bis heute gelang es immerhin einem Mathematiker, Grigori Perelman , eines dieser Probleme, die Poincaré-Vermutung zu beweisen. Grundsätzliche Erkenntnisgrenzen Bei dieser vierten Kategorie helfen keine technischen Apparate, mit denen wir die Limitationen unserer Sinnesorgane überwinden können. Vielmehr stoßen wir hier an ganz grundsätzliche Grenzen. Ich würde dabei zwei Fälle unterscheiden: Fehlender Determinismus Der Franzose Pierre-Simon Laplace ersann 1814 basierend auf dem Weltbild der Newtonschen Mechanik einen fiktiven, allwissenden Weltgeist, der sämtliche Kausalitäten des Universums in Form von Funktionsgleichungen erfassen und simultan verarbeiten kann. Wären alle diese kausalen Beziehungen bekannt, ließe sich theoretisch damit die Bewegung aller Materie und damit die Zukunft der Welt bis an ihr Ende vorausberechnen. Die Quantenphysik kam aber in den 1920er Jahren zu der Erkenntnis, dass dem weder theoretisch noch praktisch so ist. Der Laplacesche Dämon – wir würden ihn heute als „Supercomputer“ bezeichnen – regiert nicht die Welt, denn diese ist auf ihrer untersten Ebene von Natur aus unbestimmt und diffus. In der klassischen Mechanik ist es möglich, den Ort und Impuls eines bewegten Objekts gleichzeitig zu bestimmen: Fährt ein Auto in eine Radarfalle, lässt sich genau sagen, wo das geschah und welche Geschwindigkeit und Masse das Fahrzeug hatte. In der Quantenwelt aber gilt dies nicht mehr. Der Wellencharakter der kleinsten Teilchen macht eine exakte Orts- und Impulsbestimmung der Teilchen unmöglich. Werner Heisenberg fasste diese Erkenntnis 1927 in einer einfachen Formel zusammen, der Unschärferelation: Dabei steht delta x für die Ungenauigkeit der Ortsbestimmung, delta p für die Ungenauigkeit der Impulsmessung. Will man den Ort genauer bestimmen, indem man die Unschärfe delta x verringert, ergibt sich durch die multiplikative Verknüpfung unweigerlich eine Einbuße der Genauigkeit der Impulsmessung delta p. Je genauer wir also bei der einen Größe hinschauen, umso weniger können wir über die andere wissen. Prinzipielle Unmöglichkeit Was war vor dem Urknall? Was geschieht in einem schwarzen Loch? In was hinein expandiert das Universum? All diese Fragen werden wir nie beantworten können, weil unsere Erkenntnismöglichkeit hier an ganz prinzipielle Ränder stößt. Zeit, Raum und Materie, die Denkkategorien, in denen wir uns bewegen können, sind erst im Moment des Urknalls entstanden. Ob es vor dem Big Bang eine andere Physik gab und wie diese konstruiert war, können wir nicht wissen; wir sind in unserer heutigen Welt und ihren heutigen Regeln gefangen. Die extreme Gravitation schwarzer Löcher verschluckt sogar das Licht und beraubt uns damit jeder Möglichkeit, jemals was auch immer aus dem Innern des Lochs zu berichten. Um zu verstehen in was hinein das Universum expandiert, müssten wir in der Lage sein unsere Welt von außen zu betrachten – doch wir sind zwangsläufig selbst Teil dieses Systems. Ein System aber kann sich nicht vollständig selbst erklären. Das war die entscheidende Erkenntnis des Mathematikers Kurt Gödel , der 1931 den Nachweis erbrachte, dass es mathematische Aussagen gibt, die zwar wahr sind, die aber dennoch nicht bewiesen werden können. Gödel zeigte, dass die Widerspruchsfreiheit eines axiomatisierten formalen Systems nicht innerhalb des Systems selbst beweisbar ist. Sowenig, wie ein Gehirn sich selbst vollständig erforschen und eine Sprache sich selbst vollständig erklären kann, kann auch die Mathematik allein nicht die Widerspruchsfreiheit der Mathematik beweisen. Dies hat nichts mit dem Unvermögen der Akteure zu tun, es ist vielmehr grundsätzlich nicht möglich: Um ein System vollständig zu beschreiben, muss man es von außen betrachten können. Die Mathematik aber kann sich nicht nur mit Hilfe der Mathematik erklären und auch führende Neurobiologen sind der festen Überzeugung, dass aus diesem Grund unser Gehirn niemals in der Lage sein wird, sich selbst in seiner Gesamtheit vollständig zu analysieren. Dort übrigens, wo wir an prinzipielle Grenzen, an die Ränder unserer Erkenntnis stoßen, bleibt Raum für Glauben , ein dimensionsloses Terrain, das die Wissenschaft nie wird besetzen können. Dieser Glaube kann religiöser Natur sein oder auch sehr profan: So beruht das ganze Gebäude der Mathematik mit Vermutung, Beweis und Satz letztlich auf Axiomen , simplen Aussagen, die so einleuchtend erscheinen, dass sie ganz offenbar keines Beweises bedürfen. Damit basiert aber auch die vermeintlich vollkommenste aller Wissenschaften letztlich auf einem unbewiesen Glaubens-Fundament. Wer Millionär werden möchte: The Millennium Prize Problems - Clay Mathematics Institute
- Ein Planet wird geboren
Fortsetzung von "Der Anfang von Allem" Die Entstehung der Sonne Eine dieser Galaxien nennen wir heute die Milchstraße , eine in jeder Beziehung unauffällige, spiralförmige Ansammlung von lediglich 200 Milliarden Sternen und einem überschaubaren Durchmesser von 100.000 Lichtjahren. In einem ihrer Spiralarme, 30.000 Lichtjahre vom galaktischen Zentrum entfernt, entsteht vor etwa 4,6 Milliarden Jahren ein neuer Stern . In der Buchhaltung des Universums ist dieser Stern ein Nichts. Eine Sonne der dritten Generation, geboren aus Sternenstaub und mit nur 700.000 Kilometern Durchmesser viel kleiner als ihre Ahnen. Das nukleare Feuer, das sich in ihr entzündet, beginnt Wasserstoff zu Helium zu verschmelzen. Aufgrund seiner geringen Gewichtskraft wird der kosmische Reaktor bei einer Oberflächentemperatur von lediglich 5.500 Grad Celsius zehn Milliarden Jahre verlässlich und konstant brennen. Der Ursprung des Planetensystems Um den jungen Himmelskörper wirbelt eine flache Rotationsscheibe aus den Trümmern vergangener Supernovae -Explosionen. Die Zentripetalkraft bewahrt sie vor dem Sturz in das Gravitationszentrum. Kleine Verdichtungen entstehen; deren Schwerkraft zieht weitere Staubteilchen an und formt sie zu massiven, kugeligen Zusammenballungen. Durch ihren gemeinsamen Ursprung haben sie alle dieselbe Richtung und Achsrotation. Während sich am Rand riesige Gaskugeln zusammenballen, verdichten sich in Sonnennähe die schweren Elemente zu vier kleinen Gesteinsbrocken. Ein Planetensystem ist entstanden. Wie Galaxien und Sonnen ist auch dieses System eine winzige, durch die Gravitation geschaffene Insel der Ordnung in einem immer grösser werdenden Meer aus Entropie . Eine glückliche Katastrophe schafft einen neuen Planeten Der Größte unter den kleinen Gesteinsplaneten zieht seine Kreise 150 Millionen Kilometer von der Sonne entfernt. Fünfzig oder sechzig Millionen Jahre nach Beginn des Sonnenfeuers wird der junge Himmelskörper um ein Haar wieder ausgelöscht: Theia , ein gigantischer Gesteinsbrocken, kollidiert mit der Ur-Erde . Theia wird dabei zertrümmert, die Erde aber überlebt, wenn auch mit schweren Blessuren, den wuchtigen Impuls. Innerhalb weniger tausend Jahre schafft die Gravitation aus den Trümmerstücken der Kollision den Mond . (Diese Kollisionsthese gilt heute als die wahrscheinlichste Erklärung für die Mondentstehung.) Nur wenige zehntausend Kilometer trennen die beiden Himmelskörper. Aus dem kosmischen Unfall ist eine Partnerschaft entstanden, die sich für die neue Erde als außerordentlicher Glücksfall erweisen wird: Tanzte sie vor der Kollision noch wie ein instabiler Kreisel um ihre Rotationsachse, beginnt sich die Drehbewegung der Erde nun unter dem Einfluss der Mond-Gravitation zu stabilisieren. Theias Peitschenhieb hat die Erdrotation beschleunigt: Ein Erdentag geht bereits nach sechs Stunden zu Ende. Der junge Planet ist ein ausgesprochen unwirtlicher Ort. Der Sonnenwind, ein hochenergetischer Strom aus Protonen, Neutronen und Alphateilchen, prasselt ungehindert auf die Erde nieder und verhindert die Bildung einer Gashülle. Unter dem permanenten Bombardement kosmischer Gesteinsbrocken hat sich die Oberfläche des Planeten verflüssigt. Auch in seinem Inneren rumort es gewaltig: Druck und radioaktiver Zerfall haben eine zähflüssige Masse erzeugt, in der sich nun die Elemente nach Gewicht zu sortieren beginnen. Schwere Metalle wie Eisen und Nickel sinken in Richtung des Erdmittelpunkts und formen den Erdkern, während die leichteren Elemente den Erdmantel bilden. Ein gewaltiger Druck sorgt dafür, dass der innere Teil des Erdkerns trotz extremer Temperaturen fest bleibt. Im äußeren, flüssigen Teil des Kerns stellen mächtige Konvektionsströme den thermischen Ausgleich zwischen innerem Kern und Erdmantel sicher. Heiße Eisenmassen steigen nach oben, kältere sinken nach unten. Wie ein Dynamo erzeugt die Bewegung der kreisenden geladenen Atome einen elektrischen Strom und erschafft ein dichtes, erdumspannendes Magnetfeld. Es wird von nun an wie ein Schutzschild die Oberfläche des Planeten vor der zerstörerischen Kraft des Sonnenwinds bewahren. Atmosphäre 500 Millionen Jahre nach Geburt der Erde beginnt sich auf ihrer Oberfläche eine dünne Kruste auszubilden. An keiner Stelle wird sie mehr als 40 Kilometer tief werden. Die Oxide leichter Metalle, Silizium, Aluminium und Magnesium, schaffen schroffe Basalt- und Granitformationen. Zahlreiche Vulkane wirken als Druckausgleichsventile für den darunter schwimmenden heißen Erdmantel . Ihre Krater speien große Mengen an Stickstoff, Methan, Ammoniak, Schwefeldioxid, Kohlendioxid und Wasserdampf aus, die zuvor im Gestein eingeschlossen waren. Durch den Meteoritenbeschuss ist die Masse der Erde soweit angewachsen, dass ihre Gravitation das ausgeschwitzte Gasgemisch nun auch festzuhalten vermag: Eine erste dauerhafte Atmosphäre umhüllt den Planeten. Wasserdampf steigt empor, erkaltet und es beginnt zum ersten Mal zu regnen. Beim Aufprall auf die noch immer heiße Erdkruste verdampft das Wasser sofort. Dabei nimmt es einen kleinen Teil der Wärmeenergie mit in die Atmosphäre, wo es erneut kondensiert und wieder herabregnet. Die Sintflut dauert viele zehntausend Jahre. Doch eines Tages hat sich die Oberfläche soweit abgekühlt, dass das Wasser am Boden bleibt. Nach und nach entstehen die Ur-Ozeane. Zahlreiche Eismeteoriten bringen weiteres Wasser. 1,4 Milliarden Kubikkilometer werden sich so mit der Zeit davon auf der Erdoberfläche ansammeln. Mit der Atmosphäre entsteht auch das Wetter . Thermische Strömungen treiben Wolken vor sich her, die sich über Land niederschlagen, Seen und Flüsse bilden und wieder zurück in die Meere strömen. Der Wasserkreislauf hat sich in Gang gesetzt. Winde und Meeresströmungen bewirken einen permanenten Temperaturausgleich. Tagsüber speichern Atmosphäre und Ozeane Wärme, die sie nachts wieder abgeben, so dass auch auf der Nachtseite der Erde die Temperaturen moderat bleiben. Unterdessen beginnen sich die durch die Gravitation des Mondes erzeugten Gezeiten wie ein Bremssystem auf die Erdrotation auszuwirken: Die Drehgeschwindigkeit des Planeten verringert sich, die Erdentage werden langsam länger. Um den Impuls des Gesamtsystems zu erhalten, muss sich der Mond mit schwindender Erd-Rotationsenergie zunehmend von seinem Planeten entfernen. (Die Impulserhaltung bewirkt, dass sich heute der Mond jedes Jahr knapp 4 cm von der Erde entfernt.) Der zunehmende Abstand des Trabanten beruhigt die Urmeere und das Wechselspiel der Kräfte führt zu einer gebundenen Rotation des Mondes. Er dreht sich nun während eines Erdumlaufs genau einmal um seine eigene Achse und wendet uns daher seitdem stets die gleiche Seite zu. Der Elektromagnetismus übernimmt die Regie Vier Milliarden Jahre vor unserer Zeit ist der Verdichtungsprozess der Erde abgeschlossen; ihr Durchmesser beträgt nun knapp 13.000 Kilometer. Die Rotationsgeschwindigkeit hat sich weiter verringert, ein Erdentag dauert bereits 14 Stunden. Im Vergleich zu ihren Schwesterplaneten, zeichnet sich die Erde durch eine Reihe von Besonderheiten aus: Ein ungewöhnlich großer Mond stabilisiert ihre Rotationsachse; ihre Oberfläche birgt einen gigantischen Wasservorrat; ein starkes Magnetfeld hält die Sonnenwinde fern, während eine dichte Atmosphäre die Wärme des Zentralsterns speichert und die meisten Meteoriten nun vor dem Aufschlag verglühen lässt. Hunderte von Jahrmillionen hat vor allem die Gravitation das Schicksal der Erde bestimmt. Von nun an wird die vielgesichtige Kraft des Elektromagnetismus die Regie übernehmen und eine chemische Evolution in Gang setzen. Die Voraussetzungen könnten besser nicht sein: Moderate, konstante Temperaturen und Unmengen von Wasser, in dem zahllose Sauerstoff-, Stickstoff-, Phosphor- Schwefel- und Kohlenstoffatome gelöst sind. Schwache Bindungen entstehen und lösen sich wieder, nur um sogleich eine andere Konstellation auszuprobieren. Das unentwegte Experimentieren lässt auf der Basis von Kohlenstoffketten erste organische Riesenmoleküle von bislang unbekannter Komplexität entstehen. Aus Monosacchariden, Aminosäuren, Nukleotiden und Fettsäuren formen sich nach und nach komplexe Zucker, Proteine, Lipide und Polynukleotide. Auch sie sind Kinder des Urknalls … Den Blog entdecken Wer mehr wissen will: v. Ditfurth Hoimar, (1972): Im Anfang war der Wasserstoff. Hoffmann und Campe. [i] Der Impulserhaltungseffekt lässt sich am einfachsten bei den Pirouetten der Eiskunstläufer beobachten: Wenn sie ihre Arme ausbreiten, verringert sich ihre Rotationsgeschwindigkeit. Die Impulserhaltung bewirkt die langsame stetige Entfernung des Mondes von der Erde.
- Die Zelle als Chemiefabrik
Fortsetzung von "Was genau ist Leben?" Hooke zeichnet schuppige Monster und entdeckt die Zelle Robert Hooke , Newtons streitlustigem Zeitgenossen , lag auf einmal eine neue Welt zu Füßen. Das Tor dazu hatte das Mikroskop aufgestoßen, eine geniale Erfindung niederländischer Linsenschleifer. Die ehrwürdige Royal Society hatte den Wissenschaftler beauftragt, die Offenbarungen des neuen Wundergeräts im Wortsinne unter die Lupe zu nehmen. Das optische Instrument verwandelte eine Nadelspitze in einen schroffen Berg und einen winzigen Floh in ein bizarres, schuppiges Monster. 1665 veröffentlichte Hooke das Buch „ Micrographia “, eine umfangreiche Sammlung von Zeichnungen der verschiedenen Objekte, die der Autor unter dem Mikroskop beobachtet hatte, samt dazugehörigen Kommentaren. Einer der beschriebenen Gegenstände war ein einfaches Stück Kork. Die kammerartigen Strukturen, die er unter dem Mikroskop sah, erinnerten Hooke an die kleinen Zellen der Mönche. Deshalb nannte er sie auch einfach so: Zellen. Viele Jahre und zahllose weitere angestrengte Blicke durch das Mikroskop später, erfasste der deutsche Physiologe Theodor Schwann schließlich die Tragweite der Hookeschen Entdeckung: Zellen waren die Grundeinheit allen Lebens ! Bald darauf erkannte Rudolf Virchow in Zellstörungen die Ursache sämtlicher Krankheiten und Anfang der 1860er Jahre setzte der Franzose Louis Pasteur die Erkenntnis durch, dass Zellen nur aus anderen lebenden Zellen hervorgehen können. Dies war das Ende der noch bis in die zweite Hälfte des 19. Jahrhunderts von zahlreichen Biologen vertretene, auf Aristoteles zurückgehende Ansicht, dass Leben durch „spontane Urzeugung“ aus toter Materie entstehen könne. Nach Elementarteilchen, Atomen und Molekülen stellen Zellen eine nächste Aggregations- und Komplexitätsstufe dar. Ihre Größe verhält sich zu Atomen etwa so, wie Atom zu Atomkern: Eine Zelle aus erbsengroßen Atombausteinen, hätte die Ausdehnung eines Fußballstadions. Ihr tatsächlicher Durchmesser liegt bei einigen hundertstel Millimetern – eine Winzigkeit zu klein für das bloße Auge. (Die einzige bekannte einzelne Zelle, die ohne Hilfsmittel für uns sichtbar ist, ist die Eizelle des Vogel Strauß.) Die Urzelle Wir haben heute relativ konkrete Vorstellungen davon, wie Universum, Atome, Sterne und Planeten entstanden sind – der Ursprung des Lebens auf unserem Himmelskörper aber bleibt zum großen Teil rätselhaft. Weitgehende wissenschaftliche Übereinstimmung gibt es nur dahingehend, dass alles Leben wahrscheinlich auf einen einzigen Vorfahren zurückgeht, der vor etwa 3,8 Milliarden Jahren im Wasser entstanden sein muss. Langkettige, mit verschiedenen funktionellen Gruppen bestückte Kohlenwasserstoffe begannen damals miteinander zu kooperieren. Sie schufen einen abgeschlossenen Reaktionsraum, in der autokatalytische Prozesse ihre Dynamik entfalten konnten. Diese zunächst rein physikalisch-chemischen Vorgänge waren der Beginn der biologischen Evolution. Wie sich die Urzeugung, der Sprung von toter Materie zum Leben, genau vollzog, wie das Ganze zu mehr als der Summe seiner Teile wurde, bleibt ein Geheimnis der Urozeane. Heute fügen sich die zahllosen Nachfahren jenes ersten Keims zu Algenkolonien, Krokussen, Regenwürmern, Haifischen, Grottenolmen, Kranichen, Walen, Kühen oder menschlichem Bewusstsein zusammen. Die Zelle als Chemiefabrik: Ein Mikrokosmos Jede Zelle ist ein Universum für sich, ein Mikrokosmos, in dem ohne Unterlass Schwerstarbeit verrichtet wird. Die Grenzen dieses Kosmos zieht eine Membran, ein aus Phospholipiden bestehendes Wunderwerk der Biochemie, dem schwache Bindungskräfte eine einmalige Kombination aus Stabilität und Flexibilität verleihen. Wir können uns diese Membran wie eine doppelte Phalanx aus Streichhölzern vorstellen, bei der die Zündköpfe jeweils nach außen weisen. Innerhalb und außerhalb der Zelle werden die Phosphor-Enden vom Wasser angezogen, während die wasserscheuen Fettsäureschwänze nach innen gerichtet sind. In die Doppelmembran sind zahlreiche Proteinkomplexe eingebettet, die die Zellhaut an manchen Stellen tunnelartig durchbohren. Sie machen die Zelle zu einem offenen physikalischen System, das mit seiner Umwelt Wasser-, Baustoff-, Energie- und Nachrichtenmoleküle austauscht. Das Zellinnere ist mit Cytoplasma ausgefüllt, einem glibberigen Cocktail aus Wasser, Proteinfäden, Zuckern, organischen Säuren und anorganischen Bausteinen. Darin eingebettet finden sich die Organellen, komplexe Molekülverbände, deren kryptische Namen uns vielleicht noch aus dem Biologieunterricht in Erinnerung sind. Organellen machen die Zelle zu einer Chemiefabrik en miniature: Sie beschaffen und lagern Rohstoffe, stellen Halb- und Fertigfabrikate her, verteilen sie mithilfe eines ausgeklügelten Logistiksystems, betreiben Kraftwerke für die Energieversorgung und kümmern sich um Instandhaltung und ein gewissenhaftes Recycling. All das wird von einer effizienten Werkleitung gesteuert, die dafür sorgt, dass die Einheiten pausenlos, sieben Tage in der Woche mit der Präzision eines Schweizer Uhrwerks zusammenspielen. Die Nomenklatur der Zelltypen Es gibt zwei Grundtypen dieser Chemiefabriken: Prokaryoten sind einfach gestrickte Zellen, vergleichsweise primitive Gebilde mit niedrigen Sicherheits- und Umweltauflagen, deren Organelle frei und ungeschützt im Cytoplasma schwimmen. Prokaryoten sind fast immer nur einzellig und werden in die beiden biologischen Domänen der Bakterien und Archaeen unterteilt. (Dass es Archaeen gibt, wissen wir übrigens erst seit Ende der 1970er Jahre. Obwohl sie sich äußerlich kaum von Bakterien unterscheiden, stellen sie aufgrund eines unterschiedlichen Aufbaus ihrer Ribonukleinsäurensequenz ein eigenständiges Bauprinzip des Lebens dar, das besonders gut mit extremen Bedingungen wie Wassertemperaturen um die 100° C zurechtkommt.) Der zweite Typus, die Eukaryoten , bilden eine eigene, dritte Domäne. Eukaryoten sind fast immer mehrzellig und teilen sich in die drei großen Lebensformen der Pflanzen , Pilze und Tiere . Bei ihnen sind Zellkern und die meisten Organellen von einer eigenen Membran umgeben. Dadurch entstehen getrennte Reaktionseinheiten, in denen verschiedene Stoffwechselprozesse ohne das Risiko von Chemieunfällen gleichzeitig ablaufen können. Die Parade der Organelle Dreh- und Angelpunkt aller Abläufe in Eukaryoten ist der Zellkern . Er ist die Kommandozentrale und zugleich ein gigantisches Archiv für Proteinrezepte. Grundbestandteil all dieser Rezepte sind Enzyme, Protein-basierte Biokatalysatoren, die es erlauben, bei niedrigen Betriebstemperaturen Reaktionen schneller ablaufen zu lassen. Die Ribosomen sind die Produktionseinheiten, die die Rezeptaufträge abarbeiten . Sie sitzen außerhalb des Zellkerns auf einem Organell mit der merkwürdigen Bezeichnung „ Endoplasmatisches Retikulum “ – „in Plasma eingebettetes kleines Netz“. (Nennen wir es praktischerweise ER.) Das ER ist ein verflochtenes Kanalsystem, das die von den Ribosomen hergestellten Proteine mithilfe von Vesikeln , kleinen, kugeligen Transporteinheiten, an ihren Bestimmungsort bringt. „Dreck auf der Linse“ Die meiste Fracht wird vom Golgi-Apparat in Empfang genommen. Dieses Organell ist nach seinem etwas unglücklichen Entdecker benannt, dem italienischen Arzt Camillo Golgi , der es 1898 aufgespürt hatte. (Seine Beobachtung wurde von Zeitgenossen als „Dreck auf der Mikroskop-Linse“ abgetan.) Der Golgi-Apparat ist eine Spezialanlage für Hightech-Fertigprodukte. Die vom ER gelieferten Vorstufen werden durch ihn zu komplexen Eiweißverbindungen aufgebaut. In Pflanzen entstehen hier auch die Mehrfachzucker, aus denen die Zellwände errichtet werden. Des Weiteren ist der Golgi-Apparat Teil eines raffinierten Abfall-Recycling-Systems: Er liefert die Verdauungsenzyme, mit deren Hilfe verbrauchte Organellen in einfache, wiederverwendbare Monomere zerlegt werden. Die fertigen Proteine werden schließlich an einer Verladerampe mit chemisch codierten Navigationsanweisungen versehen und von Transportvesikeln zu ihrer Destination gebracht. Die Betriebsamkeit einer Zelle als hektisch zu bezeichnen, wäre eine ziemliche Untertreibung: Ohne Unterlass werden Abermilliarden von Molekülen transportiert und mit einer unfassbaren Geschwindigkeit auf- um- und abgebaut. Die hierfür nötige Energie liefern die Zell-Kraftwerke, die Mitochondrien . Genau genommen handelt es sich um Kohlekraftwerke, denn hier werden Kohlehydrate verbrannt. Den Zucker-Brennstoff erzeugt ein weiteres Organell, die Chloroplasten , die sich allerdings nur in Pflanzen und bestimmten Bakterien finden. Sie haben die wundersame Fähigkeit, Sonnenenergie in den chemischen Bindungen bestimmter Kohlenstoffmoleküle speichern zu können. Jedes einzelne der unzähligen Moleküle, aus denen eine Zelle besteht, ist tot; durch ihr Zusammenspiel aber erwachen sie zu etwas, das unvorstellbar viel mehr ist als die Summe seiner Teile – ein Wunder an Synergie, das sich jeder mechanistischen Betrachtung entzieht. Nicht weniger wundersam ist das Zusammenspiel der Zellen untereinander. Kein einzelner Eukaryot wäre allein überlebensfähig. Billionen und Billiarden von ihnen aber bilden jene Arbeitsgemeinschaften, die wir als Pflanzen, Pilze oder Tiere bezeichnen. Sie formen Gewebe , aus denen Wurzeln, Stängel, Blätter oder komplexe Organe wie Tracheen, Chitinpanzer, Herz, Leber, Haut, Knochen oder Gehirn entstehen. Die einzelnen Organe verbinden sich zu Systemen – Blutkreislauf, Verdauungsapparat, Harn- oder Nervensystem. Der Verbund aller Organsysteme untereinander bildet schließlich einen Organismus . Die Zahl der Zellen, die zusammenarbeiten, um etwa einen Menschen entstehen zu lassen, wird auf zehn Millionen Milliarden geschätzt. Betrachten wir solche komplexe Organismen, drängen sich drei grundlegende Fragen auf: Wie lassen sich diese gigantischen Systeme mit Energie versorgen? Wie werden sie koordiniert? Und vor allem: Wie konnten sie überhaupt entstehen? Diesen drei Fragen werden wir in den kommenden Blogs zum Thema Biologie nachgehen. Den Blog entdecken Wer mehr wissen will: Probst, Wilfried / Schuchardt, Petra (Hrsg.): (2011): „Biologie“, Duden Schulbuchverlag Bill Bryson (2004): Eine kurze Geschichte von fast allem, Goldmann – Kapitel 24
- Viel Lärm um Nichts: Das Aufbauprinzip der Atome
Fortsetzung von "Die Ursprünge der modernen Chemie" Viel Lärm um Nichts Atome sind die materielle Grundlage allen Seins – und damit auch allen Bewusstseins – im Universum. In ihrem Zentrum verbinden sich Quarks zu Protonen und Neutronen , die 99,95% der atomaren Masse ausmachen. Der winzige Rest entfällt auf die Elektronen . Sie umschwirren den Kern rastlos, sind überall und nirgendwo. Ihre Wellen spannen die Elektronenhülle auf, einen Raumbereich, von etwa einem zehnmilliardstel Meter Durchmesser. Wenn wir uns den Atomkern als Erbse auf dem Anstoßpunkt eines großen Fußballstadions vorstellen, dann hält sich das Elektron mit einer 95%igen Wahrscheinlichkeit irgendwo zwischen der Erbse und dem hintersten Tribünenrang auf. Vielleicht ist es aber auch überhaupt nicht im Stadium, sondern kilometerweit davon entfernt. Der Rest ist Leere. Atome bestehen vor allem aus dem Nichts! Das Wechselspiel der vier Grundkräfte lässt Elementarteilchen und damit Materie entstehen. Die Chemie benötigt aus diesem Ensemble nur zwei Akteure: die positiven und negativen Teilchen des Elektromagnetismus. Protonen sind auf der chemischen Bühne die Charakterdarsteller. Ihre Anzahl bestimmt das Wesen eines Atoms, seine elementare Identität. Ein zusätzliches Proton verändert die Eigenschaften eines Atoms radikal, es macht aus dem Gas Helium das Metall Lithium, aus dem Metall Silizium das Nichtmetall Phosphor und aus Platin Gold. Die Hauptrolle aber kommt dem unscheinbaren Elektron zu. Die Leichtgewichte erschaffen unsere makroskopische Welt, indem sie die Atomsorten zu Abermilliarden Spielarten verbinden, von denen jede mit einzigartigen Eigenschaften versehen ist. Das Aufbauprinzip Drei Quantenmechaniker, Nils Bohr , Werner Heisenberg und Wolfgang Pauli , haben das theoretische Fundament geliefert, das dieses Wunder erklärt. Von Bohr stammt das grundlegende Atommodell. Heisenberg erweiterte es durch die Idee der Orbitale , und Pauli erkannte, dass die Anzahl der Elektronen, die sich dort jeweils aufhalten können, begrenzt ist. Diese drei Theorien sind im „ Aufbauprinzip “ miteinander vereint, einem quantenmechanischen Modell, das die Organisation der elementaren Elektronenhüllen beschreibt. Bohrs Atommodell kennt sieben Elektronenschalen , von denen jede ein unterschiedliches Energieniveau repräsentiert und die von innen nach außen mit den Buchstaben K, L, M, N, O, P und Q bezeichnet werden. Den Schalen lassen sich, gleichsam als „Unterschalen“, jeweils bis zu vier verschiedene Orbital-Bausteine zuordnen: das kugelförmige s-Orbital, und die p-, d- und f-Orbitale, deren Formen sich am ehesten als ring- und hantelförmig umschreiben lassen (Die Abkürzungen stehen für die englischen Bezeichnungen „sharp“, „principal“, „diffuse“ und „fundamental“). Jedes Orbital hat dabei eine spezifische Höchstgrenze für die Aufnahme von Elektronen. Die K-Schale besteht nur aus einem s-Orbital, das maximal zwei Elektronen beherbergen kann. Die folgende L-Schale verfügt über zwei Orbitale: Ein s-Orbital und ein p-Orbital, das sechs Elektronen Raum bietet. Die L-Schale kann somit insgesamt acht Elektronen aufnehmen. Auf der M-Schale gesellt sich zu dem s- und p- noch ein d-Orbital, das zehn Elektronen fasst, so dass die M-Schale bis zu 18 Elektronen eine Heimat bieten kann. Auf der vierten, der N-Schale, erweitert das mächtige f-Orbital mit einer Kapazität von vierzehn Elektronen, das Gesamtfassungsvermögen der Schale auf 32 Elektronen. (Die Kapazität einer beliebigen Schale lässt sich mit der einfachen mathematischen Formel 2n^2 berechnen, wobei n der Zahl der jeweils betrachteten Schale entspricht. Für die vierte Schale, die N-Schale, beträgt die Kapazität also 2 x 4^2 = 32.). Diese Elektronenkonfiguration ist ein schrittweiser Auffüllmechanismus, bei dem die Orbitale von innen nach außen bestückt werden. Die Plätze mit dem niedrigsten Energieniveau werden zuerst besetzt, da sie gegenüber dem Atomkern die geringste Lageenergie und somit die größte Stabilität aufweisen. Wer unten nicht mehr unterkommt, muss sich notgedrungen weiter oben einen weniger stabilen Raumbereich suchen. Das Aufbaumodell der Atome am Beispiel des Phosphors Diese Logik lässt sich anhand von Henning Brand s Phosphor illustrieren. Er hat 15 Protonen und muss in seiner elektrisch neutralen Variante somit auch 15 Elektronen unterbringen. Die beiden ersten finden sich auf dem s-Orbital der K-Schale. Die nächsten acht werden durch das s- und p-Orbital der L-Schale versorgt. Den übrigen fünf Elektronen bleibt nur die M-Tribüne: zwei im s-Block, drei weitere im p-Block. Mit jeder neuen Schale kommen immer ein s- und ein p-Orbital hinzu, insgesamt also Raum für acht Elektronen. Zusammen bilden diese beiden jeweils äußersten Orbitale die „ Valenzschale “; ihre Ladungsträger sind die „ Valenzelektronen “. Phosphor verfügt somit über fünf dieser exponierten Ladungsträger. Um die Valenzelektronen dreht sich in der Chemie so ziemlich alles. Dass die Valenzschalen maximal acht Elektronen fassen, ist der quantenmechanische Schlüssel zum Verständnis des von Mendelejew und Meyer gefundenen Rhythmus. Bredouille Der Physik-Artikel der letzten Woche endet mit einer kurzen Vorstellung der ersten modernen Atomtheorie, die zu Beginn des 19. Jahrhunderts durch John Dalton aufgestellt wurde. Das brachte mich jetzt erstmals in eine kleine Bredouille: Die Inhalte dieses Blogs basieren auf den Kapiteln meines Buchs in der Reihenfolge: Mathematik, Physik, Chemie, Biologie, Geschichte des Universums, Bewusstsein, Sprache, Philosophie, Gesellschaft, Ökonomie und Geschichte der Menschheit. Das Folgekapitel baut jeweils auf Aussagen des vorausgegangenen Kapitels auf. Die Kapitel selbst folgen der Chronologie des historischen Erkenntnisfortschritts. Wer das Buch liest - es erscheint jetzt doch erst im Juni :( - liest normalerweise erst das Physik-Kapitel fertig, bevor er mit dem Chemie-Kapitel anfängt. Der Blog aber folgt nicht der Kapitelstruktur des Buchs, sondern widmet jede Woche jedem der elf Buchkapitel einen eigenen Beitrag. In der Chronologie des Blogs sind wir in der Kategorie Physik erst bei Newton und Dalton angelangt. Danach ist aber noch einiges geschehen. Unser modernes Physikverständnis beruht auf Einsteins Relativitätstheorie und auf der Quantenphysik. Letztere ist elementar, um die Chemie zu verstehen, die streng genommen nur eine bestimmte Physik ist – die Physik der Elektronenschalen. Das in diesem Artikel vorgestellte Aufbauprinzip der Atome setzt somit eigentlich gewisse Kenntnisse der Quantenphysik voraus, die in diesem Blog bisher noch nicht behandelt wurden. Das nur zur nachträglichen Erklärung. Den Blog entdecken Wer mehr wissen will: Günter Klar , Armin Reller (2023): „Das Werden der Chemie“, Wiley-VCH. Moore, John T. (2020): „Chemie kompakt für Dummies“, Wiley-VCH Bildnachweis: Werner Heisenberg: File:Bundesarchiv Bild183-R57262, Werner Heisenberg.jpg - Wikimedia Commons
- Isaac Newton: Das Universum als Uhrwerk
Fortsetzung von "Die Ursprünge der Physik" Edmond Halley reist nach Cambridge Der Astronom Edmond Halley – nach ihm ist der bekannte Komet benannt – war im englischen Wissenschaftsbetrieb eine etablierte Größe. 1677 hatte er eine Methode entwickelt, mit der sich der Abstand zwischen Erde und Sonne berechnen ließ. Nun, sieben Jahre später, hatte ihn die ehrwürdige Royal Society mit einer heiklen Mission betraut: Nach einem Streit mit seinem Kollegen Robert Hooke hatte sich Isaac Newton beleidigt nach Cambridge zurückgezogen und widmete sich dort fortan nur noch Fragen der Theologie und Alchemie . Halley sollte den schrullig-genialen Naturforscher wieder mit der königlichen Gelehrtengesellschaft versöhnen, denn die Mitglieder der Society waren auf Newtons Hilfe angewiesen. Nur ihm trauten sie zu, Keplers Theorie der Planetenbewegung , Galileis Fallgesetze und die Überlegungen des französischen Mathematikers und Naturforschers René Descartes zur Trägheit von Massen miteinander zu vereinen. Im August des Jahres 1684 reiste Halley daher nach Cambridge. Zu seiner Überraschung stellte er gleich nach seiner Ankunft fest, dass die lange gesuchten Antworten bereits fertig in Newtons Schublade lagen. Mit einiger Mühe gelang es Halley, Newton davon zu überzeugen, seine Erkenntnisse zu ordnen und zu veröffentlichen. 1687 erschienen die „ Philosophiae Naturalis Principia Mathematica “, die „Mathematischen Grundlagen der Naturphilosophie“. Bis heute ist es eines der wichtigsten Bücher der Wissenschaftsgeschichte. Es lieferte das Fundament, auf dem die Physik die nächsten 200 Jahre scheinbar unerschütterlich stehen sollte. Newtons Bewegungsgesetze Zu Newtons Genie gehörte seine Fähigkeit, auch unsichtbare Dinge erfassen zu können. Was Keplers, Galileis und Descartes Beobachtungen miteinander verband, waren Kräfte . Newton war der erste, der ihr Wirken umfassend beschrieb. Kräfte sind alles, was den Zustand von Materie zu ändern vermag, also die Dinge der Welt beschleunigen und abbremsen kann oder ihnen einen neue Richtung oder Form gibt. Sie lassen Äpfel vom Baum fallen, dehnen Metallfedern, schleudern Kanonenkugeln, verdampfen Wasser, bringen die Sonne zum Leuchten und halten Organismen am Leben. Ihre Fähigkeiten muten dabei geradezu geisterhaft an, denn wir können sie nicht direkt beobachten, sondern erkennen sie allein an ihren Wirkungen. Newtons erster Geniestreich war es, das Wirken von Kräften in drei einfachen Bewegungsgesetzen zusammenzufassen. Nach dem ersten dieser Gesetze, dem „ Trägheitsprinzip “, verharrt jeder Körper in Ruhe oder gleichförmiger Bewegung, solange er nicht durch äußere Krafteinwirkung gezwungen wird, seinen Zustand zu ändern. Dass ein Körper ohne äußere Veranlassung passiv bleibt, entspricht der aristotelischen Lehre und unserer Alltagserfahrung. Doch dass ein bewegter Körper seine Geschwindigkeit konstant beibehält, war eine revolutionäre neue Erkenntnis: Lag es doch ganz augenscheinlich in der Natur bewegter Dinge, dass sie, so wie eine rollende Billardkugel, irgendwann von selbst zur Ruhe kommen. Niemand war bisher auf die Idee gekommen, dass ein Körper, einmal in Bewegung gesetzt, seine Reise endlos mit der gleichen Geschwindigkeit in die gleiche Richtung fortsetzten könnte, sofern ihn keine anderen Kräfte daran hindern. Newtons zweite Erkenntnis war, dass die Beschleunigung einer Masse sich proportional zu der sie verursachenden Kraft verhält: Kraft ist Masse mal Beschleunigung. Dieses „ Aktionsprinzip “ besagt, dass bei konstanter Masse eine Verdopplung der Kraft auch zu einer Verdopplung der Beschleunigung führt; verdoppelt sich die Masse, so halbiert sich bei konstanter Kraft die Beschleunigung. Die Bahn des bewegten Körpers ist dabei die lineare Verlängerung der Richtung, aus der die Kraft wirkt. Das dritte Gesetz, das „ Reaktionsprinzip “, besagt, dass die Übertragung einer Kraft von einem Körper auf einen anderen eine gleich große Gegenkraft provoziert. Wie die ersten beiden Bewegungsgesetze lässt sich auch diese dritte Regel leicht auf einem Billardtisch demonstrieren: Stoßen zwei Kugeln zusammen, so kommt die erste Kugel abrupt zum Stillstand, wobei sie ihre Kraftwirkung auf den Kollisionspartner überträgt, der an ihrer Stelle die Reise fortsetzt. Es entsteht also eine Wechselwirkung, bei der eine Aktion, eine gleich große Reaktion erzeugt. Der Gesamtbetrag aller Kräfte bleibt dabei stets erhalten. Die Schwerkraft regiert das Universum Die drei Bewegungsgesetze erwiesen sich für Newton schon bald auch als Schlüssel zum Verständnis der gesamten Himmelsmechanik . Am Firmament und auf der Erde wirkten dieselben Kräfte! Doch wenn die Schwerkraft auf der Erde den Apfel fallen lässt, warum fällt dann nicht auch der Mond auf die Erde? Eine weitere Kraft musste im Spiel sein. Nach dem ersten Bewegungsgesetz müsste sich ein bewegter Mond stetig von der Erde entfernen. Newton erkannte, dass der Mond tatsächlich auf die Erde fällt, der Fall aber nach einem unendlich kurzen Zeitraum durch die Fluchtbewegung wieder korrigiert wird; im nächsten Moment fällt der Mond erneut und wieder wird der Fall durch die Flucht kompensiert. Aus diesem Differentialkalkül ergibt sich – auch das konnte Newton nachweisen – die von Kepler beobachtete elliptische Bahn. Die Gravitationswirkung ist stets gegenseitig. So wie die Erde den Mond und den Apfel anzieht, so ziehen Mond und Apfel auch die Erde an. Die Kraft ist proportional zur Masse „m“ der betrachteten Körper und nimmt im Quadrat des Abstands „r“ ab. Bei einer Verdopplung des Abstands beträgt die Kraft also nur noch ein Viertel. Daher übt der kleine Mond eine dreimal stärkere Anziehungskraft auf die Erde aus, als die riesige, massereiche Sonne. Außer Masse und Abstand wirkt als dritter Parameter noch die Gravitationskonstante „G“, die die Stärke der Anziehung zum Ausdruck bringt. Das Zusammenwirken der drei Einflussgrößen ergibt die Gravitationskraft „F“, mit der Formel Da die Schwerkraft von der Masse abhängt, hat ein Apfel auf dem Mond nur einen Bruchteil seiner irdischen Gewichtskraft. Nun ließ sich auch Galileis Beobachtung erklären, dass alle Körper gleich schnell fallen: Ein doppelt so schwerer Körper unterliegt zwar einer doppelten Schwerkraft, dafür kann seine Masse aber auch nur halb so schnell beschleunigt werden. Nach dem zweiten Newtonschen Gesetz ist die Beschleunigung für alle Massen daher stets dieselbe. Newton hatte aus dem chaotischen Wirrwarr der Naturgewalten eine erste fundamentale Kraft herausgelöst. Die Gravitationskraft , die den Apfel fallen lässt und die wir jedes Mal überwinden müssen, wenn wir aufstehen oder eine Treppe steigen, bestimmt auch die Ordnung des ganzen Universums: Unbegrenzt in ihrer Reichweite und durch nichts abschirmbar, bewirkt sie, dass sich überall im All Materie zu kugelförmigen Himmelskörpern, Sonnensystemen und Galaxien verdichtet. Das Universum als Uhrwerk Mit den drei Bewegungsgesetzen und der Gravitationsformel hatte der Engländer die Grundlage eines umfassenden mechanischen Weltbilds geschaffen. Die sichtbaren Vorgänge am Himmel und auf der Erde waren ein relativ einfaches Zusammenspiel von Massen und Kräften in Raum und Zeit, das sich mathematisch exakt beschreiben ließ. Mit diesem theoretischen Fundament ließ sich nun auch praktisch arbeiten: Erfahrung, Schätzungen und Intuition wurden durch Berechnungen ersetzt, aus Baumeistern wurden Ingenieure . Die Anzahl der Rollen, die nötig waren, damit ein Flaschenzug eine bestimmte Last heben konnte, der Druck, dem eine Staumauer standhalten musste, die Leistung, die eine Dampfmaschine erbringt, die Bewegungen von Planeten, Äpfeln oder Kanonenkugeln ergaben sich aus mathematischen Formeln. Die Naturgesetze ließen sich nun ganz systematisch in den Dienst des Fortschritts zwingen. Newtons „Prinzipien“ waren ein erster Höhepunkt der wissenschaftlichen Revolution , Ausdruck einer Zeitenwende, nach der Aussagen über die materielle Beschaffenheit der Welt nicht mehr theologisch, sondern nur noch mathematisch und empirisch gerechtfertigt werden mussten. Das neue Weltbild konnte Newton nur zusammenfügen, weil Kopernikus , Brahe , Kepler , Galilei und Descartes durch jahrelanges penibles Beobachten, Messen, Wiegen, Zählen und Experimentieren hierfür die Grundlagen gelegt hatten. Wackelige Weltbilder Gute Theorien machen Aussagen darüber, wie die Welt beschaffen ist. Eine Theorie ist dann gut, wenn die gemachten Beobachtungen mit dem theoretischen Modell in Einklang stehen und Vorhersagen aus ihr abgeleitet werden können. Die Entdeckung des heliozentrischen Weltbildes zeigt eindrücklich, dass alle so gewonnene Erkenntnis immer nur vorläufig ist. Die Menschen, die dem ptolemäischen Weltbild anhingen, waren weder dumm noch naiv. Ihre Theorie befand sich in völliger Übereinstimmung mit dem, was sie beobachten konnten – dennoch unterlagen sie einem Trugschluss. Eine einzige Beobachtung, die nicht mit dem formulierten Zusammenhang in Übereinstimmung gebracht werden kann, bringt eine naturwissenschaftliche Theorie zu Fall. Die alte Erklärung muss dann entweder erweitert oder durch eine völlig neue ersetzt werden. Dieser methodische Zweifel an der Endgültigkeit aller gewonnenen Einsichten ist seit dem 17. Jahrhundert der Motor des wissenschaftlichen Fortschritts. Seitdem tasten wir uns über Irrungen und Wirrungen an das heran, was vielleicht die Wahrheit sein könnte. Newtons deterministisches Welterklärungsmodell sollte sich als ausgesprochen belastbar erweisen. In den folgenden Jahrzehnten wurde deutlich, dass sich seine Gesetze problemlos auf optische, akustische und elektrische Phänomene übertragen ließen. Der Kosmos schien ein gigantisches Uhrwerk zu sein, bei dem alle Rädchen nach den immer gleichen, verlässlichen Spielregeln ineinandergriffen. Lediglich drei Parameter – Zeit, Raum und Masse – waren notwendig, um dieses Uhrwerk in all seinen Details zu beschreiben. Aus ihren arithmetischen Kombinationen ließen sich sämtliche physikalische Größen ableiten. Physikalische Grundgrößen Setzt man die Masse ins Verhältnis zum Raum erhält man die Dichte eines Objekts. Eine hohe Dichte bedeutet viel Masse pro Raumeinheit, somit auch eine starke Gravitation und Trägheit. Der Dichteunterschied erklärt, warum wir mehr Kraft aufwenden müssen, eine Bleikugel in Bewegung zu versetzen, als einen gleichgroßen Pingpongball. Das Verhältnis von Strecke zu Zeit ist die Geschwindigkeit , mit der sich ein Körper bewegt. Multipliziert man die Geschwindigkeit mit der Masse des Körpers, erhält man den Impuls . Den Impuls können wir uns sich als eine Transportleistung vorstellen oder auch als die Wucht, die ein Aufprall verursacht. Die multiplikative Verknüpfung der beiden Größen bedeutet, dass bei gegebenem Impuls die doppelte Masse mit der halben Geschwindigkeit oder die halbe Masse mit der doppelten Geschwindigkeit bewegt wird. Nicht mehr ganz so anschaulich wird es, wenn wir die Geschwindigkeitsformel ins Verhältnis zur Zeit setzen. Wir erhalten eine Exponentialfunktion und messen dann „Meter pro Sekunde pro Sekunde“. Dies ist die Definition der Beschleunigung : Sie bringt zum Ausdruck, wie sich die Geschwindigkeit pro Zeiteinheit verändert. Von hier ist es nur noch ein gedanklicher Katzensprung bis zu Newtons Schlüsselbegriff: Die Kraft – sie wird dem großen Engländer zu Ehren seit 1948 in der Einheit „ Newton “ gemessen – erhalten wir, indem wir die Beschleunigung mit der Masse multiplizieren. Kräfte haben, wie erwähnt, das Vermögen, Massen zu beschleunigen oder deren Zustand in sonst einer Weise zu verändern. Von der Kraft ist es wiederum nur ein kleiner Schritt zu unserer nächsten Größe, der Energie . Rein mathematisch ist sie die Multiplikation der Kraft mit einer Strecke, gemessen in der Einheit „ Joule “. Doch wie müssen wir uns eine Kraft, die „auf den Weg gebracht wird“ vorstellen? Tatsächlich ist Energie ein sehr problematischer Begriff. Eine erste Vorstellung erhalten wir, wenn wir uns der Energie über das physikalische Synonym „Arbeit“ nähern. Wenn eine Billardkugel vom Tisch fällt, wird eine Masse beschleunigt und durch den Raum transportiert. Damit wird – durchaus im umgangssprachlichen Sinn – Arbeit verrichtet, denn nach getaner Arbeit sieht die Welt anders aus. Solange sie auf dem Tisch ruht, stellt die Kugel aufgrund ihrer Position im Raum oberhalb des Bodens ein Energiepotential dar, gleichsam Energie in Lauerstellung. Sie ist vorhanden, verrichtet aber keine Arbeit, sondern ruht. Fällt die Kugel vom Tisch, wird die potentielle zu kinetischer Energie. Fällt dieselbe Kugel von einem höheren Tisch, arbeitet die Kugel automatisch härter und setzt somit auch mehr Energie frei. An dieser Stelle offenbaren sich zwei Merkwürdigkeiten. Die erste ist, dass Energie verschiedene Formen annehmen kann, die untereinander wandelbar sind: Potentielle Energie kann in Bewegungsenergie umgewandelt werden. Chemische Energie, die in einem Stück Holz gefangen ist, wird bei Verbrennung zu Licht- und Wärmeenergie. Ein Generator erzeugt aus kinetischer oder chemischer Energie Strom. Wie eine Substanz kann Energie von einer Form in eine andere fließen. Die zweite Merkwürdigkeit ist, dass es äußere Umstände sind, die bestimmen, wie viel von dem Energiepotential jeweils freigesetzt wird: Die Höhe des Tisches, die Sauerstoffzufuhr bei der Verbrennung, der Wirkungsgrad des Generators. Energie stellt damit letztlich immer nur eine Möglichkeit dar. Die Frage, wieviel Energie insgesamt in der Kugel oder dem Holzscheit steckt, wieviel Arbeit in dem jeweiligen Energieträger gespeichert ist, lässt sich so nicht beantworten; Energie ist eine Größe, die ihr wahres Wesen gut zu verstecken weiß. Der amerikanische Nobelpreisträger Richard Feynman fasste es so zusammen: „Es ist wichtig, sich darüber im Klaren zu sein, dass wir heute in der Physik nicht wissen, was Energie ist“. Setzen wir Energie ins Verhältnis zur Dimension Zeit, erhalten wir eine weitere grundlegende Größe, die Leistung , mit der Einheit „ Watt “. Ihr Namensgeber, der schottische Ingenieur James Watt , hatte hierfür die anschauliche Einheit „Pferdestärke“ vorgeschlagen. Im metrischen System wurde sie später normiert als die Leistung, die erbracht werden muss, um innerhalb einer Sekunde mithilfe eines Seils und einer Rolle ein Gewicht von 75 kg um einen Meter anzuheben. Lässt man zwei Pferde gegeneinander antreten, hat das Pferd, das die Last schneller angehoben hat, die größere Leistung erbracht – wobei beide Tiere nach wie vor die gleiche Arbeit verrichtet haben. Die Wirkung ist eine der weniger bekannten physikalischen Größen. Dieses Schattendasein führt sie zu Unrecht, denn die Entdeckung ihrer kleinstmöglichen Einheit markiert, wie wir noch sehen werden, den Beginn der modernen Physik. Bei der Wirkung wird die Energie, nicht wie bei der Leistung durch die Zeit dividiert, sondern mit ihr multipliziert. Die Wirkung folgt stets einem in der Natur allgegenwärtigen ökonomischen Prinzip: Ein durch den Raum fliegendes Objekt wird unter den unendlich vielen möglichen Flugbahnen immer die schnellstmögliche Bahn, die Bahn mit der kleinstmöglichen Wirkung, wählen. Auch die letzten beiden fundamentalen Größen sind aus der Kraft abgeleitet: Druck und Intensität . Die Bezugsgröße ist in beiden Fällen die Fläche. Druck bezeichnet die Kraft pro Fläche. Die offizielle Einheit „ Pascal “, ist etwa aus der Meteorologie bekannt, wo sie die Gewichtskraft beschreibt, die Luftmassen auf die Erdoberfläche ausüben. Intensität ist das Verhältnis von Leistung zu Fläche. Mit ihr lässt sich etwa die Sonnenenergie beschreiben, die pro Zeiteinheit auf die Oberfläche einer Solarzelle trifft. Nach diesem kombinatorischen Muster lassen sich noch zahlreiche weitere physikalische Größen bilden, die mitunter kryptische Bezeichnungen wie Elektronenvolt, Planck-Kreisfrequenz oder Wärmedurchlasswiderstand tragen. Doch auch hinter ihnen verbergen sich letztlich stets nur Spielarten der drei Dimensionen Zeit , Länge und Masse . Grundlegende Zusammenhänge von Zeit, Länge und Masse Kräfte bewegen Materie durch Zeit und Raum Ende des 18. Jahrhunderts begannen die Naturforscher sich zunehmend auch für ihre drei Rechendimensionen selbst zu interessieren. Was waren Raum, Zeit und Materie eigentlich? Den Raum glaubte man dank Euklids Geometrie im Griff zu haben: Er wurde durch die Dimensionen Höhe, Breite und Tiefe bestimmt. Der rätselhafte Zeitbegriff war aus physikalischer Sicht lediglich etwas gleichförmig Dahinfließendes, das sich durch einen beliebigen regelmäßigen Vorgang, wie das Ticken einer Uhr messen ließ. Am schwersten zu fassen war die Materie. Sie barg nicht nur die Masse und deren Eigenschaften, Trägheit und Gravitation, sondern zeigte im Gegensatz zu Raum und Zeit unzählige Erscheinungsformen. Offenbar gab es verschiedene Sorten von Materiebausteinen. Wie man sich den Aufbau dieser elementaren Einheiten aber vorzustellen hatte, blieb rätselhaft. Ein erster Vorschlag kam von dem englischen Naturforscher John Dalton . 1803 stellte er in Manchester das erste moderne Atommodell auf, das sich als so erfolgreich erwies, dass es fast das ganze 19. Jahrhundert hindurch bestand haben sollte. Dabei hatte Dalton eigentlich nur eine Idee aus dem antiken Griechenland neu aufgegriffen: Der Philosoph Demokrit hatte bereits mehr als zweitausend Jahre zuvor erklärt, dass alle Materie aus winzigen Teilchen aufgebaut sei, die er Atome nannte. Ihnen lag die Überlegung zugrunde, dass wenn man ein Ding immer und immer wieder teilt, man zwangsläufig früher oder später an einen Punkt kommen müsse, ab dem eine weitere Teilung unmöglich sei. Dalton beschrieb diese kleinsten Teilchen als kugelförmig und unzerstörbar. Elemente waren Varianten dieser Atome, jedes von ihnen mit einer unterschiedlichen Masse behaftet; Atome, die zum gleichen Element gehörten, waren jeweils völlig identisch. Einige zentrale Eigenschaften jener grundlegenden Bausteine hatte Dalton damit bereits erstaunlich genau beschrieben. Wer mehr wissen will: Newton, Isaac (1686): „Philosophiae Naturalis Principia Mathematica“, University of Cambridge Digital Library. Bildnachweis: Mond: https://en.wikipedia.org/wiki/Moon#/media/File:FullMoon2010.jpg Ein kleiner Beweis, dass Newtons Mechanik (meistens) funktioniert
- Der logische Vierklang
Fortsetzung von "Die Ursprünge der Mathematik" Zufallsfund in Alexandria Der Papyrus Rhind zählt heute zu den großen Schätzen des Britischen Museums. Benannt ist er nach dem jung verstorbenen schottischen Anwalt Alexander Henry Rhind , der ihn 1858 in den engen, staubigen Gassen von Luxor aufgestöbert hatte. Rhind war wegen eines Lungenleidens nach Ägypten gekommen. Die trockene Luft, die seinen Atemwegen guttat, hatte auch altes Wissen erhalten: Die umfangreiche und vielseitige mathematische Aufgabensammlung, die er fand, gibt uns einen faszinierenden Einblick in das hoch entwickelte Mathematikverständnis der frühen Kulturen im Fruchtbaren Halbmond , ohne das Leistungen, wie der Bau der Pyramiden undenkbar gewesen wären. Der Papyrus macht aber auch deutlich, dass sich dieses Verständnis von unserem heutigen noch grundlegend unterschied. Die Auseinandersetzung mit den Zahlen hatte einen handwerklichen Charakter. Mathematische Behauptungen waren dann gültig, wenn sie sich mit Beobachtungen deckten. Vermutete Zusammenhänge, wie der bereits bekannte Satz des Pythagoras , wurden experimentell überprüft. Euklid Wenn uns diese Vorgehensweise heute befremdlich anmutet, liegt das an Euklid von Alexandria . Über das Leben des Griechen um das Jahr 300 v. Chr. ist fast nichts bekannt, doch wir dürfen davon ausgehen, dass er in der hellenistischen Metropole am Nil mit dem mathematischen Wissen der Ägypter und anderer Völker der antiken Welt in Berührung kam. Euklid etablierte eine neue Betrachtungsweise, die sich nicht mehr mit der empirischen Überprüfung von Vermutungen zufriedengab. Das neue Denken war Ausgangspunkt einer tiefgreifenden Revolution, die unser Mathematikverständnis bis heute prägt. Alles eigentlich ganz logisch… Den strukturierten Weg zur mathematischen Wahrheit fand Euklid in der philosophischen Disziplin der Logik . Auf ihrer Grundlage beschrieb er erstmals eine Methode, nach der seitdem mathematisches Wissen dargestellt, überprüft und weiterentwickelt wird. Dargelegt hat er sie in seinem Werk „Die Elemente“, einem der bis heute größten Bestseller der Wissenschaftsgeschichte. Allein seit Erfindung des Buchdrucks wurde es mehr als tausendmal aufgelegt und für die Studenten Europas und des Vorderen Orients war es von der Antike bis zum Ende des 19. Jahrhunderts das Standardwerk für Geometrie. Euklids Vorgehensweise beruht auf drei Pfeilern: Der erste Pfeiler sind Definitionen . Sie beschreiben das betrachtete Objekt rein sprachlich. Der zweite Pfeiler besteht darin, Vermutungen über Eigenschaften des definierten Objekts zu formulieren. Der dritte Pfeiler ist deren logische Überprüfung. Gelingt sie, ist ein Beweis erbracht – er erhebt die Vermutung in den Rang eines mathematischen Satzes . Die Definition eines Objekts kann etwa ganz einfach lauten: „Ein Rechteck ist ein Viereck, dessen Innenwinkel alle rechte Winkel sind.“ Eine Vermutung, die man über das Rechteck anstellen kann, wäre beispielsweise: „Die Summe der Innenwinkel eines Rechtecks beträgt 360°“. Da ein rechter Winkel 90° hat, ist die Aussage leicht zu beweisen. Doch das erklärt weder, was ein Viereck und ein rechter Winkel ist, noch warum letzterer immer 90° hat. Der Beweis baut also auf anderen Definitionen und Aussagen auf, die ihrerseits erst definiert und bewiesen sein müssen, bevor sich ein mathematisches Theorem aus ihnen ableiten lässt. Auf diese Weise wird die gesamte Mathematik zu einer komplexen Hierarchie von aufeinander aufbauenden Definitionen und logischen Beweisführungen. Das Ende des „Warum?“ Wo aber ist das Fundament, das die Pfeiler dieser Argumentationskette trägt? Hier kommen die Axiome ins Spiel. Sie stellen die unterste Ebene der Hierarchie dar, die Statik des gesamten Konstrukts hängt von ihnen ab. Axiome sind einfache Aussagen, die sich unmittelbar nachvollziehen lassen und daher keines Beweises mehr bedürfen. Sie sind unstrittig, weil sie der Anschauung und damit letztlich dem „gesunden Menschenverstand“ entsprechen. So wie die Aussage: „Eine Gerade ist in einem Raum der kürzeste Weg zwischen zwei voneinander verschiedenen Punkten.“ Bei genauerer Betrachtung zeigt sich, dass die meisten Axiome uns etwas darüber sagen, wie wir den Raum wahrnehmen. Ohne Raum ist Mathematik nicht vorstellbar; nur weil es ihn gibt, können die Objekte unserer Betrachtung existieren und unterschieden werden. Kinder stellen gerne „Warum-Fragen“. Gibt man ihnen eine Erklärung, fragen sie nach dem Warum der Erklärung. Irgendwann kommt der Punkt, wo man – vielleicht ein bisschen hilflos – sagt: Weil es einfach so ist! Genauso ist es mit den Axiomen. Sie sind nicht weiter zerlegbar. Sie enthalten keine Beschreibung mehr, sondern stellen nur noch Anforderungen an den beschriebenen Gegenstand. Nur Axiome, Definitionen und bereits bewiesene Sätze stehen zur Verfügung, um Vermutungen zu bestätigen und so mathematisches Wissen zu erweitern. Das Zusammenspiel von Axiom , Definition , Vermutung und Beweis ist der Vierklang unseres heutigen Mathematikverständnisses. Mathematik ist keine empirische Wissenschaft Die mathematische Beweisführung hat Entsprechungen in den anderen Wissenschaften: Der Vermutung entspricht die Hypothese, der Beweis dem Experiment, der Satz der Theorie. Der entscheidende Unterschied besteht darin, dass die von den Griechen eingeführte Methodik keine empirische, sondern allein eine philosophische Überprüfung voraussetzt, einen rein logisch hergeleiteten Nachweis, der nur eine Interpretation zulässt. Wissenschaftliche Theorien haben hingegen ein Verfallsdatum; ihre Erkenntnisse sind immer nur vorläufig und können jederzeit durch neue Einsichten widerlegt werden. (Ein schönes Beispiel dafür ist der Wechsel vom geozentrischen zum heliozentrischen Weltbild.) Den mathematischen Gesetzen aber mutet etwas Ewiges, Absolutes an. Es ist die Widerspruchsfreiheit, die ihnen ihre unglaubliche Haltbarkeit verleiht und Welterklärungswerkzeuge von erstaunlicher Stabilität entstehen lässt – wobei Widerspruchsfreiheit noch nichts über Wirklichkeit aussagt. Dass ein logischer Beweis nach Jahrtausenden noch genauso gültig ist, wie an dem Tag, an dem er zum ersten Mal erbracht wurde, verleiht der Mathematik eine Einzigartigkeit und Faszination, die sie – zumindest für viele Mathematiker – zur reinsten und schönsten aller Wissenschaften macht, zu der Disziplin, die sich der Wahrheit an weitesten anzunähern vermag. Vor 2.300 Jahren haben die Griechen aus einer Erfahrungswissenschaft eine abstrakte Kunst gemacht. Von diesem festen Fundament aus ließen sich nun, wie wir noch sehen werden, nach und nach die Geheimnisse der verschiedenen mathematischen Disziplinen Arithmetik , Geometrie , Algebra , Analysis und Stochastik erforschen … Wer mehr wissen will: Euklid (2003) „Die Elemente“, Harri Deutsch. Beutelspacher, Albrecht (2010): „Kleines Mathematikum“, C.H. Beck. Courant, Richard / Robbins, Herbert (2010): „Was ist Mathematik?“, Springer. Pickover, Clifford A (2014): „Das Mathebuch“, Librero.
- Diesen Monat erscheint das Buch!
Fortsetzung von "Worum geht es in diesem Blog?" Was wir von der Welt wissen sollten Vor etwa einem Jahr hat mich der Wiley-Verlag kontaktiert, dass er mein Buch gerne verlegen möchte. Nun ist es soweit. Nach dem heutigen Stand der Dinge, wird das Buch, wie geplant, am 24. April erscheinen. Eine fixe Idee Vor über 12 Jahren hatte ich die fixe Idee, meine persönlichen „Bildungslücken“ schließen zu wollen. Ich habe Wirtschaftswissenschaften studiert und fühlte mich daher im Bereich der Sozialwissenschaften und Sprache einigermaßen aufgestellt, nicht aber in den Naturwissenschaften und auch nicht wirklich in Bereichen wie der Philosophie, die mir merkwürdig willkürlich erschien. Also fing ich einfach mal an. Weil ich es in der Schule anfangs noch gut fand, habe ich mir das Thema Chemie herausgepickt. Der große Physiker und Didaktiker Richard Feynman hat sinngemäß einmal gesagt, dass man dann etwas verstanden hat, wenn man es mit seinen eigenen Worten wiedergeben kann. Also habe ich angefangen, nicht nur zu lesen oder mir auf Youtube Videos zur Chemie anzusehen, sondern mir auch Notizen dazu zu machen. Irgendwann habe ich gemerkt, dass ich mit meinen Verständnis von Chemie nicht weiterkam. Mir fehlten Grundlagen aus der Physik – über den Aufbau der Materie und das Wesen des Elektromagnetismus, das den chemischen Verbindungen zugrunde liegt. Also habe ich das Thema Chemie auf Eis gelegt und mich der Physik zugewandt, die einem unter anderem auch relativ rasch lehrt, dass man an dem Thema Mathematik nicht vorbeikommt, wenn man die Naturgesetze beschreiben will. Zusammenhänge Mit der Zeit wurde mir klar, dass alle Disziplinen, von denen wir die meisten ja auch als Schulfächer kennen, über eine bestimmte Logik miteinander verbunden sind. Mathematik ist eine universelle Werkzeugkiste, eine abstrakte Sprache, mit deren Hilfe sich Vorgänge in der Natur aber auch bestimmte gesellschaftliche und ökonomische Phänomene beschreiben lassen. Und sie kann, wenn man beispielsweise die Unendlichkeit betrachtet, auch zu metaphysischen Fragestellungen führen. Als Schüler war mir das nicht bewusst. Physik ist die Beschreibung der Natur, und Chemie genaugenommen nur eine bestimmte spezielle Physik. Leben, das Thema der Biologie , kann man auch rein als eine Kette von biochemischen Reaktionen beschreiben. Doch wie so oft, ist das Ganze mehr als die Summe seiner Teile. Will man die biologische Artenvielfalt erklären, kommt man mit physikalischem Determinismus nicht weiter. Die Evolution gehorcht anderen Gesetzen. Das entwickelte Bewusstsein, das – zumindest auf der Erde – nur uns Menschen auszeichnet, ist ebenfalls ein Ergebnis der biologischen Evolution, in gewisser Weise ist es nur eine unter unzähligen Strategien, die das Leben verfolgt, um sich selbst zu erhalten. Bewusstsein aber beinhaltet eine neue Möglichkeit: Wir können uns „bewusst“ für oder gegen etwas entscheiden. Damit entsteht die Frage, wie man sich in bestimmten Situationen verhalten soll. Sprache , auch sie ist in ihrer Differenziertheit ein menschliches Alleinstellungsmerkmal, ermöglicht es uns, unsere Gedanken mit anderen zu teilen. Die Philosophie bedient sich der Sprache, um strukturierte, rationale Gedanken mit anderen zu teilen. Diese philosophischen Gedanken, gleich, ob wir sie persönlich für richtig halten oder nicht, haben tatsächlich die Geschichte der Menschheit ganz entscheidend geprägt: Sie sind der Versuch, die oftmals verwirrende Welt um uns herum erklären zu wollen. Letztlich sind die Wissenschaften aus der Philosophie hervorgegangen. Zuerst ab dem 17. Jahrhundert die Naturwissenschaften, im 19. Jahrhundert dann die sozialwissenschaftlichen Disziplinen, insbesondere die Gesellschaftswissenschaften und die Ökonomie . Oftmals hat sich das Denken auch interdisziplinär beeinflusst. So hat etwa das Bevölkerungs-Wachstumsgesetz des Ökonomen Thomas Robert Malthus den Biologen Charles Darwin zu seiner Selektionstheorie inspiriert. Wissenschaftsgeschichte Ein anderes Phänomen, das mir beim Schreiben klar wurde: Die Theorien, die unser heutiges Verständnis der Welt prägen, sind nicht vom Himmel gefallen, sondern das Ergebnis von Entwicklungsprozessen, deren Ursprünge teils tausende von Jahren zurückliegen. Ich fand es faszinierend, diese Entwicklungen Schritt für Schritt nachzuvollziehen. Unser heutiges Verständnis der modernen Physik, das durch Einstein und die Quantenphysiker begründet wurde, hätte ohne die Vorarbeit von Empedokles, Ptolemäus, Kopernikus, Kepler, Galilei, Newton, Faraday, Maxwell und vielen anderen nicht entstehen können. Könnte das jemanden interessieren? Irgendwann kam dann der Wunsch, das, was ich gelernt habe auch so aufzuschreiben, dass es für andere gut und hoffentlich auch interessant zu lesen ist. Auch das ist etwas, wie ich bald erfahren habe, das man lernen und lange, lange üben muss. Danke Soweit etwas über die Entstehungsgeschichte dieses Buches. Sie wäre allerdings nicht vollständig, wenn ich nicht die vielen Freunde erwähnen würde, die einzelne Kapitel oder auch das gesamte Buch mit ihrer hohen Fachkompetenz durchgesehen und verbessert haben. Danke Gerhard, Dagmar, Stephan, Ralf, Udo, Stefanie, Jochen, Selim, Volker, Hans-Michael, Manuel, Lutz, Achim und Silke! Wer mehr wissen will: Feynman, Richard P. (2003): „Es ist so einfach“, Piper. Wiley-VCH - Was wir von der Welt wissen sollten Amazon - Was wir von der Welt wissen sollten
- Vom Anfang bis zum Beginn der Antike
Fortsetzung von "Eine (sehr) kurze Geschichte der Menschheit" Eine neue Menschenart erobert die Welt Vor 300.000 Jahren leben alle Angehörigen der neuen Menschart Homo sapiens in Afrika in kleinen, miteinander eng verwandten Gruppen von Jägern und Sammlern. Zu diesem Zeitpunkt ist Sapiens noch nicht der einzige Vertreter seiner Gattung. Weitere Homo-Arten, etwa der Neandertaler , der Homo floresiensis oder der Denisova-Mensch , streifen in Eurasien umher. Wie zuvor Erectus verlässt auch Sapiens den angestammten afrikanischen Kontinent. Die kleine Gruppe von möglicherweise nicht mehr als 10.000 Menschen, die vor weniger als 100.000 Jahren in den Nahen Osten vorstößt, umfasst die Mütter und Väter aller nichtafrikanischen Ethnien. Europäer, Asiaten, australische und amerikanische Ureinwohner sind daher bis heute genetisch viel enger miteinander verwandt, als Afrikaner untereinander. Die Auswanderer folgen umherziehenden Wildtierherden und zerstreuen sich daher schon bald in alle Winde. So gelangen sie vor 70.000 Jahren nach Südasien und vor 50.000 Jahren nach Australien. Vor ca. 45.000 Jahren erreicht Sapiens das eiszeitliche Europa, wo er auf einen anderen Nachfahren des Erectus trifft. Der Neandertaler ist wahrscheinlich ebenfalls in der Lage zu sprechen und abstrakte Symbole zu gebrauchen. Doch schon bald nach dieser Begegnung verschwindet der Cousin. Hat der moderne Mensch ihn aus dem gemeinsamen Lebensraum verdrängt? Hat er ihn gar absichtsvoll ausgerottet? Oder hat das Verschwinden des Homo neanderthalensis nichts mit der Ankunft der neuen Menschenart zu tun? Niemand weiß es. Allerdings müssen sich die beiden Arten auch sehr nahegekommen sein, denn heute tragen alle Eurasier zwei bis vier Prozent Neandertaler-Gene in ihrem Erbgut. Da für den Menschen nur wenige Pflanzen und Tiere essbar sind – seine Fähigkeit die komplexen Glukosemoleküle der Blätter zu verdauen, hat er im Laufe der Evolution verloren – ist er meist auf der Suche; nur selten findet er Orte, an denen er länger verweilen kann. Vor 20.000 Jahren werden Wölfe die ersten tierischen Gefährten des Menschen. Über viele Generationen hinweg domestiziert er sie zu Hunden und greift damit erstmals direkt in die biologische Evolution ein. Die kleinen isolierten Nomadengruppen sprechen schon bald tausende völlig verschiedene Sprachen. In den nördlichen Breiten hellt sich die Haut der Menschen nach und nach auf – ein evolutionärer Vorteil bei der lichtabhängigen Synthese von Vitamin D. Vor etwa 15.000 Jahren gelangen Nomaden von Sibirien über eine eiszeitliche Landbrücke auf den amerikanischen Kontinent. In wenigen Jahrtausenden durchqueren sie die riesige Landmasse bis zu ihrer Südspitze. Neben einigen Nagetierarten ist der Mensch nun die einzige höhere Spezies, die auf der ganzen Welt heimisch ist. Im Schweiße deines Angesichts Bald nachdem die ersten Menschen Amerika betreten, geht plötzlich die Eiszeit zu Ende. 100.000 Jahre lang hatte sie die nördliche Halbkugel in ihrem frostigen Griff. Die neue Warmzeit, das Holozän, verbessert die Lebensumstände in Eurasien drastisch. Insbesondere in einem halbmondförmigen Bogen, der sich vom Nil über Anatolien bis zum Norden des Persischen Golfs spannt, sorgt ein mildes und hinreichend feuchtes Klima für hervorragende Lebensbedingungen; im Mündungsdelta der beiden Ströme Euphrat und Tigris sind sie geradezu paradiesisch. Vielleicht liegt hier der Garten Eden, von dem die Bibel später berichten wird. Im Fruchtbaren Halbmond können sich die Jäger und Sammler aus einer üppigen Natur bedienen. Die Bevölkerung wächst, auf einmal wird es eng im Paradies. Einige der hier sprießenden Süßgräser haben die Nomaden bereits seit langem auf dem Speiseplan. Ihre Samen lassen sich gut aufbewahren und in zerriebenem Zustand zu Fladen backen. Das Wildgetreide belohnt jede für das Sammeln eingesetzte Kalorie mit der Rückgabe der 50-fachen Energiemenge. Was liegt näher, als die Gräser gezielt an Ort und Stelle wachsen zu lassen, anstatt sie mühsam in der Wildnis zu suchen? Die wilden Weizenarten Emmer und Einkorn, sowie Gerste, erweisen sich als besonders geeignet für den Anbau. Die Menschen verschaffen ihnen Raum und sorgen durch gezielte Auslese dafür, dass sich nur die ertragreichsten Pflanzen vermehren. Ein weiterer glücklicher Umstand will, dass in der Region einige große Säugetierarten leben, die sich ebenfalls für eine Domestizierung eignen. Aus friedlichen Auerochsen und gutmütigen Mufflons werden mit der Zeit Hausrinder und Schafe. Mit der Neolithischen Revolution , den neuen Methoden, Ressourcen aus der Natur zu extrahieren, die sich vor 12.000 Jahren nach und nach etablieren, beginnt die Jungsteinzeit . Der Übergang vollzieht sich nicht von heute auf morgen; er ist keine bewusste Entscheidung, sondern ein allmähliches, jahrtausendelanges Hineingleiten in eine neue Lebensweise. Während sie weiterhin jagen und sammeln, experimentieren die Menschen mit Pflanzen und Nutztieren. Erstmals lassen sich so Gemeinschaften von mehr als einigen Dutzend Menschen ernähren und erstmals trennen sich damit auch die Wege menschlicher Gesellschaften. Die zunächst noch kleine Minderheit, die die neue Lebensweise annimmt, sieht sich schon bald mit Problemen konfrontiert, die Jägern und Sammlern unbekannt sind. Vielleicht ist die biblische Geschichte von Kain, der seinen Bruder Abel erschlägt, eine Parabel auf die Konflikte, die sesshafte Ackerbauern und nomadische Viehzüchter miteinander austragen, wenn das Vieh die Felder abfrisst oder zertrampelt. Mit persönlichem Besitz entsteht erstmals auch materielle Ungleichheit zwischen den Mitgliedern der Gemeinschaft. Das verdichtete Zusammenleben bedeutet zudem, dass Krankheiten wie Pocken, Masern, Tuberkulose, Grippe und Pest von domestizierten Tieren auf den Menschen übergehen und ihn von nun an ständig begleiten werden. Der neuer Weg ist ohne ein Zurück Ob jene, die versuchen, die Natur zu zähmen, die Wette gewinnen werden, ist anfangs alles andere als gewiss. Die Arbeit auf den Feldern ist anstrengender, langwieriger und ungesünder als das Jäger- und Sammlerleben. Die menschliche Anatomie ist darauf ausgerichtet, lange durch die Savanne zu laufen und nicht, mit gekrümmtem Rücken Äcker zu bestellen. Die Kost der Landwirte ist eintönig und die Zucker der Süßgräser , die nun Proteine und Obst ersetzen, sind schlecht für die Zähne. Der Mensch isst sein Brot im Schweiße seines Angesichts, ein von Wind und Wetter abhängiger Diener des Getreides, für den Missernten den Hungertod bedeuten können. Wahrscheinlich ist die Lebenserwartung der ersten Bauern kürzer als die der umherziehenden Wildbeuter. Doch für jene, die sich auf die neue Lebensweise einlassen, gibt es kein Zurück. Die wachsende Bevölkerung zwingt sie, dem Land immer höhere Erträge abzutrotzen. Die Bebauung vorhandener Felder wird intensiviert, immer neue Flächen werden unter den Pflug genommen. Äcker, Weiden, Dörfer, Wege, Zäune und Gräben verändern die Landschaft. Das stabile Klima der Warmzeit, Erfahrung und verbesserte Anbaumethoden machen die Ernteerträge mit der Zeit berechenbarer. Kommt es zu Auseinandersetzungen mit benachbarten Jägern und Sammlern, sind die bäuerlichen Gemeinschaften nun meist allein schon zahlenmäßig überlegen. Die neue Überlebensstrategie wird zum Erfolgsmodell. Nach Euphrat und Tigris entstehen auch am Nil, Indus, Jangtsekiang und Gelbem Fluss landwirtschaftliche Kulturen. Von Anatolien aus gelangt die neue Lebensform nach Südosteuropa. Zu Rindern und Schafen gesellen sich mit der Zeit Pferde, Esel, Kamele und Wasserbüffel. Die großen Säugetiere liefern nicht nur Milch und Fleisch, sondern leisten den Menschen mit ihrer Muskelkraft auch bei Feldarbeit und dem Transport schwerer Lasten unschätzbare Dienste. Technologiesprünge Die Erfindung der Keramik vor 8.000 Jahren erlaubt es, Getreide lange und sicher zu lagern. Vor 7.000 Jahren ergibt sich daraus der nächste Technologiesprung: Das Brennen von Ton hat die Menschen gelehrt, sehr hohe Temperaturen zu erzeugen. Dabei entdecken sie zufällig, dass sich damit auch Kupfer aus dem Gestein lösen lässt. Schon bald entstehen auf dem Balkan und in der Wüste Negev Minen für den neuen Werkstoff. Die aus Anatolien stammenden Ackerbauern haben zu dieser Zeit die einheimischen Jäger- und Sammlergemeinschaften Süd- und Mitteleuropas bereits fast vollständig verdrängt. Nun kommt es zu einer weiteren Massenimmigration: Angehörige der viehzüchtenden Jamnaja-Kultur , ursprünglich nördlich des Schwarzen Meeres beheimatet, lassen sich in Mittel- und Nordeuropa nieder. Die Nomaden aus dem Osten – sie verfügen über ein Enzym, das es ihnen erlaubt, Milchzucker problemlos zu verdauen – vermischen sich mit den anatolischen Ackerbauern und den wenigen noch im Norden des Kontinents verbliebenen Wildbeutern. Eine weitere Wanderbewegung der Jamnaja führt nach Südosten in den Iran und ins nördliche Indien. Aus der Ursprache der Pastoralkultur vom Schwarzen Meer entstehen durch geographische Isolation nach und nach die verschiedenen Indoeuropäischen Sprachen . Im Zweistromland und am Nil entwickeln sich vor 6.000 Jahren die ersten Hochkulturen, komplexe, hierarchische Gesellschaften mit zentralen Verwaltungsstrukturen. Teile der Bevölkerung leben nun in Städten in denen sich mit der Zeit Berufe und ein grundlegendes Verständnis von Astronomie , Geometrie und Arithmetik entwickeln. Erste piktographische Schriften entstehen. Die Erfindung des Rads revolutioniert das Transportwesen und ausgeklügelte Bewässerungssysteme erhöhen die landwirtschaftliche Produktivität. Vor 5.000 Jahren kommt es zur nächsten wichtigen technologischen Neuerung: Die Kupferschmiede entdecken, dass eine kleine Beimischung von Zinn eine harte Legierung entstehen lässt: Bronze . Die daraus gefertigten Werkzeuge und Waffen sind zwar spröde, aber sehr hart und stumpfen daher nicht so schnell ab wie die Kupfergerätschaften. Der animistische Spiritualismus der Jäger und Sammler ist polytheistischen Religionen gewichen. Die neuen Götter fordern von den Menschen Verhaltensweisen, die dem Zusammenleben dienlich sind. Religion ist ein Herrschaftsinstrument geworden, der Herrscher selbst wird zu einer göttlichen Gestalt. Zu seinen Ehren werden monumentale Bauten errichtet, die von einem außerordentlichen Verständnis von Geometrie, Ingenieurskunst und Arbeitsorganisation zeugen. Fähigkeiten, die es nun auch erlauben, Kriege gegen die Nachbarn zu führen; Gefangene werden versklavt – der Mensch hat den Menschen zu einer Ware und sich selbst zu seinem größten Feind gemacht. Weitere Hochkulturen entstehen um 2.800 v. Chr. entlang des Indus und um 2.200 v. Chr. in China zwischen Gelbem Fluss und Jangtsekiang . Im 2. vorchristlichen Jahrtausend erblüht in Kleinasien das Reich der Hethiter , die erste Hochkultur, abseits eines großen Flusses. Auf Kreta entsteht mit der Minoischen Kultur die erste europäische Zivilisation. Die Achäer - sie sprechen wie die Hethiter eine indoeuropäische Sprache - errichten bald danach auf dem Peloponnes die Mykenische Kultur , die erste Hochkultur auf dem europäischen Festland. Dunkle Zeiten Um 1.200 v. Chr. vollzieht sich im östlichen Mittelmeerraum innerhalb weniger Jahrzehnte ein apokalyptischer Umbruch. Die Städte der Hethiter, Mykener und Minoer werden zerstört, ihre Kulturen verschwinden fast über Nacht im Dunkel der Geschichte – vielleicht hat der Mythos um die Stadt Troja in diesen Ereignissen seinen Ursprung. An Euphrat und Nil verlieren die babylonischen Könige und die ägyptischen Pharaonen an Macht und Einfluss. Die Gründe für den drastischen Wandel bleiben rätselhaft. Die Ereignisse fallen jedoch mit einer werkstofflichen Revolution zusammen, die sich zu dieser Zeit in der Region vollzieht: Die Menschen beginnen Eisen zu verhütten, ein neues Material, dessen Eigenschaften denen der brüchigen Bronze weit überlegen sind. Die Zeit zwischen 1.150 und 750 v. Chr. sind „ Dunkle Jahrhunderte “, über deren Verlauf wir nur wenig wissen. Während sich die neue Eisentechnologie auf dem eurasischen Kontinent ausbreitet, zerfallen die ehemaligen Metropolen des Nahen Ostens und Südosteuropas. Ab dem späten 9. Jahrhundert v. Chr. beruhigt sich die Situation. Im Gebiet des heutigen Libanon tritt das semitische Volk der Phönizier in Erscheinung. Sie fahren zur See, treiben Handel und errichten im Mittelmeerraum ein Netz von Siedlungen. Mit ihren Schiffen gelangt auch die revolutionäre phönizische Alphabetschrift nach Griechenland und Italien. Die neue Schrift wird auch von den südlich des phönizischen Siedlungsgebiets lebenden Judäern übernommen. Dort trägt sie dazu bei, eine Idee zu verbreiten, die großen Einfluss auf die Geschicke eines wesentlichen Teils der Menschheit haben wird: Jüdische Gelehrte zeichnen ihre alten religiösen Überlieferungen auf. Wie alle Religionen kennen auch sie einen Schöpfungsmythos und eine Beschreibung der Menschheitsgeschichte, mehr oder weniger verschüttete Erinnerungen an die Entwicklung seit dem Neolithikum. Doch in einem zentralen Punkt unterscheidet sich die Religion der Juden von denen ihrer Nachbarn: Sie glauben an nur einen einzigen Gott. Wer mehr wissen will: Krause, Johannes / Trappe Thomas (2021): „Hybris – Die Reise der Menschheit zwischen Aufbruch und Scheitern“, Propyläen. Vernot, Benjamin et al. (2016): „Excavating Neandertal and Denisovan DNA from the genomes of Melanesian individuals” in: Science, Band 352 Nr. 6282, S. 235–239. Haak, Wolfgang et al. (2015): „Massive migration from the steppe was a source for Indo-European languages in Europe” in: Nature, 522. Diamond, Jared (2006): „Arm und Reich: Die Schicksale menschlicher Gesellschaften“, Fischer.
- Alles über Geld!
Fortsetzung von "Was ist Ökonomie?" Der lange Weg der Kaurischnecken Vor etwa 7.000 Jahren entstanden erstmals städtische Siedlungen, die groß genug waren, um auch Spezialisten ernähren zu können. Töpfer, Köhler, Maurer, Schneider, Schuster, Schmiede, Zimmerleute und Schreiber sorgten dafür, dass sich Quantität, Qualität und Vielfalt der Güter nun rasant entwickeln konnten. Allerdings entstanden damit auch neue Probleme: Für einen Jäger war es nun nicht mehr möglich, den von ihm erlegten Hirsch einfach beim Töpfer gegen Tonwaren einzutauschen, wenn dieser drei Tagesmärsche entfernt wohnte und vielleicht gar keinen alten toten Hirsch brauchte, sondern Holzkohle für seinen Brennofen oder ein lebendes Schaf. Der einfache Tauschhandel, der für Jäger- und Sammlergesellschaften noch funktionierte, hatte eine praktische Grenze erreicht. Eine naheliegende Lösung waren Zwischentauschmittel . Manche Güter wie Rinder oder Salz hatten einen universellen, weil an ihren praktischen Nutzen gebundenen Wert und wurden daher fast überall akzeptiert. Doch diese Tauschmittel waren schwer, teilweise vergänglich und mussten über große Entfernungen transportiert werden. Die Lösung des Problems ist eine der bis heute erstaunlichsten Erfindungen der Menschheit: Man sprach wertlosen Dingen einfach einen Wert zu. Sie mussten nur klein, beständig, transportabel und nicht beliebig vermehrbar sein, wie beispielsweise besondere Steine oder Muscheln. Die Akzeptanz eines völlig nutzlosen Gegenstands als Zahlungsmittel war eine reine Konvention aller Beteiligten, gegründet allein auf gegenseitigem Vertrauen. Ein Mythos, der nur deshalb Realität werden konnte, weil alle an ihn glaubten. Die erstaunliche Effizienz eines Mythos Manche Mythen sind von außerordentlicher Effizienz. In weiten Teilen Asiens und Ostafrikas etwa wurde das Gehäuse der Kaurischnecke zum universellen Zahlungsmittel und blieb es mancherorts bis zum Ende des 19. Jahrhunderts. Mit der Zeit entdeckten die Menschen, dass Edelmetalle wie Gold und Silber noch bessere Zwischentauschmittel waren als zerbrechliche, nicht teilbare und nicht fälschungssichere Steine, Muscheln oder Schneckengehäuse. Wie Salz und Rinder hatten die Metalle als Schmuckobjekte zudem einen eigenen Tauschwert, eine Eigenschaft, die das Vertrauen in das neue System enorm beförderte. Die ersten Münzen – das erste Geld im heutigen Sinne – entstanden im 7. Jahrhundert v. Chr., unabhängig voneinander in China, Indien und im östlichen Mittelmeerraum. Um 650 v. Chr. schlug das Volk der Lyder im Westen der heutigen Türkei das wahrscheinlich erste Hartgeld überhaupt: Kleine, runde, Metallstücke aus einer Gold-Silber-Legierung. Das Wichtigste aber war der aufgeprägte Löwenkopf, das Hoheitssymbol des Königs. Damit stand der Herrscher mit all seiner Macht symbolisch für den Wert der Münze ein. Das Zeichen wurde somit weitaus wichtiger als der Eigenwert des Metalls, der je nach Silberanteil in der Legierung ohnehin beträchtlich Schwankungen unterlag. Der Löwenkopf hatte aus der Konvention eine politische Garantie gemacht. Alles über Geld - das sagt Aristoteles Bereits 150 Jahre nach dem ersten lydischen Münzschlag fanden sich Geldprägestätten im gesamten Mittelmeerraum. Noch einmal 150 Jahre später war Geld überall in der antiken Welt eine Selbstverständlichkeit. Nur wenige andere Ideen dürften sich damals rascher durchgesetzt haben. Wenig überraschend kamen die ersten Menschen, die über das neue Phänomen nachdachten, aus Griechenland. Die Überlegungen, die Aristoteles in der „Nikomachischen Ethik“ zum Wesen des Geldes anstellt, sind die erste uns bekannte wirtschaftswissenschaftliche Theorie und könnten einem modernen Standardwerk der Ökonomie entstammen. In seinem fünften Buch über die „Gerechtigkeit“ beschreibt Aristoteles Geld als ein rein geistiges Konstrukt, das lediglich „kraft Übereinkunft“ besteht. Geld ist ein Gradmesser für die Intensität eines Begehrens. Es ermöglicht einen gerechten Tausch, weil es uns einen Vergleichsmaßstab für das relative Verhältnis unterschiedlicher Bedürfnisse liefert. Da es sich aufbewahren lässt, erlaubt Geld für künftige Bedürfnisse vorzusorgen. Und schließlich erkennt Aristoteles auch eine soziale Funktion, denn, so der Philosoph, „ohne solche Berechnung kann kein Austausch und keine Gemeinschaft sein“. In seiner „Politik“ warnt er davor, Geld zum Selbstzweck zu machen. Es soll den Menschen ein gutes Leben ermöglichen; wer es um seiner selbst willen hortet, gibt sich niedriger Gier hin. Daher ist es auch unredlich, für Geld Zinsen zu nehmen. Wichtiger als Reichtum ist vielmehr eine stabile Gesellschaft, die insbesondere von einer gerechten Verteilung des Wohlstands abhängt. Machen Gold und Silber reich? Dass der Eigenwert der Metalle die Zahlkraft der Münzen deckte, war eine wichtige Voraussetzung, um den Glauben an das abstrakte Tauschmedium zu etablieren. Dass während der Epoche der Römischen Kaiser die Münzen mit der Zeit immer kleiner und leichter wurden – ohne bemerkenswerterweise dabei an Kaufkraft zu verlieren – war in erster Linie Ausdruck einer zunehmenden Materialknappheit: Die Handelsbeziehungen wuchsen schneller als die Produktion der Edelmetalle. Das römische Münzsystem überdauerte den Untergang des Reiches – noch zur Zeit Karls des Großen wurden Preise in Silberdenaren ausgedrückt. Doch wirtschaftlich war das mediävale Europa gegenüber dem Nahen Osten ins Hintertreffen geraten. Der florierende Handel mit dem Morgenland bewirkte einen stetigen Abfluss des Münzgelds, so dass das europäische Mittelalter über Jahrhunderte von einem chronischen Silbermangel geplagt war. (Einige Historiker sehen heute in der Beschaffung der knappen Metalle sogar eines der wichtigsten Motive für die Kreuzzüge.) Dies änderte sich schlagartig, als die Spanier nach Entdeckung der Neuen Welt in Mexiko und Bolivien enorme Silbervorkommen fanden. Allein aus der bolivianischen Mine von Potosí wurden zwischen 1556 und 1783 45.000 Tonnen Silber gefördert und nach Spanien verbracht. Doch seltsamerweise brachte der Silberregen den katholischen Iberern keinen Reichtum. Sie fielen, ganz im Gegenteil, mit der Zeit wirtschaftlich mehr und mehr hinter das protestantische England zurück und sahen sich gleichzeitig mit einer massiven Inflation konfrontiert. Ganz offenbar hatte der Reichtum einer Nation nichts mit der schieren Menge an Edelmetallen zu tun, die sich in ihrem Besitz befand. Das Metall wird knapp Die Kolonialisierung und ein rasch wachsender internationaler Handel ließen nun große Mengen an Gold- und Silbermünzen um den Globus fließen. Die gehandelten Gütermengen stiegen dermaßen, dass Zahlungen mit Münzgeld kaum noch praktisch handhabbar waren. Ab dem 17. Jahrhundert begann daher das Papiergeld nach und nach die Münzen abzulösen. Die psychologische Hürde, die dabei überwunden werden musste, war noch gewaltiger als bei der Einführung des Hartgelds. Was konnte die Menschen dazu bewegen, ihr wertvolles Gold und Silber gegen einen Fetzen Papier einzutauschen, vom dem der Staat beliebige Mengen herstellen konnte? Die Antwort auf diese schwierige Frage war die Einführung von Goldstandards . Die aufstrebenden Industrie- und Handelsnationen garantierten den Besitzern von Papiergeld, ihre Banknoten jederzeit zu einem festgelegten Wechselkurs gegen Edelmetall umtauschen zu können. Bis Ende des 19. Jahrhunderts hatten praktisch alle Industrienationen Goldstandards eingeführt. Das zwang sie entsprechend große Mengen des wertvollen Elements zu horten. Gold erhielt dadurch den faktischen Status einer übergeordneten Weltwährung. Tatsächlich aber fielen Anspruch und Wirklichkeit von Anfang an auseinander. Die Papiergeldmengen wuchsen immer rascher und mit dem aufblühenden Bankenwesen etablierte sich neben den Banknoten nun zunehmend auch reines Buchgeld. Der Geldbedarf war in einem solchen Umfang gewachsen, dass die nationalen Goldreserven praktisch nur noch einen kleinen Teil der im Umlauf befindlichen Geldmenge decken konnten. In Kriegs- und Krisenzeiten gaben zudem viele Staaten der Versuchung nach, einfach mehr Scheine zu drucken. Wie Jahrhunderte zuvor die spanische Silberflut, löste auch dieser Geldregen keine Probleme, sondern heizte lediglich die Inflation an. Mit Beginn des Ersten Weltkriegs brach das System der Goldstandards zusammen. Zwei Wiederbelebungsversuche, jeweils nach den beiden Weltkriegen, scheiterten. Seit Anfang der 1970er Jahre ist die Welt wieder bei den Kaurischnecken angelangt. Fast 3.000 Jahre lang hatten sich die Menschen der Illusion hingegeben, dass Geld selbst ein Gut sei. Doch Goldmünzen und nationale Goldreserven waren zu keiner Zeit etwas anderes gewesen als der Versuch einer vertrauensbildenden Maßnahme . Geld ist nichts Dingliches, sondern eine Idee , die den Güteraustausch erleichtert, ein Schmiermittel, das nur deshalb funktioniert, weil alle an es glauben. Was aber, wenn nicht Geld, macht eine Nation dann reich? Die Antwort auf diese Frage kommt im nächsten Ökonomie-Blog… Wer mehr wissen will: Aristoteles (1975): „Die Nikomachische Ethik“, dtv. Aristoteles (1994): „Politik“, Rowohlt. Harari, Yuval Noah (2013): „Eine kurze Geschichte der Menschheit“, DVA. Ferguson, Niall (2010): „Der Aufstieg des Geldes“, List. Kaube, Jürgen (2017): „Die Anfänge von Allem“, Rowohlt. Money makes the world go round aus dem Musical "Cabaret"
- Wer soll herrschen?
Fortsetzung von "Was ist Gesellschaft?" Die politische Philosophie bei Platon Die Ursprünge der politischen Philosophie führen uns, wie so vieles Andere auch, ins antike Griechenland. Die Halbinsel war über lange Zeit ein Experimentierlabor, im dem sich verschiedene Gesellschaftsentwürfe , unmittelbar vergleichen ließen. In den Stadtstaaten , den Poleis, fanden sich neben Monarchien und Tyrannis auch aristokratisch und demokratisch verfasste Ordnungen sowie Mischformen der verschiedenen Verfassungselemente. Theben und Sparta waren in erster Linie aristokratisch organisiert, wobei Sparta auch demokratische Elemente, wie die Apella, die Volksversammlung, aufgenommen hatte. Athen, ursprünglich von Aristokraten und Tyrannen regiert, war während der klassischen Zeit eine Demokratie. Allerdings keine, die heutigen Maßstäben gerecht würde: Frauen, Bürger unter dreißig Jahren, Ausländer und Sklaven waren von der politischen Teilhabe ausgeschlossen; die Ausübung von Macht war stark an die Besitzverhältnisse gebunden. Die erste theoretische Analyse möglicher Staatsverfassungen verdanken wir Platon . In seiner „ Politeia “, in der er auch seine Ideen- und Seelenlehre darlegt, untersucht der Philosoph, was einen guten Staat ausmacht. Platon zieht dabei eine Parallele zum menschlichen Innenleben: Die drei von ihm beschriebenen Seelenanteile Begierde, Mut und Vernunft haben jeweils ihre Entsprechung in gesellschaftlichen Ständen. Der Begierde entspricht der Nährstand; dazu gehören Bauern, Handwerker aber auch Ärzte und Künstler. Dem Mutartigen entspricht der Stand der Wächter, also Soldaten und Polizisten. Dem Vernunftanteil der Seele schließlich entspricht der Herrscher. Er ist im Idealfall Philosoph oder zumindest ein philosophisch gebildeter König, denn nur diese können die wahren, unverfälschten Ideen sehen. Dass sich alle Angehörigen eines Standes in ihre jeweilige Rolle fügen, sichert das Gemeinwohl, das wichtigste staatliche Ziel. Nach Platons Überzeugung sollen die Besten herrschen – dies ist die ursprüngliche Bedeutung des Wortes „Aristokratie“. In seinem idealen Staat sind die Herrscher besitzlos, die Frauen gleichberechtigt. Das System ist durchlässig; bei Eignung gibt e s die Möglichkeit, in einen höheren Stand aufzusteigen. Cliquen und Klans, die ihre Interessen über die der Gemeinschaft stellen, sollen aktiv bekämpft werden. An die Wächter werden hohe charakterliche und erzieherische Anforderungen gestellt, auch sie sollen, wie die Herrscher, weitestgehend auf Privatbesitz verzichten. Platons utopisches Gemeinwesen mutet stellenweise aber auch überaus repressiv an. Der Staat greift massiv ins Privatleben seiner Bürger ein, schreibt standesspezifische Bildungskanons vor, regelt die Heirats- und Geburtenpolitik und fordert Euthanasie für behinderte Kinder. (Eine Praxis, die in der Antike allerdings ohnehin gängig war.) Philosophen des 20. Jahrhunderts wie Karl Popper sahen in Platons Staat daher den Prototypen eines totalitären Regimes . Von dem Idealzustand der Philosophenkönige ausgehend, beschreibt Platon alternative Modelle. Die Timokratie, die Herrschaft des Geldadels, ist die zweitbeste Staatsform. Sie entsteht, wenn die Wächter ihre Tugenden vergessen, aus Besitzgier Bauern und Handwerker unterjochen und den Staat in eine Militärdiktatur verwandeln. Die Timokratie hat Tendenz mit der Zeit zu einer Oligarchie zu degenerieren, der Herrschaft der Wenigen, in der eine korrupte Oberschicht nur noch daran denkt, sich skrupellos zu bereichern. Solche Zustände führen über kurz oder lang zu blutigen Revolutionen, in denen das entrechtete Volk die Oligarchen stürzt und eine Demokratie errichtet. Statt Geldgier steht nun die Freiheit im Vordergrund. Für Platon ist dies jedoch keineswegs ein Fortschritt, sondern vielmehr ein weiterer Abstieg des Gemeinwesens. Inkompetente Bürger gelangen nun an Ämter, Sanktionen können nicht mehr durchgesetzt werden, alles endet früher oder später im Chaos. In dieser Situation ergreifen typischerweise Tyrannen die Macht. Der Tyrann, der sich anfangs als Volksfreund gibt, errichtet eine Gewaltherrschaft. Er beseitigt seine Gegner und erpresst hohe Steuern, um Kriege und seine eigene Sicherheit finanzieren zu können. Mit der Tyrannis hat nun die Begierde, der niedrigste Seelenanteil, den Staat im Würgegriff. In seiner später entstandenen Schrift, „ Politikos “ modifiziert Platon seine Hierarchie. Er definiert nun Monarchie als gerechte, das heißt auf Gesetzen basierende Herrschaft einer Person, und Aristokratie als die gerechte Herrschaft weniger. Die drittbeste Form ist eine gerechte Demokratie. Neben diesen drei guten Herrschaftsformen gibt es drei schlechte: die anarchische Demokratie, die Oligarchie und die Tyrannei. Die widersprüchlichen Aussagen, die Platon jeweils in „Politeia“ und „Politikos“ äußert, werden oftmals damit erklärt, dass Erstere eine ideale und Letztere eine reale Reihenfolge beschreiben soll. Aristoteles sieht vieles ähnlich – aber nicht alles! Auch Aristoteles beschäftigte sich mit der Frage, wie ein idealer Staat verfasst sein müsste. Er äußert sich dazu sowohl in der „ Nikomachischen Ethik “ als auch in der „ Politik “. Der Mensch ist, so schreibt er dort, ein „ Zoon politikon , ein politisches Wesen, das sich aus praktischen Gründen in Gemeinschaften zusammenschließt, weil es so besser leben kann. Anders als Platon betrachtet Aristoteles den Staat nicht als einen einheitlichen Organismus, sondern als eine Pluralität, als eine „seinem Wesen nach [.] zahlenmäßige Vielheit“. Dennoch gibt es weitgehende Parallelen zu Platon. Auch Aristoteles bringt die möglichen Staatsgebilde in eine absteigende Reihenfolge und unterscheidet drei gute und drei schlechte Formen. Im Vergleich zu Platons „Politikos“ ist das Unterscheidungskriterium allerdings nicht Gesetz oder Gesetzlosigkeit, sondern ob die Herrschenden das Allgemeinwohl oder den eigenen Vorteil im Blick haben. Auch bei Aristoteles sind Monarchie und Aristokratie die theoretisch besten Regierungsformen. Die drittbeste Möglichkeit, die dem Interesse aller dienende Herrschaft der Vielen, bezeichnet Aristoteles als Politie. Wie in der attischen Realität sind auch bei Aristoteles die „Vielen“ längst nicht alle: Frauen haben, anders als bei Platon, eine untergeordnete Stellung und selbstverständlich sind Ausländer und Sklaven, aber auch Besitzlose von der politischen Teilhabe ausgeschlossen. In dem Maße, in dem Ausländer und Besitzlose an der Macht beteiligt werden, degeneriert die Politie zu Demokratie. Das Gleichgewicht zwischen Arm und Reich, das die Politie noch auszeichnet, ist nun gestört und Demagogen verleiten den Pöbel zu gesetzlosem Verhalten. Während bei Platon eine kontinuierlich absteigende Verfallsreihe vom Königtum zur Tyrannis führt, geht Aristoteles also von direkten Sprüngen vom tugendhaften zum egoistischen Gegenentwurf aus: Aus der Monarchie wird rasch eine Tyrannei, aus der Aristokratie eine Oligarchie und aus der Politie eine Demokratie. Beiden Theorien ist gemein, dass den guten Staatsformen stets ein systemischer Hang zu Verschlechterung innewohnt. Selbst wenn nach einer Zeit die Verfassungen wieder zum Besseren korrigiert werden, so sind die politischen Systeme doch grundsätzlich instabil. Obwohl Königtum und Aristokratie die theoretisch besten Staatsformen sind, plädiert Aristoteles pragmatisch dafür, Elemente der Oligarchie mit denen der Demokratie zu einer Politie zu verbinden. Sie stellt zwar keine optimale Regierungsform dar, ist aber am ehesten geeignet, Stabilität zu gewährleisten. Die Römische Verfassung: Das perfekte Modell In einer solchen stabilen Mischverfassung meinte der griechische Historiker Polybios rund 200 Jahre später einen der wichtigsten Gründe für den bemerkenswerten Aufstieg des Römischen Reiches erkannt zu haben. Um 500 v. Chr. hatten die Patrizier, der römische Uradel, den König entmachtet, eine Republik ausgerufen und sich dabei den exklusiven Zugriff auf die höchsten Staatsämter – Konsulat und Senat – gesichert. Ab dem 5. Jahrhundert erstritten sich dann die nichtadligen Plebejer nach und nach ihren Anteil an der Macht. Über Ämter wie das des Volkstribuns und die Schaffung eines plebejischen Adels erlangten die bisher Ausgeschlossenen Zugang zu wichtigen Staatsämtern. So entstand mit der Zeit ein ausgeklügeltes System von „checks and balances“, in das alle politisch aktiven Interessengruppen eingebunden waren. Als Parlament fungierte der von den Patriziern dominierte Senat, der in Zeiten des Notstands, und auf ein halbes Jahr befristet, einen Diktator mit fast unbegrenzten Machtbefugnissen ernennen konnte. An der Spitze des Verwaltungsapparats standen zwei Konsuln, die zwar über sehr weitreichende Kompetenzen, das „Imperium“, verfügten, deren Amtszeit aber auf ein Jahr begrenzt war und die sich zudem gezwungen sahen, ihre Beschlüsse gemeinsam fassen zu müssen. Kandidaten für das Konsulat mussten zuvor eine lange und fest vorgeschriebene Ämterlaufbahn absolvieren, den cursus honorum. Dazu gehörten neben militärischer Erfahrung in Jugendjahren Positionen als Quästor, Ädil oder Tribun, sowie das Mandat des Prätor, bei denen sich die Amtsinhaber unter anderem mit Strafverfolgung, Steuerwesen, Bau- und Marktaufsicht, der Organisation öffentlicher Spiele, Kontrolle der Bordelle und Gerichtsbarkeit vertraut machen mussten. Gewählt wurden die Magistrate durch die Volksversammlung, zu der allerdings nur männliche Bürger zugelassen waren und deren Stimmgewicht zudem von ihren persönlichen Vermögensverhältnissen abhing, was reichen Patriziern und Plebejern erheblichen Einfluss sicherte. Für Polybios war das römische System ein ideales Modell, das die Vorteile verschiedener Verfassungen kombinierte und dem es unstrittig gelungen war, Platons und Aristoteles‘ unselige Abstiegstendenzen zu durchbrechen. Die Machtbefugnisse des Konsulats repräsentieren dabei das monarchische Element, das Beratungsgremium des Senats das aristokratische sowie Tribunat und Magistratswahl durch Volksversammlungen das demokratische. Auch Marcus Tullius Cicero preist in seinen Werken „ de legibus “ – „Von den Gesetzen“ und „ de re publica “ – „Vom Staat“ die römische Mischverfassung als die real existierende Verwirklichung des von den Philosophen angestrebten Ideals, denn die Monarchie befördert die Liebe, die Aristokratie die Einsicht und die Demokratie die Freiheit. Das römische Machtsystem räumt all diesen Tugenden einen Platz ein. Wer soll herrschen? Eine neue Sicht auf den Staat In der antiken Welt waren religiöse Kulte völlig selbstverständlich Teil der Staatsräson. So war Julius Cäsar nicht nur Konsul und Diktator, sondern als Pontifex maximus, als oberster Brückenbauer, gleichzeitig auch höchster Priester – ein Titel, der später auf den Papst übergehen sollte. Am Ende der Antike forderte Augustinus von Hippo in seinem „Gottesstaat“ jedoch den Bruch dieser Einheit: „Was sind überhaupt Reiche, wenn die Gerechtigkeit fehlt, anderes als große Räuberbanden?“ Damit stellt der Kirchenvater die Autorität staatlicher Ordnungen grundsätzlich infrage und fordert den Primat der Kirche. Der hieraus entstehende Konflikt zwischen Kirche und Staat sollte das gesamte europäische Mittelalter wesentlich bestimmen. Lediglich bei Thomas von Aquin finden sich in Folge seiner Rückbesinnung auf die Antike wieder positive Aussagen über den Staat als einheitsstiftende Macht für das Zoon politikon. Wer mehr wissen will: Aristoteles (1994): „Politik“, Rowohlt. Platon (1857): „Der Staat“, Projekt Gutenberg-DE. Popper, Karl (1992): „Die offene Gesellschaft und ihre Feinde. Band I: Der Zauber Platons“, UTB Polybios (1961): „Geschichte“, Artemis Cicero, Marcus Tullius (2013): „Vom Staat”, Reclam. Augustinus (1911): Über den Gottesstaat” (De civitate Dei), Bibliothek der Kirchenväter. Platon (1989): „Der Staat“ (Politeia), Meiner Hübner, Dietmar: „Politische Philosophie“: Platon ( Vorlesung auf Youtube ) Hübner, Dietmar: „Politische Philosophie“: Aristoteles ( Vorlesung auf Youtube ) Hübner, Dietmar: „Politische Philosophie“: Polybios, Cicero ( Vorlesung auf Youtube )
- Der Ursprung der Sprache
Fortsetzung von "Was ist Sprache?" Ein ganz besonderes Gen Wahrscheinlich hat das menschliche Kommunikationstalent seinen Ursprung in einer kleinen Mutation, bei der vor einigen hunderttausend Jahren an dem Gen FOXP2 zwei Aminosäuren ausgetauscht wurden. FOXP2 steuert die Expression einer Vielzahl weiterer Gene, die anatomische Voraussetzungen für das Sprechen schaffen. Menschen mit Defekten an diesem Erbträger leiden an Apraxie, einer erheblichen Störung der Sprachorgane. Im Laufe der Menschwerdung führten diese Mutationen zu einer Reihe anatomischer Veränderungen an Kopf und Hals: Ein vergrößerter Rachenraum bot einen besseren Resonanzkörper; ein abgesenkter Kehlkopf ermöglichte eine größere Bewegungsfreiheit der Zunge; eine Aufwölbung des Gaumens erlaubte es, die von den Stimmbändern erzeugten Töne zu differenzierten Vokalen und Konsonanten zu modulieren. Vor etwa 100.000 Jahren war diese Entwicklung abgeschlossen; die Fähigkeit des Sapiens, sehr nuancierte Schallwellen bilden zu können, sollte von nun an zum wichtigsten Unterscheidungsmerkmal zwischen Mensch und Tier werden. Die neuen Kommunikationsfähigkeiten begünstigten ein komplexeres Sozialverhalten, das seinerseits neue Anreize schuf, die sprachlichen Fähigkeiten weiterzuentwickeln. Ideen konnten nun zunehmend effizienter mitgeteilt, soziale Beziehungen intensiver gepflegt und kollektives Lernen besser organisiert werden. Die Phoneme erwiesen sich damit als eine außerordentlich effektive evolutionäre Errungenschaft. Herders Theorie Eine der ersten wissenschaftlichen Theorien über die Entstehung der Sprache stammt von dem Philosophen, Dichter und Theologen Johann Gottfried Herder . In einer 1772 veröffentlichten Schrift argumentierte er, dass die Sprache, weil unvollkommen, keinen göttlichen Ursprung haben könne; ebenso wenig habe sie sich aus tierischen Lauten entwickelt; sie sei vielmehr eine rein menschliche Erfindung. Den Unterschied zwischen triebgesteuerten Tierlauten und menschlicher Sprache erklärt Herder anhand seines Sphärenmodells : Tiere wie Spinnen oder Bienen leben in sehr kleinen Sphären. Da diese Lebensräume sehr überschaubar sind, sind die Tiere mit starken und sehr speziellen Fähigkeiten und Instinkten ausgestattet, verfügen aber nur über sehr eingeschränkte Kommunikationsmöglichkeiten. Je grösser die von einem Tier bewohnte Sphäre, desto besser sind auch seine Fähigkeiten, Laute zu bilden, während die instinktiven Veranlagungen ihrerseits abnehmen. Der Mensch bewohnt die größte Sphäre aller Lebewesen. Da er seine Aufmerksamkeit dem gesamten Lebensraum widmen muss, sind seine sinnlichen Kapazitäten so schwach, dass er sich mit anderen Menschen zusammenschließen muss, um überleben und seine Bedürfnisse befriedigen zu können. Für Herder hat Sprache somit die Aufgabe, die Lücke zu schließen, die zwischen unscharfen Sinnen und weitgreifenden Bedürfnissen entsteht. Sprache und Bewusstsein ermöglichen es dem Menschen sich von der Natur unabhängig zu machen und nicht mehr triebhaft, sondern besonnen zu handeln. Das erst macht das nackte, instinktlose Tier zum Menschen. Die ersten sprachlichen Begriffe entstanden, so Herder, als der Mensch über die Beschaffenheit der Dinge nachdachte. Es ist eine Eigenschaft eines Flusses zu fließen und eines Schafes zu blöken. Das Blöken des Schafes erlaubt es, es von anderen Tieren zu unterscheiden. Das „Blökende“ ist somit ein Wort, mit dem sich ein Schaf beschreiben lässt. Der Ursprung der Worte sind also Lautzeichen, die Merkmale von Dingen beschreiben. Abstrakte Dinge, wie Oberflächen, werden nach den Gefühlen benannt, die sie auslösen: Deshalb klingt auch das Wort „hart“ hart und das Wort „weich“ weich. Herders „ lexikalisches Modell “ ist eine von drei der heute noch diskutierten Thesen über den Ursprung der Wörter: Den Dingen wurden Phoneme zugewiesen, die lautmalerisch Töne imitierten, wie heute noch in den Worten Uhu oder Kuckuck. Die „ gestische Hypothese “, die der amerikanische Anthropologe Michael Tomasello favorisiert, hingegen sieht den Ursprung der menschlichen Kommunikation in dessen einzigartiger Gebärdensprache, die erst mit der Zeit durch Wörter ersetzt wurde. Tatsächlich sind nicht einmal unsere nächsten Verwandten, die Menschenaffen, in der Lage, Zeige-Gesten zu verwenden oder zu verstehen. Das „ musikalische Modell “ schließlich glaubt an eine Entstehung der Sprache aus Gesängen, eine Ansicht, die zuerst von Charles Darwin vertreten wurde, der sich auf den gemeinsamen evolutionären Ursprung von menschlicher Stimme und Vogelstimme bezog. Alle drei Thesen zur Sprachentstehung sind spekulativ. Wie sich die Entwicklung wirklich vollzog und ob Sprache vielleicht nicht sogar mehrfach unabhängig voneinander entstanden ist, bleibt im Nebel der Frühgeschichte verborgen. Fest steht hingegen, dass sich mit der Zeit zwei spezialisierte Gehirnbereiche bildeten, um die neue Fähigkeit zu verwalten: Das Broca-Areal begann das aktive Sprechen zu steuern, das Wernicke-Zentrum das passive Verstehen. Schimpansen kommunizieren fast wie zweijährige Menschen Menschenaffen, die in Gebärdensprache unterrichtet wurden, sind in der Lage, mehrere hundert Begriffe zu lernen und mit Gesten einfache Sätze aus zwei bis drei Wörtern wie „geben Banane“ zu bilden, was in etwa den sprachlichen Fähigkeiten von Zweijährigen entspricht. Erst danach trennen sich die Wege: Das Menschenkind macht dort weiter, wo der Wortschatz des erwachsenen Affen endet. Es lernt neue Wörter, kombiniert sie beliebig, bildet zunehmend längere Sätze und baut nach und nach grammatikalische Regeln in seinen Sprachgebrauch ein. Kein anderes Tier ist dazu in der Lage. Ein großes Repertoire von Symbolen aufzubauen und regelbasiert kombinieren zu können, ist eine mächtige Befähigung: Gäbe es nur zehn Wörter, um einen Satz sinnhaft zu beginnen und jeweils zehn weitere, ihn grammatikalisch richtig und inhaltlich sinnvoll weiterzuführen, würde ein Satz aus lediglich zwanzig Wörtern bereits 10^ 20 oder hundert Millionen Billionen verschiedene Aussagen zulassen. Jede Kombination repräsentiert einen eigenen Gedanken und aktiviert damit eine andere neuronale Repräsentation. Wer mehr wissen will: Tomasello, Michael (2009): „Die Ursprünge menschlicher Kommunikation“, Suhrkamp. Roth, Gerhard (2010) „Wie einzigartig ist der Mensch?“, Springer. Pinker, Steven (2012): “Wie das Denken im Kopf entsteht”, Fischer. Benz, Anton (2022): „Die Sprache von Schimpansen ist komplexer als gedacht“, Spektrum.de vom 09.06.2022.












