top of page

Suchergebnisse

100 Ergebnisse gefunden mit einer leeren Suche

  • Glaube als Wissenschaft – ein Überblick über die Philosophie des Mittelalters

    Fortsetzung von: „Aristoteles: Ein Universalgenie in fünf Minuten“   Eine neue Religion Als der Philosophenkaiser Marc Aurel  sein Amt antrat, hatte das Römische Reich   seinen Zenit bereits überschritten. In den folgenden dreihundert Jahren sollte der Druck auf das Imperium von Norden durch die Germanen und von Osten durch die Sassaniden stetig zunehmen. Im Reich selbst verbreiteten sich verschiedene, aus den unterworfenen Gebieten stammende orientalische Religionen . Von Bedeutung waren insbesondere der ägyptische Götterglaube, sowie der Mithras-Kult und der Manichäismus, die beide ursprünglich aus Persien stammten. Teilweise traten die neuen Religionen in Konkurrenz zu der griechisch-römischen Götterwelt, teilweise verschmolzen sie mit ihr. [i]  Dauerhafter Erfolg sollte jedoch nur dem Christentum  beschieden sein. Stifter dieses Glaubens war Jesus von Nazareth  (ca. 7 v. Chr-ca.30 n. Chr.), ein jüdisch-aramäischer Wanderprediger, dessen Anhänger, allen voran Paulus von Tarsus , nach ihrer endgültigen Abspaltung vom Judentum den neuen Glauben in das römische Weltreich trugen. Wie die Juden duldeten auch die Christen im Gegensatz zu den übrigen Religionen des Imperiums keine anderen Götter neben sich. Trotz anfänglicher Verfolgung gewann die neue Religion mehr und mehr an Einfluss. 337 hatte sich Kaiser Konstantin der Große  auf seinem Totenbett taufen lassen. [ii]  380 erhoben Gratian  und sein in Konstantinopel regierender Mitkaiser Theodosius I  das Christentum zur Staatsreligion . Zu Beginn des 5. Jahrhunderts drangen germanische Stämme in das Weströmische Reich ein, das daraufhin nach fast 1.200-jähriger Geschichte relativ rasch zerfiel. Das Mittelalter hatte begonnen .  Augustinus von Hippo: Glaube als Wissenschaft Die philosophisch bedeutsamste Persönlichkeit der Übergangswirren am Ende der Antike ist Augustinus von Hippo . 354 im heutigen Algerien als Sohn eines römischen Landbe sitzers und einer Berberin geboren, orientierte er sich in seiner Jugend zunächst am Manichäismus . Nach einem Studium der Rhetorik in Karthago, ging Augustinus 384 an den Hof des Kaisers Valentinian II nach Mailand. Die Lobreden, die er dort auf den Kaiser halten musste, führten ihn in eine Sinnkrise. Er wandte sich vom Manichäismus ab und ließ sich 387 taufen. Nach der Rückkehr in seine Heimat wurde Augustinus 396 Bischof der Stadt Hippo, ein Amt, das er bis zu seinem Tode im Jahr 430 bekleidete. Augustinus war Zeitzeuge der dramatischen Veränderungen, die mit dem Ende des Römischen Imperiums einhergingen. In dem Chaos, das den Niedergang begleitete, suchten viele Menschen Trost und Hoffnung in der christlichen Religion, die ein beständigeres Reich verhieß, ein Reich, das nicht von dieser Welt war. Durch die Lektüre Ciceros  hatte Augustinus die Philosophie entdeckt. Insbesondere Platon machte großen Eindruck auf den Kirchenvater. Ließ sich das christliche Denken eventuell mit den Traditionen der antiken griechischen Philosophie vereinen? Dass Augustinus sich solche Fragen überhaupt stellte, spricht für die Bedeutung, die dem philosophischen Erbe am Ende der Antike offenbar noch immer zukam. Dennoch stand für ihn fest, dass der christliche Alleinvertretungsanspruch für die Wahrheit der Philosophie lediglich die Rolle einer Dienerin zuerkennen konnte. Augustinus‘ erstes bedeutsames Werk, seine sehr persönlich gehaltenen „Bekenntnisse“, atmen den Geist der platonischen Ideenlehre . Der Schöpfer der Urbilder, an die sich die unsterbliche menschliche Seele  erinnert, ist nun der christliche Gott. Die Vereinigung von christlichem Glauben und Platons Philosophie sollte eine beachtliche ideengeschichtliche Wirkung entfalten. Was ist Zeit? Völlig neu und einzigartig sind Augustinus‘ Überlegungen zum Wesen der Zeit , die erstmalig Geschichtlichkeit und Einmaligkeit der menschlichen Existenz in den Fokus der Philosophie rücken. Die neue Perspektive wurde notwendig, da die in der Genesis beschriebene Erschaffung aus dem Nichts den Griechen und Römern  fremd war – Materie und Zeit hatte es für sie schon immer gegeben. Für Augustinus aber ist die Zeit gemeinsam mit der Welt entstanden (eine Aussage, die sich, wie wir bereits gesehen haben, in völliger Übereinstimmung mit der modernen Physik befindet.) Gott selbst ist nicht in der Zeit; er schwebt über ihr und kann so ihren Strom von außen betrachten. Aus dieser Zeitlosigkeit entsteht Gottes Ewigkeit. Da er allwissend ist, ist ihm auch alles Vergangene und Zukünftige bekannt.   Die Zeit selbst ist keine dingliche Erscheinung, sondern allein eine Projektion des menschlichen Geistes. Letztlich gibt es nur die Gegenwart. Die Gegenwart der Vergangenheit ist unsere Erinnerung; die Gegenwart des Gegenwärtigen ist der Augenblick; die Gegenwart des Zukünftigen sind unsere Erwartungen. „Was ist also die Zeit? Wenn mich niemand danach fragt, weiß ich es, wenn ich es aber einem, der mich fragt, erklären sollte, weiß ich es nicht.“ [iii] Mit seinem subjektiven Zeitbegriff hat Augustinus die Philosophie um einen bemerkenswerten Gedanken bereichert. [iv] Die folgenreiche Prädestinationslehre In seinem Bemühen um eine philosophische Rechtfertigung des Glaubens ist der Bischof fast zwangsläufig auch mit dem Theodizee-Problem konfrontiert. Es geht um die Frage, w arum ein allmächtiger  Gott das Böse zu lässt.  Dessen Ursprung liegt für den Kirchenvater im Sündenfall. Die Schuld, die Adam und Eva auf sich geladen haben, wird seitdem an jede Generation vererbt und macht die Menschen anfällig für das Übel. Das Böse hat dabei selbst keine eigenständige Existenz, sondern ist die Abwesenheit des Guten, geboren aus Hochmut und Unglaube. Da Gott uns mit einem freien Willen ausgestattet hat, kann das Böse nur existieren, weil wir uns entscheiden, es zuzulassen. Hätte Gott uns diese Verantwortung nicht übertragen, wären wir auch nicht wirklich frei. Diese Entscheidungsfreiheit   spielt auch eine zentrale Rolle in Augustinus‘ zweitem bekannten Buch „Vom Gottesstaat“. Es entstand unter dem Einfluss der Plünderung Roms durch die Goten im Jahre 410. Das traumatische Ereignis, Ende aller bekannten Ordnung, ließ die Christen im Römischen Imperium an der baldigen Errichtung des von Jesus verkündeten Reiches zweifeln. Der „Gottesstaat“ möchte die verunsicherten Christen beruhigen. Es ist das erste Buch, das eine umfassende Geschichtstheorie entwirft. Die Geschichte der Menschheit ist der Konflikt zwischen zwei Lebensentwürfen: Im irdischen Staat führen die Menschen ein lasterhaftes Leben. Dem gegenüber steht das Reich Gottes – eine Gemeinschaft von Auserwählten, die nach den Geboten des Schöpfers lebt und daher einst in das Himmlische Jerusalem einziehen wird. Doch für Augustinus ist der irdische Staat nicht nur böse. Die Mächte des Guten greifen direkt in seine Geschicke ein und kämpfen erbittert um das Heil eines jeden Menschen gegen jene diabolischen Kräfte, die die Sterblichen mit vergänglichen Freuden in die Verdammnis locken wollen. Doch obwohl ein jeder die Freiheit hat, sich für Gut oder Böse zu entscheiden, ist sein Schicksal schon vorherbestimmt. Als allwissendes, außerhalb der Zeit stehendes Wesen, weiß Gott längst, wie sich jeder Einzelne auf seinem Lebensweg entscheiden wird – er kennt die Seinen bereits. Die Menschheit zerfällt daher in zwei Gruppen, die Verdammten und die Erlösten, wobei niemand vor dem Jüngsten Gericht wissen kann, zu welcher Partei er gehört. Die Weltgeschichte wird dadurch zu einem durch göttliche Vorsehung vorherbestimmten Drama, an dessen Ende der Sieg des Guten steht. Das Reich Gottes auf Erden ist das Ziel der Menschheitsgeschichte. Die Kirche  ist dabei das irdische Instrument, um den göttlichen Willen zu vollstrecken. Die Araber bewahren Aristoteles vor dem Vergessen Augustinus‘ Schriften gaben dem abendländischen Denken für die nächsten 1.000 Jahre die Richtung vor – seine Prädestinationslehre   wirkte sogar noch weit darüber hinaus. [v]   Während der dunklen  Jahrhunderte, die dem Zerfall des Römischen Reiches folgten, gingen viele der alten Schriften in den Wirren der Völkerwanderung  für die westliche Welt zunächst verloren. [vi]   So wurde es in den folgenden 600 Jahren still um die westliche Philosophie.  Um das Jahr 613 begann der Prophet Mohammed  auf der arabischen Halbinsel eine neue Offenbarungsreligion  zu predigen, die sich auf denselben Gott berief, wie Juden und Christen. Sein Glaube fand rasante Verbreitung. Bereits um das Jahr 750 reichte der Einfluss des Islam  von Afghanistan über ganz Nordafrika bis zu den Pyrenäen. Auf ihren Eroberungszügen hatten die Araber Teile der antiken Hinterlassenschaft entdeckt und ins Arabische übersetzt, darunter auch viele der im Westen verschollenen Werke des Aristoteles . Diese Funde sollten die islamische und jüdische Philosophie der kommenden Jahrhunderte maßgeblich beeinflussen. Die Scholastik: Gottesbeweis und Universalienstreit Erst gegen Ende des 11. Jahrhunderts regten sich mit der Scholastik   auch im Westen wieder neue philosophische Ideen. Seinen Namen verdankte das neue Denken den klösterlichen Lateinschulen, die die Tradition des augustinischen Platonismus weiter gepflegt hatten. Die Streitgespräche unter den gelehrten Mönchen widmeten sich neben der Theologie nun zunehmend auch wieder rein philosophischen Themen wie Logik  und Ethik . Als Begründer der Scholastik gilt Anselm von Canterbury , ein 1033 in Aosta geborener Italiener, der, nachdem er viele Jahre in einer nordfranzösischen Benediktinerabtei verbracht hatte, im Zuge der normannischen Eroberung Englands Erzbischof wurde – ein außerordentliche europäische Karriere.    Anselm ist bekannt für seinen ontologischen Gottesbeweis , den Versuch, die Existenz des Allmächtigen auch logisch zu belegen. Seine Argumentation beginnt mit der Gegenthese: Gott existiert als Wesen, über das hinaus nichts Größeres gedacht werden kann, lediglich in der menschlichen Vorstellung. Ein Wesen, das hingegen auch real existiert, wäre einem solch rein imaginären Wesen allerdings überlegen und somit größer. Nur der real existierende Gott erfüllt die Bedingung, dass über ihn hinaus nichts Größeres gedacht werden kann – Gott muss folglich existieren, denn nur so ist er ohne Widerspruch denkbar. Es sollten rund 700 Jahre vergehen, bis Immanuel Kant diese abenteuerliche Beweisführung widerlegen würde. Anselm von Canterbury bezog auch Stellung im größten und wichtigsten scholastischen Disput des Mittelalters, dem Universalienstreit . Dabei geht es um die Frage, ob Universalien, das heißt allgemeinen Begriffen, wie „Baum“ oder „Mensch“ eine eigene ontologische Existenz zukommt. Anselm befindet sich bei diesem Streit im Lager der Realisten . Die Realisten, in der Tradition der platonischen Ideenlehre, sind von der realen Existenz abstrakter Begriffe überzeugt. Es gibt „den Baum“ oder „den Menschen“ als von Gott erschaffene Idee. Für das gegnerische Lager, die Nominalisten , war das Unfug. Für sie sind solche Gattungsbegriffe menschengemachte, veränderliche Konstrukte, die vielleicht helfen, die Welt zu ordnen; in keinem Fall aber kommt ihnen eine eigene Wesenheit zu. Existieren können nur einzelne Tannen, Fichten, Eichen, Buchen oder menschliche Individuen. Die Kontroverse mag aus heutiger Sicht seltsam erscheinen, doch tatsächlich ging es um etwas sehr Grundlegendes: Für die Realisten ist die Existenz von Universalien – ganz im Sinne von Platon und Augustinus – Ausdruck einer unumstößlichen göttlichen Ordnung. Die Nominalisten aber stellen absolute Gewissheiten und unantastbare Dogmen grundsätzlich infrage – eine entscheidende Voraussetzung für modernes wissenschaftliches Denken. Eine messerscharfe Logik Nominalist war auch der um 1287 geborene Franziskaner Wilhelm von Ockham . Der Geistliche, dessen standhafte Verteidigung des von Franz von Assisi verkündeten Armutsideals seines Ordens vom Papst mit der Exkommunikation bestraft wurde, ist philosophiegeschichtlich vor allem für seine Forderung bekannt, bei der Bildung von Theorien nicht mehr Annahmen zu treffen als unbedingt notwendig. Von allen möglichen Erklärungen für einen Sachverhalt, ist stets die einfachste die beste – eine Regel, die später als „ Ockhams Rasiermesser “ bekannt werden sollte. Zusammen mit seinem rund 70 Jahre zuvor geborenen Ordensbruder Roger Bacon , ist Wilhelm einer der frühesten Verfechter experimenteller Methoden und Repräsentant eines neuen Denkens, in dem ein wachsendes Interesse an naturphilosophischen Fragen und empirischer Forschung zum Ausdruck kommt. Thomas von Aquin gelingt ein Kunststück Mit der europäischen Wiederentdeckung der aristotelischen Schriften, die islamische Gelehrte über die Jahrhunderte bewahrt hatten, begann der Einfluss des seit Augustinus vorherrschenden christlichen Platonismus in der Philosophie zu schwinden. Problematisch war allerdings, dass sich Aristoteles‘ Werk nur ungleich schwerer christlich einkleiden ließ als die Lehre seines Meisters – schließlich hatte sich der stark an Naturwissenschaften interessierte Philosoph, mit Ausnahme seines unbewegten Erstbewegers, kaum zu theologischen und transzendentalen Fragen geäußert. [vii] Thomas von Aquin , einem italienischen Dominikanermönch, der von 1225 bis 1274 lebte, gelang das Kunststück, das aristotelische Weltbild mit dem christlichen Glauben zu versöhnen. Nicht zuletzt deshalb gilt er als der neben Augustinus bedeutendste Philosoph des Mittelalters. Anders als seine Vorgänger stellte Thomas die Ideen der antiken Denker nicht unter theologische Vormundschaft, sondern räumte ihnen einen gleichberechtigten Platz ein: Gott hat den Menschen mit einem Verstand ausgestattet, der dem Geist Gottes ähnlich ist. Der Mensch ist daher auch in der Lage, mit Hilfe der Philosophie die Gedanken des Schöpfers nachzuvollziehen. In Anlehnung an Aristoteles‘ Naturlehre beschreibt Thomas die Hierarchie des Seins: Zuunterst befinden sich die toten Dinge. Sie sind reiner Stoff, dem die Form gleichsam von außen aufgedrückt wurde. Darüber stehen die Pflanzen. Sie leben, doch sie verfügen über keine Sinne. Die Tiere stehen deshalb über den Pflanzen. Der Mensch wiederum steht über den Tieren, denn er ist, anders als diese, mit einer vernunftbegabten und unsterblichen Seele ausgestattet. Über den Menschen finden sich die Engel. Als reine Geisteswesen sind sie von der Last alles Körperlichen befreit und zudem mit einem rascheren Verstand als dem der Menschen ausgestattet. Doch auch sie wurden erschaffen und sind daher nicht vollkommen. An der Spitze von Thomas‘ ontologischer Pyramide thront Gott allein; ein reines, vollkommenes Geisteswesen, das nicht erschaffen wurde, sondern schon immer war. Nach Thomas‘ Überzeugung wird nur ein Teil der Wahrheit durch den Glauben offenbart, der andere Teil erschließt sich uns durch den Verstand. Die beiden Pfeiler der Wahrheit stehen in vielfacher Beziehung zueinander. Das möchte der Dominikaner mit seinen fünf Gottesbeweisen zeigen, die er in seinem Hauptwerk, der „Summa theologiae“, aufführt. [viii]  Die ersten beiden Beweise ähneln sich sehr und gehen unmittelbar auf Aristoteles zurück. Demnach muss am Anfang der Kausalkette aller Bewegungen, die wir im Universum beobachten, ein ursprünglicher Impulsgeber gestanden haben. Dieser Erstbeweger ist Gott. Und da, so der zweite Beweis, nichts ohne Grund geschieht, muss es am Anfang eine ursprüngliche Wirkursache gegeben haben. Auch diese erste Ursache nennen wir Gott. Da alles, was ist, auch vergeht, so der dritte Beweis, muss folglich das „Sein“ auch nicht zwingend existieren. Es muss daher ein unvergängliches Lebewesen geben, das rein aus sich heraus notwendig ist und das den vergänglichen Dingen ihr Sein geschenkt hat. Dieses absolute Wesen ist Gott. Der vierten Argumentation liegt die Erkenntnis zugrunde, dass die Dinge, die wir in der Welt vorfinden, von unterschiedlicher Qualität sind. Sie lassen sich daher hierarchisieren, also etwa als gut und besser oder wahr und wahrer einstufen. Derlei Hierarchien bedingen aber, dass es etwas geben muss, was am „besten“ oder „wahrsten“ ist, einen absoluten Maßstab, ohne den eine Abstufung nicht möglich wäre. Dieser höchste Maßstab aller Dinge ist Gott. Der fünfte und letzte Beweis unterscheidet sich von den bisherigen. Die ersten vier schließen als „kosmologische Beweise“ allesamt von der Welt auf Gott. Der fünfte Beweis argumentiert hingegen teleologisch, das heißt, er orientiert sich an einem Zweck. Dinge, wie etwa der Pfeil eines Bogenschützen oder das von einem Steuermann gelenkte Schiff, haben weder Seele noch Intelligenz. Dennoch erfüllen sie ihre Aufgabe. Folglich muss es nach Thomas ein absolutes Wesen geben, das den geistlosen Dingen ihre Zweckdienlichkeit verliehen hat und sie lenkt. Dieser intelligente, ordnende Weltgeist ist Gott. Thomas hatte nicht die Absicht, die Existenz des persönlichen christlichen Gottes zu beweisen. Dieser kann nicht durch die Vernunft, sondern nur durch Glaube und Offenbarung verstanden werden. Seine Fundamentaltheologie möchte vielmehr zeigen, dass Gottes Existenz nicht widernatürlich ist und dass wir vernünftig annehmen dürfen, dass es ein höchstes Wesen gibt. [ix] Mit Thomas von Aquin begann die Philosophie die Klosterstuben wieder zu verlassen. Überall in Europa entstanden Universitäten an denen Aristoteles’ Logik Grundlagenfach wurde – eines der zahlreichen Anzeichen eines heraufziehenden, folgenreichen Umbruchs .   Den Blog entdecken   Wer mehr wissen will: Augustinus, Aurelius (1888): „Bekenntnisse” (Confessiones), Reclam. Augustinus, Aurelius (1911): „Über den Gottesstaat” (De civitate Dei), Bibliothek der Kirchenväter. Weischedel, Wilhelm (2008) „Die philosophische Hintertreppe“, Nymphenburger. Dahlheim, Werner (2014) „Die Welt zur Zeit Jesu”, Beck.   Bildnachweise: William von Ockham Anselm von Canterbury   Das himmlische Jerusalem [i] Vgl. Dahlheim (2014) S. 328 ff. [ii] Damals herrschte die Vorstellung, dass es nur eine einzige Sündenvergebung gibt, die sich durch die Taufe vollzieht. Offenbar wollte Konstantin ganz sicher gehen. [iii]  Augustinus (1888) Buch XI, 14.Kapitel. [iv] Vgl. Russell (2012) S. 366 f. und Safranski (2015), S. 52. [v] Vgl. Russell (2012) S.317. Die orthodoxen Kirchen im Osten Europas folgten der augustinischen Lehre allerdings nicht und lehnen die Prädestinationslehre bis heute ab. [vi] Vgl. Dahlheim (2014) S.433. [vii]  Vgl. Weischedel (2008) S.112 ff. [viii] Die Beweise gehen nicht ursprünglich auf Thomas von Aquin zurück; er hat sie lediglich zusammengetragen und auf einprägsame Art neu formuliert. [ix] Diese Lehre prägt die Doktrin der katholischen Kirche bis heute. Demnach kann naturwissenschaftliche Erkenntnis zwar durch rationales Denken erlangt werden; die Dogmen der Kirche, wie die Dreieinigkeit oder die Auferstehung Jesu, aber erschließen sich uns nicht durch die Vernunft, sondern bedürfen des Glaubens und göttlicher Offenbarung.

  • Was ist Philosophie?

    Eine unerwartete Begegnung Letzten Sommer habe ich mit zwei Freunden ein paar Tage in Sachsen-Anhalt und Sachsen verbracht. Für die Rückfahrt haben wir uns entschlossen von Leipzig aus nicht direkt die Autobahn zu nehmen, sondern erst einmal ein Stück über die Landstraße zu fahren. Kurz hinter Lützen habe ich dann zufällig einen kleinen Wegweiser nach „Röcken“ gesehen…irgendwie sagte mir der Name was…dann fiel es mir wieder ein: Na klar, das ist der Geburtsort von Friedrich Nietzsche ... Fünf Minuten später standen wir vor Nietzsches Grab – er wurde nicht nur in Röcken geboren: Der durchaus religionskritische Sohn eines lutherischen Pfarrers liegt dort auch hinter der kleinen Dorfkirche begraben. Für uns drei eine unerwartete Begegnung.   Die Geschichte des Denkens In den letzten beiden   Blogs haben wir uns mit der Frage beschäftigt, wie wir mittels unseres Bewusstseins  die Welt um uns herum wahrnehmen und mit Hilfe der Sprache  versuchen, unserem Denken Ausdruck zu verleihen. Seit wir vor etwa 200.000 Jahren diese Fähigkeit erworben haben, wurden unzählige Gedanken gedacht und auch wieder vergessen. Die Philosophie ist die Summe jener Gedanken, die bis heute nachhallen. Sie haben deshalb überlebt, weil sie sich als besonders erhellend, nachvollziehbar und demzufolge auch besonders einflussreich erwiesen haben. Was zunächst einmal nichts über ihre Richtigkeit aussagt. Den Beitrag dieses Denkens zu unseren persönlichen Weltbildern können wir gar nicht überschätzen. Das unten stehende Schaubild der historischen Entwicklung der Philosophie macht aber auch deutlich, dass es unter diesen begründeten Theorien über die Welt eine verwirrende Fülle gibt. Die Themen sind breit gestreut: Wie gewinne ich neue Erkenntnisse? Was ist die Wirklichkeit? Was ist Wahrheit? Was ist Zeit? Gibt es eine unsterbliche Seele? Strebt die Geschichte einem Ziel zu? Was ist wahr, was ist falsch? Hat das Leben einen Sinn? Welche Grenzen setzt uns die Sprache?   Die Philosophie möchte die Grundlagen unserer Existenz verstehen, das große Ganze betrachten und die Dinge zusammenführen. In einem Niemandsland, das dem Mathematiker   und Philosophen Bertrand Russell zufolge irgendwo zwischen Theologie und exakten Wissenschaften angesiedelt ist, springt sie dort in die Bresche, wo andere Disziplinen an ihre Grenzen stoßen.   Ein zerklüftetes Terrain Das Terrain in diesem Niemandsland ist in höchstem Maße zerklüftet. Kaum ein Thema, bei dem es Einigkeit gäbe. Das hat nur allzu menschliche Gründe: Philosophen haben unterschiedliche Erfahrungen gemacht und stets sind sie auch Kinder ihrer Zeit; ihre Werke spiegeln die Denkperspektiven und Lebensumstände verschiedener Epochen wider und oft auch sehr persönliche Existenzbedingungen. (Weder Platon  noch Aristoteles  kam es etwa in den Sinn die Sklaverei in der griechischen Gesellschaft in irgendeiner Form infrage zu stellen.) Doch letztlich sind aus diesen Dialogen, Debatten und Querelen die modernen Natur- und Geisteswissenschaften hervorgegangen aber auch die moralische Normen, die unsere politischen Verfassungen und Gesetze prägen. Die Ethik eines Konfuzius  hat auch heute noch großen Einfluss auf Gesellschaften vieler ostasiatischer Kulturen; die Amerikanische Verfassung zitiert John Locke  und David Hume  fast im Wortlaut; die Lehre eines Karl Marx  hat einem ganzen Jahrhundert ihren Stempel aufgedrückt. Vier Fragen Einer der meiner Meinung nach besten Vorschläge, in dieses Tohuwabohu eine gewisse Ordnung zu bringen, stammt von Immanuel Kant : Ihm zufolge lassen sich alle philosophischen Erkundungen auf lediglich vier Fragen zurückführen: Was kann ich wissen? Was soll ich tun? Was darf ich hoffen? Was ist der Mensch? Das bringt es ziemlich auf den Punkt. Die vier Fragen decken sowohl die theoretischen als auch die praktischen Aspekte der Philosophie ab. Kant hat damit die Dimensionen des komplexen philosophischen Kosmos sehr ausführlich vermessen. Die erste Frage beschäftigt sich mit begründbaren Überzeugungen über die Welt. Dabei geht es einerseits um Erkenntnis- und Wissenschaftstheorie: Welche Methoden und Werkzeuge, benötige ich, um Dinge beobachten, analysieren und zueinander in Beziehung setzen zu können, und welche Schlussfolgerungen lassen sich aus den Beobachtungen ziehen? Es geht aber auch um die sehr spezielle Frage, ob wir grundsätzlich etwas in Erfahrung bringen können, ohne es vorher beobachtet zu haben. Die Disziplin, die sich mit dem Thema beschäftigt, ob wir gesichertes Wissen auch jenseits der dinglichen, physischen Welt erlangen können, ist die Metaphysik – also das, was sich „jenseits der Physik “ befindet. Ihr wichtigster Teilbereich ist die Ontologie, die sich mit den grundsätzlichen Fragen des Seins auseinandersetzt: Was sind Wesen, Strukturen und Zustände dessen, was „ist“? Während die erste Frage der theoretischen Philosophie zugeordnet wird, hat Kants  zweite Frage „Was soll ich tun?“ handfeste praktische Bedeutung. Die Natur ist den immer gleichen kausalen Zwängen ausgesetzt. Der Mensch aber hat die Möglichkeit, sich für oder gegen etwas zu entscheiden. Aus dieser Freiheit entstehen Konflikte, Dilemmata und Verantwortlichkeiten. Grundlage der praktischen Philosophie ist die Ethik. Sie möchte Maßstäbe und Maximen für moralisch richtiges Handeln festlegen: Welche Kriterien sollen wir zur Beurteilung einer Situation heranziehen? Wie sind sie zu gewichten? Welches Verhalten ist angemessen? Darf ein Angeklagter aufgrund von Indizien verurteilt werden? Ist Freiheit höher zu bewerten als Gleichheit? Soll es Einzelnen schlechter gehen dürfen, damit es Vielen besser geht? Kants  dritte Frage „was darf ich hoffen?“ bewegt sich wiederum in rein metaphysischen Sphären. Es geht um Themen, bei denen weder Erkenntnistheorie noch Ethik weiterhelfen: Gibt es ein Jenseits? In welchem Verhältnis stehen Wissen und Glaube zueinander? Welchen Sinn hat die Schöpfung? Kann die Existenz Gottes bewiesen oder widerlegt werden? Sollten wir eine bessere Welt nicht lieber schon im Diesseits suchen? Gibt es ein Ziel, dem die Menschheitsgeschichte zustrebt? Für Kant münden die drei ersten Fragen in eine vierte und letzte: „Was ist der Mensch?“ Für den Königsberger Philosophen ist dies das entscheidende Thema. Welche Rolle spielt der Mensch aufgrund seiner Sonderstellung in der Welt, was ist seine Bestimmung? Welche Rechte und Pflichten ergeben sich aus dieser Besonderheit? Warum erlaubt es unser Geist, Fragen zu stellen, von denen wir wissen, dass wir sie nie werden beantworten können? Worin besteht die Würde des Menschen – und warum tasten wir sie so oft an? Das ist das Themenspektrum, mit dem wir uns in den kommenden Philosophie-Blogs beschäftigen werden.   Weiterführende Literatur: Bertrand Russell (2012): „Philosophie des Abendlandes”, Anaconda. Michael Picard (2018): „Philosophie – Von Platons Himmel bis Zenons Paradox“, Librero

  • Sprache: Bausteine der Kommunikation (Teil 2)

    Fortsetzung von „Bausteine der Kommunikation (Teil 1)   Dimensionen der Semantik: Lexikologie Sprachen neigen ganz generell zu mehr syntaktischer Komplexität als für die Kommunikation tatsächlich notwendig ist. Wie gerade das Chinesische zeigt, wird in der Regel auch eine sehr einfache Syntax verstanden. Damit unsere in Schallwellen gepackten Gedanken richtig beim Empfänger ankommen, muss im Rahmen einer Grammatik  neben der Form aber auch die inhaltliche Dimension geklärt werden. Dies ist das große Thema der Semantik . Ihr grundlegendster Aspekt ist die Lexikologie , die sich der konkreten Bedeutung einzelner Morpheme  und Wörter widmet. Das Wort „Baum“ lässt sich beispielsweise als „eine verholzte, langlebige Pflanze mit einem hochgewachsenen Stamm und belaubten Zweigen beschreiben. Um „Baum“ verstehen zu können, muss im Empfängergehirn eine neuronale Repräsentation des Begriffs vorhanden sein. Verholzt, langlebig, belaubt und verzweigt trifft allerdings auch auf Repräsentationen zu, die keine Bäume sind. Das, was einen Baum von anderen Gewächsen offenbar unterscheidet, scheint die Form des Stamms zu sein. Obwohl wir ein intuitives Verständnis von diesem Unterschied haben, gibt es keine allgemeingültige Definition wie lang oder dick der Stamm sein muss, damit eine Pflanze ein Baum und kein Strauch ist. Entsprechend noch schwieriger ist es daher, abstrakte Begriffe wie „Freiheit“, „Gleichheit“ oder „Brüderlichkeit“ einzufangen.   Die Bedeutung von „Bedeutung“ Das grundlegende theoretische Problem der Semantik ist es, die Bedeutung des Begriffs „Bedeutung“ zu klären. Als vielversprechendster (wenn auch nicht unumstrittener) Ansatz gilt heute eine Idee, die auf den Logiker   und Mathematiker Gottlob Frege  zurückgeht, den Begründer der modernen Sprachphilosophie . Für Frege steht der Wahrheit sgehalt eines Begriffs im Mittelpunkt: Die Bedeutung eines Satzes ist dann geklärt, wenn man angeben kann, ob der Satz in einer gegebenen Situation wahr oder falsch ist. Dies lässt sich auf zwei Arten überprüfen: Einerseits anhand einer logischen Beweisführung, wie wir sie etwa für mathematische Sätze kennen. Wenn Paul grösser als Peter ist und Peter grösser als Stefan, dann ist die Aussage wahr, dass Paul auch grösser als Stefan ist. Die zweite Möglichkeit ist eine Überprüfung anhand von Erfahrungstatsachen, ein Vorgehen, das in der Mathematik der Axiomatik entspricht. Der Wahrheitsgehalt muss nicht bewiesen werden, sondern offenbart sich dem „gesunden Menschenverstand“ – beispielsweise, wenn wir unmittelbar sehen können, dass Paul Stefan überragt. [i]  Mit seiner logischen Verknüpfung von Bedeutung und Wahrheit schuf Frege die Grundlage einer semantischen Theorie, die zumindest auf Aussagesätze angewendet werden kann. Frege verdanken wir auch die Unterscheidung zwischen Bedeutung und Sinn. Während die Bedeutung die „Extension“, den „Umfang“ eines Begriffs festlegt, beschreibt der Sinn die „Intension“, seinen „Inhalt“ oder seine „Tiefe“.   Gibt es sprachliche Eindeutigkeit? Mit diesem philosophischen Rüstzeug lassen sich semantische Phänomene wie Synonyme, Konnotationen und Mehrdeutigkeiten praktisch beleuchten. Synonyme  bezeichnen verschiedene Wörter mit gleicher Bedeutung. Frege nennt als Beispiel Morgenstern und Abendstern, die beide den Planeten Venus meinen. [ii]  Die beidem Begriffe haben zwar dieselbe Bedeutung, aber einen anderen Sinn. Morgenstern und Abendstern sind mögliche Ausprägungen des verifizierbaren Begriffsumfangs, mit dem sich der Planet Venus beschreiben lässt – beide beziehen sich auf dasselbe Objekt. Der Sinn der beiden Wörter ist jedoch jeweils ein anderer, weil beide Begriffe mit einer anderen Vorstellung, einer anderen gedanklichen Repräsentation verbunden sind, nämlich der des hellsten Sterns, der jeweils morgens und abends zu sehen ist. Letztlich bedeutet dies, dass es keine echten Synonyme gibt. Jedes Wort löst in unserem neuronalen Netzwerk eine andere Assoziation aus: Der Morgenstern ist nicht der Abendstern, eine Orange ist keine Apfelsine und ein Tischler ist kein Schreiner.   Es schwingt immer etwas mit Von den Synonymen ist es nicht weit zu den Konnotationen . Pferd, Ross, Gaul, Klepper und Mähre bezeichnen allesamt dasselbe Tier und sind damit in Freges Logik Ausprägungen derselben Bedeutung mit unterschiedlichem Sinn. Konnotationen haben im Gegensatz zu Synonymen aber noch Nebenbedeutungen, die dem Begriff noch bestimmte weitere Eigenschaften zuweisen. Ein Ross ist eben kein Gaul. Konnotierte Wörter zeugen oftmals von Sprachwandel: Begriffe wie „Mähre (ursprünglich einfach nur ein weibliches Pferd), „brav“ (ursprünglich ein Wort für tapfer), oder Propaganda (ursprünglich lediglich die Verbreitung einer Botschaft) sind Beispiele für solche Bedeutungsänderungen. Häufig lässt sich beobachten, dass Wörter mit Konnotationen, die als negativ oder diskriminierend empfunden werden, durch Euphemismen oder „politisch korrekte“ Formulierungen ersetzt werden. Dann wird aus einem militärischen Rückzug eine „Frontbegradigung“, aus einer Massenentlassung eine „Restrukturierung“, aus Eskimos werden „Inuit“, aus Zigeunern „Sinti und Roma“ (oder im Behördendeutsch gar eine „mobile ethnische Minderheit“.) [iii]   Mehrdeutigkeiten Die Semantik beschäftigt sich aber auch mit dem umgekehrten Fall, nämlich, dass Wörter und Sätze mehrdeutig sein können. Ein Baum kann auch Teil eines Segelschiffs sein und ein Ross eine Schachfigur. Das ist vor allem aus logischer Sicht ein Problem, denn eine eindeutige Sprache kann zwar mit Synonymen leben, nicht aber mit Vieldeutigkeit. Frege bemerkt zudem, dass es auch Begriffe gibt, die keinerlei Bedeutung haben, etwa „Der Wille des Volkes“ [iv] Das alles zeigt, dass nicht nur wir etwas mit den Wörtern machen – die Wörter machen auch etwas mit uns. Es ist uns, wie erwähnt, nicht gleich, ob wir von einem Chirurgen mit 90%iger Überlebenswahrscheinlichkeit oder von seinem Kollegen mit 10%iger Sterbewahrscheinlichkeit operiert werden. Wir denken Sprache, aber was wir denken, wirkt auch auf unser Verhalten zurück.     Unser semantischer Rahmen Betrachten wir die vielen Voraussetzungen, die gegeben sein müssen, damit Kommunikation zwischen Menschen funktioniert – Vorhandensein neuronaler Repräsentationen, gemeinsamer Zeichenvorrat, gemeinsame Interpretation von Zeichen, Kontext, Synonymen, Konnotationen, Mehrdeutigkeiten, Betonungen, Tonhöhenverlauf und Stilebenen – ist es eigentlich erstaunlich, dass sprachliche Kommunikation nicht zu noch mehr Missverständnissen führt. Warum die Verständigung meistens trotz aller Widrigkeiten klappt, versucht die von Charles Fillmore  begründete und von Marvin Minsky  weiterentwickelte „ Frame-Semantik “ zu erklären: Wir können Gedanken, Gefühle und Wünsche nur deshalb verstehen, weil in unserem Gedächtnis   Wissenseinheiten („Frames“, „Rahmen“) über die Welt abgelegt sind, die das zugrundeliegende Bezugssystem klären: Das Verb „kaufen“ beschreibt etwa einen Vorgang, der einen Käufer und einen Verkäufer voraussetzt, und bei dem etwas gegen Geld  den Besitzer wechselt. Rahmen enthalten definierte Standardsituationen mit Teilnehmern und Requisiten, die an bestimmte Situationen angepasst werden können: „Hans kauft ein Buch von Maria“ identifiziert in diesem Fall Käufer, Verkäufer und Ware. Da alle Beteiligten, einschließlich des Lesers, ein gemeinsames Verständnis des Rahmens „kaufen“ haben, wird der Satz verstanden, ohne dass das Verb zuerst definiert werden muss.   Wie mathematisch ist Sprache? Minsky war kein Linguist, sondern wie Frege Mathematiker und in den 1970er Jahren einer der Pioniere der Erforschung künstlicher Intelligenz . Sein Frame-Konzept ging aus dem Versuch hervor, Wissen in stereotype Teilstrukturen aufzulösen, die maschinell erlernt und ausgeführt werden können. Die Frage, ob menschliche Intelligenz artifiziell nachgebaut werden kann, ist so alt wie die Computerwissenschaften. Dass wir 50 Jahre nach Minskys Idee vom Ziel einer dem menschlichen Denken   vergleichbaren künstlichen Intelligenz noch immer weit entfernt sind, liegt vor allem daran, dass selbstlernende Programme heute nach wie vor nicht in der Lage sind, ihre Erkenntnisse auf analoge andere Situationen zu übertragen. [v]   Pragmatik: Bitte nicht wörtlich nehmen! Unser Sprachgebrauch macht es den Maschinen zugegebenermaßen auch nicht gerade leicht. Denn wir sagen gerne und durchaus absichtsvoll, nicht immer das, was wir meinen. Wir müssen dabei nicht einmal an den bitterbösen Sarkasmus  eines Jonathan Swift  denken, der in seiner 1729 erschienenen Satire „A Modest Proposal“ vorschlug, dass die verarmten Iren ihre zahlreichen Kinder als Nahrungsmittel an reiche Engländer verkaufen sollten. Die Wahrheitswerkzeuge der Semantik stoßen bereits sehr viel früher an ihre Grenzen. John F. Kennedys  „Ich bin ein Berliner“ besagt gemäß semantischer Analyse entweder, dass der amerikanische Präsident ein Einwohner Berlins ist oder – der Doppeldeutigkeit des Satzobjekts geschuldet – sich für eine Süßigkeit aus frittiertem Hefeteig hält. Tatsächlich aber war das berühmte Bekenntnis eine Solidaritätsadresse des mächtigsten Staats der Erde an eine isolierte Stadt. Während diese Aussage von Kennedys Zuhörern sofort verstanden wurde, tun sich die Algorithmen der künstlichen Intelligenz nach wie vor außerordentlich schwer, über rein semantische Bedeutung hinausgehende kommunikative Sinnzusammenhänge zu erkennen. Kennedys Äußerung ist nur mit Hilfe von menschlichem Weltwissen im Kontext eines spezifischen Aspekts des Ost-West-Konflikts verständlich. Der nichtwörtliche Gebrauch von Sprache ist Gegenstand einer weiteren linguistischen Teildisziplin, der Pragmatik . Nicht nur Swifts Sarkasmus oder Kennedys Metaphorik entzieht sich mathematischer Beschreibbarkeit. Auch unsere Alltagssprache ist voller hintergründiger Anspielungen, Doppeldeutigkeiten, offener oder versteckter Ironie. Pragmatik ist alles, was jenseits der semantischen Ebene kommuniziert wird. Sie macht einmal mehr deutlich, wie außerordentlich vielschichtig und komplex menschliche Sprache ist.   Den Blog entdecken   Wer mehr wissen will: McWhorter, John (2004): „The Story of Human Language”, Vorlesungsskript. Frege, Gottlob (1993): „Logische Untersuchungen“, Vandenhoeck und Ruprecht. Frege, Gottlob (1892): „Über Sinn und Bedeutung“, Zeitschrift für Philosophie und philosophische Kritik, NF 100, S. 25-50. Minsky, Marvin (2006): The Emotion Machine: Commonsense Thinking, Artificial Intelligence, and the Future of the Human Mind, Simon & Schuster Pinker, Steven (2012): “Wie das Denken im Kopf entsteht”, Fischer.   Bildnachweise: Marvin Minsky Venus [i] Vgl. Frege (1993) S.32 f. [ii] Vgl. Frege (1892) S. 25 ff. [iii] Der kanadisch-amerikanische Psychologe und Linguist Steven Pinker hat darauf hingewiesen, dass der Versuch, Dinge durch Euphemismen zu „beschönigen“ früher oder später dazu führt, dass der neue Begriff die negative Konnotation des alten Ausdrucks übernimmt. [iv]  Frege (1892) S.41. [v]  1950 hatte der britische Informatik-Pionier Alan Turing einen später nach ihm benannten Test entworfen. Ein Maschinen-Algorithmus besteht den Test dann, wenn wir nicht mehr unterscheiden können, ob wir uns anonym gerade mit einem Menschen oder einer Maschine unterhalten. Aktuelle KI Lösungen wie ChatGPT bestehen diesen Test heute problemlos.

  • Bewusstsein: Auf der Suche nach dem Geist

    Fortsetzung von „Wie die Welt im Kopf entsteht (Teil 2)   Auf der Suche nach dem Geist Carl von Linné , der große schwedische Naturforscher und Zeitgenosse La Mettries , war der Erste, der den Menschen aus taxonomischer Sicht klassifizierte und ihn der Ordnung der Primaten   zuwies. Entgegen seiner sonstigen Angewohnheit lieferte Linné für seine eigene Spezies keine weitere zoologische Beschreibung, sondern beschränkte sich auf den Satz: „Erkenne dich selbst“. Wahrnehmung, Aufmerksamkeit , Erinnern , Denken   und intelligente Problemlösung finden sich auch bei zahlreichen anderen Tierarten. Insbesondere Termiten, Bienen, Rabenvögel, Wale, Wölfe und Schimpansen tun sich hier hervor. Schimpansen, Orang-Utans und Rabenvögel können sich zudem im Spiegel selbst erkennen und zeigen damit zumindest Ansätze von Bewusstsein . Bereits Charles Darwin  war überzeugt, dass die Unterschiede zwischen Tier und Mensch beim Denken, nur gradueller Natur sind. Tatsächlich hat der Mensch bei näherer Betrachtung kaum ein echtes Alleinstellungsmerkmal: Der Gebrauch von Werkzeugen, planvolles Handeln, die Vermittlung von Traditionen, eine differenzierte Kommunikation   durch Gebärden und Laute, Trauer um verstorbene Gruppenmitglieder, das Erfassen von Mengen oder Arbeitsteilung sind Befähigungen, die sich auch im Tierreich finden. Der wesentliche Unterschied liegt darin, dass der Mensch all diese Fähigkeiten deutlich besser beherrscht als alle anderen Tiere. Die Ursache hierfür ist sein stark entwickeltes Bewusstsein, jene von Linné beschriebene Fähigkeit zu Selbsterkenntnis und Selbstreflexion. Sie hat es dem Menschen ermöglicht, in wenigen 100.000 Jahren eine Entwicklung zu durchlaufen, die ihn vom Aasfresser zum Astronauten werden ließ.   Schuf ein tektonisches Ereignis unser Bewusstsein? Der menschliche Geist ist nicht vom Himmel gefallen. Er hat seinen Ursprung wahrscheinlich in dem ostafrikanischen Grabenbruch, der vor einigen Millionen Jahren die dortige Affenpopulation spaltete. Vielleicht wäre Bewusstsein ohne dieses tektonische Ereignis bis heute nicht entstanden. Wie sich die Entwicklung genau vollzog, liegt im Dunkel der Naturgeschichte. Ein nackter Affe aus Afrika hat vom Baum der Erkenntnis gegessen und sich dadurch aus einem Leben im ewigen Hier und Jetzt befreit – oder, wenn man so will, sich dazu verdammt, nicht mehr im ewigen Hier und Jetzt leben zu dürfen. Zu der unintelligenten, zufälligen und nur im Rhythmus von Generationen voranschreitenden biologischen Evolution  gesellte sich damit eine kulturelle Evolution . Sie ermöglichte es, Mengen an nützlicher Information zu erzeugen, die die der DNS-Mutationen um einen vielhundert millionenfachen Faktor übersteigen. Bewusstes   Denken erlaubt es uns, zu abstrahieren, flexibel auf verschiedene Situationen zu reagieren, Chancen zu ergreifen, widersprüchliche Informationen aufzulösen, Vergangenes und Zukünftiges in unsere Überlegungen mit einzubeziehen, Ausgänge von Entscheidungen zu simulieren, Dinge zu priorisieren, Ähnlichkeiten und Unterschiede festzustellen, Begriffe zu erfinden, neue Ideen in die Welt zu setzen, Erkenntnisse mittels Sprache   und Schrift  mit anderen zu teilen, Überzeugungen zu entwickeln und Ziele trotz Hindernissen zu erreichen. Zudem können wir Realitäten jenseits der für uns fassbaren Wirklichkeit in unser Handeln einbeziehen: Wir können Wahrscheinlichkeiten oder die Eigenschaften vierdimensionaler Räume berechnen und damit die Naturgesetze   in unseren Dienst zwingen; genauso können wir Religionen, Mythen, Kunst, Literatur und Musik erschaffen, Ausdrucksformen menschlicher Kultur, die – zumindest auf den ersten Blick – keinen erkennbaren Nutzen haben.   Ein soziales Gehirn Der menschliche Geist ist dem anderer Tiere insbesondere deshalb überlegen, weil er sich nicht nur der eigenen Existenz, sondern auch der Existenz anderer bewusst ist. Homo sapiens verfügt über ein außerordentlich soziales Gehirn .   Es befähigt ihn, seine kognitive Begabung nicht nur in Konkurrenzsituationen zu nutzen, sondern auch, um mit anderen Artgenossen zu kooperieren. Das geht so weit, dass manchmal tausende oder gar Millionen Menschen an einem gemeinsamen Ziel arbeiten. Das menschliche Gehirn ist fähig, sich in andere Menschen hineinzuversetzen, deren verdeckte Motive, Gefühle, Absichten und Erwartungen zu erkennen und zu verstehen, wie ihr Handeln auf uns zurückwirkt. Mit diesem Verständnis lässt sich eine gemeinsame Jagd organisieren, Solidarität üben oder eine Intrige schmieden. Menschen mit sozialen Gehirnen pflegen ihre Kranken, bestatten ihre Toten, führen Kriege oder kontrollieren ihre Gruppenkonflikte mit Kulturtechniken wie Tanz und Musik.   Wir wissen nicht, wie Bewusstsein entsteht So, wie ein Verbund toter Atome gemeinsam „leben“ kann , können unbewusste Neuronen   gemeinsam etwas „erleben“. Doch wie entsteht diese einzigartige Fähigkeit? Grundlage des Bewusstseins sind, wie erwähnt, Nervenzellen in den evolutionär jüngsten Schichten des Gehirns, die mit anderen Neuronen der Großhirnrinde   verknüpft sind. Während tiefere Ebenen des Gehirns darüber Protokoll führen, was draußen in der Welt geschieht, beschäftigt sich die oberste Ebene des Kortex mit den Vorgängen im Gehirn selbst. Descartes hatte vermutet, dass das Bewusstsein an einem bestimmten Ort wohnt, an dem alle Fäden zusammenlaufen, eine Schaltstelle, von der aus es mit dem Körper kommuniziert. Diese Vorstellung hielt sich bis weit ins 20. Jahrhundert. Heute wissen wir, dass sie falsch ist. Die Prozesse, die unseren Geist erzeugen, sind in einem außerordentlich arbeitsteiligen und dezentralen System organisiert. Ein System, das durch plastische Lernprozesse seine funktionelle Architektur laufend ändert und dabei trotzdem stabil bleibt. Seine Selbstreglungsmechanismen erhalten und koordinieren es, ohne dass eine zentrale Steuerungsinstanz nötig wäre. Vermutlich beruhen bewusste Wahrnehmungen und Gedanken auf einer kurzzeitigen Synchronisation verschiedener, weit über die Großhirnrinde verteilter Areale . Die zerstreute Natur dieser Repräsentationen macht die Erforschung des Bewusstseins außerordentlich schwierig. Bewusstsein scheint ein „metastabiler Zustand eines massiv distributiv organisierten Systems mit nicht-stationärer, nicht-linearer Dynamik“ zu sein, der sich bis heute jeder Beschreibbarkeit entzieht. [iv]  Wir haben, kurz gesagt, nicht die geringste Vorstellung davon, wie aus Aktivitäten des Gehirns bewusstes Erleben entsteht. Sollte es eines Tages ein Modell geben, das diese Zustände und Prozesse zu beschreiben vermag, wäre dieses Modell außerordentlich komplex. Bis dahin gilt, dass menschliches Bewusstsein nicht messbar ist; wir gehen zwar davon aus, dass es eine materielle Grundlage hat, können es aber mit physikalisch-mathematischen Mitteln nicht beschreiben. [v]  Wahrscheinlich kann es ein solches Modell auch gar nicht geben: Wir können über das Gehirn nur das in Erfahrung bringen, was uns das Gehirn zu wissen erlaubt. Mit ihm lässt sich zwar auf niedrigere Bewusstseinsebenen herabschauen, doch wir verfügen über keine höhere Instanz, von der aus sich unser eigener Entwicklungsstand vollständig betrachten ließe. [vi]  Sowenig, wie die Mathematik   mit ihren Mitteln ihre eigene Widerspruchsfreiheit zu beweisen vermag, vermag auch das Gehirn nicht, sich in seiner Gesamtheit selbst zu analysieren.   Sigmund Freuds Instanzenmodell Wir wissen, dass es uns gibt und dass wir in eine Umwelt eingebettet sind. Doch es fällt uns schwer, die Instanz zu benennen, die all dies spürt. Das menschliche Gehirn erschafft eine Empfindung, die wir als „Ich“ wahrnehmen, etwas, dem wir so unterschiedliche Dinge wie unseren Körper, unsere Gedanken, unsere verschiedenen Identitäten oder unseren Selbstwert zuordnen. Die Frage nach dem Wesen der empfindenden und handelnden Instanz markiert den Übergang von der Neurobiologie   zur Psychologie . Ein Meilenstein auf ihrem Weg zur einer eigenständigen Wissenschaft war um 1900 die Entdeckung des Unbewussten durch den Wiener Neurologen und Begründer der Psychoanalyse  Sigmund Freud (1856-1939). [vii]   In Freuds grundlegendem 1923 veröffentlichten „ Strukturmodell der Psyche “ formen drei Instanzen, das „ Es “, das „ Ich “ und das „ Über-Ich “ die menschliche Seele . Das „Es“ sind die vollkommen unbewussten triebhaften Bedürfnisse, wie der Nahrungs- und der Sexualtrieb. Das mehrheitlich unbewusste „Über-Ich“ sind jene, vor allem durch Erziehung vermittelte Instanzen, die unsere Überzeugungen, Moralvorstellungen, sozialen Normen und unser Gewissen in Form von Geboten und Verboten repräsentieren. Das „Ich“ schließlich ist unser „ Selbstbewusstsein “, jener Teil von uns, der versucht, die Konflikte zwischen „Es“ und „Über-Ich“ aufzulösen, indem es den kritischen Verstand Selbstkontrolle üben lässt. Doch auch das „Ich“ verfügt noch über wesentliche unbewusste Anteile. Freud lenkte damit erstmals unsere Aufmerksamkeit auf unser Innenleben und stellte unsere vermeintliche Entscheidungsfreiheit infrage. Sein Seelenmodell zeigt, dass sich unsere Persönlichkeit aus verschiedenen bewussten und unbewussten Instanzen zusammensetzt. Er hat damit, wie er es selbst einmal formulierte, dem „Ich“ nachgewiesen, „dass es nicht einmal Herr ist im eigenen Hause, sondern auf kärgliche Nachrichten angewiesen bleibt von dem, was unbewusst in seinem Seelenleben vorgeht“. [viii]  Die Erkenntnis, dass wir wohl stärker durch Triebe und erlernte Normen als durch unseren freien Willen  gesteuert werden, war nach Kopernikus   und Darwin der dritte große Akt der Vertreibung des Menschen aus der Mitte des Universums.   Den Blog entdecken    Wer mehr wissen will: Freud, Sigmund (1916/17): „Vorlesungen zur Einführung in die Psychoanalyse“ Projekt Gutenberg-DE. Ditfurth, Hoimar von (1976): „Der Geist fiel nicht vom Himmel“, Hoffmann und Campe. Roth, Gerhard, Strüber, Nicole (2018) „Wie das Gehirn die Seele macht“, Klett-Cotta Singer, Wolf (2004): „Neuere Erkenntnisse der Hirnforschung“, Vortrag, Heidelberg. Pinker, Steven (2012): “Wie das Denken im Kopf entsteht”, Fischer. Tomasello, Michael (2014): „Eine Naturgeschichte des menschlichen Denkens“, Suhrkamp. Kandel, Eric (2014): „Das Zeitalter der Erkenntnis“, Pantheon. Hawking, Stephen (2016): „Das Universum in der Nussschale“, dtv Hofstadter, Douglas (2018) „Gödel, Escher, Bach“, Klett-Cotta.   Bildnachweise  Freuds Instanzenmodell Anmerkungen: [i]  Vgl. Hawking (2016) S. 213.  [ii]  Vgl. Hofstadter (2016) S.29. [iii]  Zu diesem letzten Aspekt siehe Tomasello (2014) S.186. [iv]  Singer (2004). [v] Vgl. Pinker (2012) S. 82 ff. [vi] Vgl. Ditfurth (1976) S.18. [vii] Vgl. Kandel (2014) S. 73 ff. [viii] Freud (1916/17) 18. Vorlesung.

  • Von der Explosion der Arten bis zum Ende des Neogen: 537 Millionen Jahre Erdgeschichte

    Fortsetzung von: „Die Entstehung des Lebens“   Die kambrische Explosion der Arten In diese Idylle   platzt Knall auf Fall die kambrische Explosion . In einem Zeitraum von nur wenigen Millionen Jahren – nach erdgeschichtlichen Maßstäben also fast über Nacht – entstehen die Stämme nahezu aller heute lebenden Tierarten. Es scheint, dass das Leben , nachdem es sich drei Milliarden Jahre lang Zeit gelassen hatte, es nun auf einmal eilig hat. Tatsächlich aber wäre der plötzliche Aufbruch ohne die über Äonen währende gründliche Vorbereitung nicht möglich gewesen. Unablässig hatte das Leben zunächst an stabilen biochemischen Zyklen , dann an einer effizienten Energieversorgung   und schließlich an arbeitsteiligen Gewebestrukturen   gefeilt. All dies waren zwingende Voraussetzungen, für die nun beginnende atemberaubende Beschleunigung.   Das erste Wettrüsten Ein hoher Sauerstoff - und Mineralgehalt im Wasser begünstigt die Entwicklung der ersten schnellen und mit einem primitiven Sehvermögen ausgestatteten Raubtiere . Als sie die Bühne der Evolution   betreten, ist es mit der Gemütlichkeit vorbei: Alle orientierungs- und schutzlosen Tiere sind für die Jäger nun eine leichte Beute. Der evolutionäre Stress im Wasser nimmt rasant zu. Doch Not macht erfinderisch. Die in die Defensive gekommenen Arten reagieren mit Gehäusen, Panzern, verbesserten Sinnesorganen und zwingen die Prädatoren ihrerseits nachzuziehen; es kommt zu einem regelrechten Wettrüsten zwischen Jägern und Gejagten. Kalkdepots, die ursprünglich dazu dienten, das Zellgift Kalzium zu neutralisieren und verhärtete Eiweißstrukturen liefern die Materialien für zwei grundlegend neue Bauprinzipien: Innen- und Außenskelette verleihen den bislang amorphen Tieren Schutz und Stabilität. Vor 530 Millionen Jahren bevölkern die frühen Vertreter der beiden neuen Stämme die Urmeere: Wirbeltiere mit einer zunächst noch knorpeligen inneren Kalzium-Stützstruktur, und Gliederfüßer mit ihren außen getragenen Chitinpanzern. [i]   Bei beiden Stämmen sammeln sich an dem in Bewegungsrichtung weisenden Körperende lichtempfindlichen Nervenzellen , einfache Sensoren, aus denen sich die Augen entwickeln werden. Die Verarbeitung der Lichtimpulse lässt den benachbarten Nervenknoten nach und nach wachsen. Aus einer Verlängerung der Wirbelsäule entwickelt sich mit der Zeit bei den Wirbeltieren ein Schädelknochen, der das immer wichtiger werdende Nervenzentrum schützt. Schlüsselereignis Bedeutung Vor … Jahren Urknall Entstehung von Zeit, Raum und Materie 13,8 Mrd. Erste Atome Stabile Systeme aus Elementarteilchen und Grundkräften 13,7996 Mrd. Sterne Licht, Elemente schwerer als Helium, Galaxien 13,6 Mrd. Unser Sonnensystem Entstehung von Planeten und Monden 4,6 Mrd. Chemische Evolution Komplexe organische Moleküle auf der Erde 4,0 Mrd. Leben Beginn der biologischen Evolution 3,8 Mrd. Photosynthese Speicherung von Sonnenlicht; Lösung der ersten Energiekrise 2,8 Mrd. Sauerstoffatmung Effiziente Energiegewinnung durch vollständigen Zuckerabbau 2,0 Mrd. Eukaryoten Zellen mit getrennten Reaktionsräumen 1,8 Mrd. Vielzeller Arbeitsteilige Zellkolonien, Tod als Zwangsläufigkeit 1,5 Mrd. Sex Erhöhung der Variabilität, sexuelle Auslese 1,2 Mrd. Nervennetze Koordination komplexer Organismen 650 Mio. Wirbeltiere Innenskelett als überlegenes Bauprinzip 530 Mio. Landgang des Lebens Umgang des Lebens mit Gravitation und Trockenheit 480 Mio. Warmblütigkeit Umweltunabhängige Reaktionsbedingungen 200 Mio. Gattung Mensch Säugetiere mit Bewusstsein, Sprache und Kultur 2,3 Mio.   Landgang Vor etwa 480 Millionen Jahren kommt es zum nächsten Entwicklungssprung: Nach Tausenden von Millionen Jahren verlässt das Leben erstmals sein angestammtes Element. Die Pioniere, die den ersten Landgang wagen, sind unscheinbare Pflanzen, aus Grünalgen hervorgegangene Urahnen der heutigen Moose. An Land finden sie gute Bedingungen: Wasser, intensives Sonnenlicht und große Mengen des wichtigsten Baustoffs Kohlendioxid, der sich leicht der Luft entnehmen lässt. Die rasche Vermehrung der Landpflanzen verringert den Anteil des CO2-Treibhausgases in der Atmosphäre; erneut kommt es zu einer drastischen Abkühlung; einmal mehr fallen zahllose Arten dieser neuen Klimakatastrophe zum Opfer. In den folgenden Jahrmillionen breitet sich das Leben  entlang der Flüsse und Seen aus; Moose und Farne entstehen. Vor 400 Millionen Jahren – ein Erdentag dauert bereits fast 22 Stunden – erscheinen im Meer die ersten Knochenfische , die über ein viel härteres Innenskelett verfügen. Schon bald darauf macht eine Unterklasse der Knochenfische eine revolutionäre Erfindung: die Lunge , ein neuartiges Organ, das es seinen Besitzern erstmals ermöglicht, den stark konzentrierten Sauerstoff oberhalb der Meeresoberfläche zu atmen. Vor etwa 370 Millionen Jahren entsteht in den flachen, schlammigen Uferzonen der Urmeere aus den Lungenfischen  eine neue Wirbeltierklasse, die Amphibien . Um sich fortpflanzen zu können, sind sie noch immer auf das Wasser angewiesen, doch ansonsten ist nun das trockene Land ihr Element. Dort krabbelt und wimmelt es bereits. Die wirbellosen Vorfahren unserer heutigen Spinnen und Insekten hatten den Landgang bereits vor den Amphibien gewagt. Nun bieten sie diesen eine praktische Nahrungsquelle. Weitaus schwieriger als die Ernährungsfrage ist für die ersten Landwirbeltiere der Umgang mit der Schwerkraft. Das Auftriebsprinzip wirkt an der Luft kaum, sie müssen nun ein Vielfaches ihres bisherigen Gewichts tragen. Der hohe Sauerstoffgehalt der Luft erweist sich bei dieser Kraftanstrengung als hilfreich. Unter dem gravitativen Zwang entwickeln sich aus den unterseitigen Flossen vier kräftige Extremitäten. Das auf je zwei Vorder- und Hinterbeinen basierende tetrapodische Konstruktionsprinzip wird zum gemeinsamen Merkmal aller künftigen Landwirbeltiere. Reptilien Während der folgenden 60 Millionen Jahre verschwinden weite Teile der Erdoberfläche unter ausgedehnten Wäldern aus baumartigen Farnen. In der Karbonzeit  entstehen durch Sauerstoffabschluss die Steinkohleflöze, die einst die Industrielle Revolution des 19. Jahrhunderts  befeuern werden. Unterdessen haben sich die Amphibien aufgemacht, das Binnenland zu erobern. Eine schwierige Mission, denn das Leben bleibt nach wie vor auf Wasser angewiesen. Um den Organismus vor Austrocknung zu schützen, bilden sich nach und nach dicke Hautschichten aus. Ein Harnsystem   entwickelt sich, das den internen Wasserverbrauch minimiert. Auch die nächtliche Kälte an Land ist ein Problem, denn die Stoffwechselreaktionen   müssen auch bei schwankenden Temperaturen stets aufrechterhalten werden. Die Lösung besteht in einer Anpassung an die Umgebungstemperatur, eine Fähigkeit, die die ersten Landbewohner im Ansatz bereits aus dem Meer mitgebracht haben. Mit Sonnenuntergang verfallen die Amphibien in eine energiesparende Kältestarre, die das Aktivitätsniveau sämtlicher Lebensfunktionen auf das Äußerste reduziert – unser nächtliches Schlafbedürfnis ist ein evolutionäres Erbe dieser Strategie. In kalten Breitengraden kommt eine mehrere Monate anhaltende Winterstarre hinzu. Mit diesen Fähigkeiten ausgestattet, beginnen die Landwirbeltiere vor 300 Millionen Jahren selbst in eisige Klimazonen vorzudringen. Tektonik Die veränderten Auswahlmechanismen außerhalb des Wassers   lassen nach und nach aus den Amphibien die Reptilien entstehen. Die neue Wirbeltierklasse ist in der Lage, sich an Land fortzupflanzen, indem sie ihre Brut mit Kalkschaleneiern vor Austrocknung schützt. Während die Wirbeltiere ihren Grundbauplan so schrittweise weiterentwickeln, wird sich das Bauprinzip der konkurrierenden Gliederfüßer in den folgenden Jahrmillionen als evolutionäre Sackgasse erweisen: Mechanische Grenzen beim Wachstum des Außenskeletts und Defizite einer nicht auf Lungen, sondern lediglich auf Tracheen basierenden Sauerstoffversorgung beschränken die Möglichkeiten des Tierstamms. Vor 200 Millionen Jahren – zwischenzeitlich hat giftige Vulkanasche 95% aller Tierarten im Meer und zwei Drittel aller Landtierarten ausgerottet – verbindet eine große, zusammenhängende Landmasse namens Pangaea den Nordpol mit dem Südpol. Auf dem Riesenkontinent haben sich innerhalb der Reptilien verschiedene Ordnungen herausgebildet, von denen sich insbesondere die Schildkröten und Krokodile als sehr langlebige Erfolgsmodelle erweisen werden. Sie bleiben jedoch zunächst im Schatten einer anderen Reptiliengruppe, die am Beginn einer fulminanten Karriere steht: die Dinosaurier. Sie erleben in den geologischen Perioden des Jura  und der Kreidezeit  ihre große Blüte. 140 Millionen Jahre lang dominieren Echsen aller Größenordnungen und Erscheinungsformen das tierische Landleben. Ein Sauerstoffanteil in der Atmosphäre von fast 30 % begünstigt die Entstehung gigantischer Arten, bis zu 30 Meter lang, acht Meter hoch und über 70 Tonnen schwer. Die Evolution der Pflanzen Auch die Pflanzen machen bemerkenswerte Fortschritte. Am Übergang vom Jura zur Kreide taucht eine neue Gewächsform auf, die Blütenpflanzen. Sie haben eine innovative Fortpflanzungsstrategie entwickelt, bei der die Samen von Fruchtblättern bedeckt werden. Ihr Erfolg beruht auch auf einer Symbiose  mit Insekten, die mit Düften und Farben angelockt werden und helfen, Selbstbestäubungen zu vermeiden. Dadurch erhöht sich die Variabilität der nächsten Generation, was die Bedecktsamer zu den dominierenden Landpflanzen werden lässt. Die Welt ist bunter, aber einmal mehr auch komplexer geworden. Vögel Bereits während der Hochphase der Echsen entstehen zwei neue, zunächst noch völlig unscheinbare Klassen von Landwirbeltieren. Vor etwa 150 Millionen Jahren, am Ende des Jura, erscheinen die Vögel  auf der ökologischen Bühne. Ihre Ahnen waren kleinwüchsige, räuberische Dinosaurier, die sich allein auf den Hinterbeinen fortbewegten. Federn, zunächst wahrscheinlich nur ein reiner Kälteschutz, befähigen die Vögel mit der Zeit zum Fliegen. Eine noch bedeutsamere Neuerung ist die Entwicklung zweier getrennter Herzkammern. Das Mehr an Energie , das der verbesserte Gasaustausch zur Verfügung stellt, kann nun in eine revolutionäre Technik investiert werden: Die Aufrechterhaltung einer konstanten Körpertemperatur. Die fantastischen Säugetiere Auch die andere junge Wirbeltierklasse, die Säugetiere , hat diese Fähigkeit. Ihre frühesten, nur drei Zentimeter langen, mausähnlichen Vertreter tauchen bereits 45 Millionen Jahre vor den ersten Vögeln auf. Anders als die Vögel behalten die Säugetiere ihre Reptilienzähne. Ein filigranes System aus Trommelfell und Gehörknöchelchen ermöglicht eine differenzierte Aufnahme von Schallwellen, mit denen die Säuger sowohl leisere als auch höhere Töne wahrzunehmen vermögen als ihre Konkurrenten. Das hornartige Protein Keratin, das bei den Vögeln die Federn bildet, wird bei den Säugern zum Baustoff für ein wärmeisolierendes und wasserabweisendes Fell. Ihre wichtigste Innovation aber ist, dass Säugetiere keine Eier mehr legen, sondern lebende Junge gebären, die sie in der frühen Lebensphase mit einem zucker-, fett- und eiweißhaltigen Drüsensekret der Muttertiere ernähren. Ihre Fähigkeit, mittels Mikrovibrationen der Muskelfasern Wärme zu erzeugen und so die eigene Körpertemperatur zu regulieren, erlaubt es Vögeln und Säugern, sich mehr als alle anderen Tiere zuvor, von Umweltbedingungen unabhängig zu machen. Konstante chemische Reaktionsbedingungen erweisen sich als gewichtiger Wettbewerbsvorteil: Gleichwarme Tiere haben ein schnelleres Reaktionsvermögen, können nachts, wenn wechselwarme Tiere in hilflose Kältestarre verfallen, auf Jagd gehen und selbst in den kältesten Klimazonen überleben. Die evolutionäre Neuerung hat allerdings ihren Preis: Das interne Heizungssystem ist auf eine hohe und kontinuierliche Energiezufuhr angewiesen. Das verleiht Vögeln und Säugern etwas Rastloses. Gleichwarme Tiere müssen nun eine Vielzahl komplexer Regelkreise aufrechterhalten: Körpertemperatur, Wasserhaushalt, ein Abwehrsystem gegen invasive Einzeller und Viren. Vor allem aber muss eine Flut von Sinnesseindrücken verarbeitet werden, die aus einer immer undurchsichtiger werdenden Umwelt auf den Organismus einprasseln. Die steigenden Anforderungen an das Informationsverarbeitungssystem haben aus dem winzigen Nervenknoten der frühen Vielzeller ein komplexes Steuerungsorgan werden lassen, in dem die Evolution   eine Vielzahl einfacher, aber bewährter Verhaltensprogramme abgelegt hat. Schon wieder ein Massensterben Die Kreidezeit geht vor rund 70 Millionen Jahren mit einem weiteren Massensterbeereignis zu Ende. Die Riesenechsen, die so lange die Landfauna geprägt hatten, verschwinden wieder von der Erdoberfläche, vielleicht in Folge eines gewaltigen Meteoriteneinschlags im heutigen Mexiko, der eine neue Eiszeit auslöst. Die für Großreptilien tödlichen Veränderungen erweisen sich für die kleinen, agilen, warmblütigen Arten als Glücksfall. Sie kommen mit der Kälte gut zurecht und besetzen nun die ökologischen Nischen, die ihnen die Saurier hinterlassen haben. Vor 55 Millionen Jahren haben die Bruchstücke des mittlerweile zerfallenen Superkontinents Pangaea im Wesentlichen die Positionen der heutigen Erdteile eingenommen. Der indische Subkontinent kollidiert mit der asiatischen Landmasse und beginnt den Himalaya aufzufalten. Südlich davon setzen warme Monsunregen ein, nördlich des Gebirges wird es merklich kühler. Das nordwärts driftende Afrika  erzeugt eine ähnliche Wirkung: Zusammen mit Europa , dem unscheinbaren, zerklüfteten Wurmfortsatz Asiens, beginnt es das Mittelmeer zu umschließen. Durch den afrikanischen Druck auf die Apulische Platte entstehen die Alpen. Der Gebirgszug trennt nun die europäischen Luftmassen und lässt eine wärmere und eine kältere Klimazone entstehen. In den folgenden 40 Millionen Jahren bleibt das Weltklima zumeist kühl. Einige Säugetiere, die Ahnen der heutigen Wale, Delphine und Robben, kehren wieder in das Element ihrer Vorfahren zurück. Vor rund 27 Millionen Jahren, am Ende des Paläogens, bildet sich zwischen Afrika und Eurasien eine Landbrücke, während Nord- und Südamerika , Australien  und die Antarktis in ihrer geographischen Isolation verharren. Insbesondere in Australien und Südamerika entwickelt sich eine eigene Fauna, die von der Entwicklung der Säugetiere auf der Nordhalbkugel abgeschnitten bleibt. Eine fast vertraute Welt Die Welt am Übergang des Paläogens  zum Neogen , vor 23 Millionen Jahren, erscheint uns schon recht vertraut. Ausgedehnte Sumpfwälder legen die Grundlage der heutigen Braunkohlevorkommen. Die von Bedecktsamern geprägte Flora ähnelt im Wesentlichen bereits der heutigen Pflanzenwelt und gerade macht sich die noch junge Ordnung der Gräser daran, außerhalb der Wälder die Landschaften zu erobern. Die Säugetiere haben sich weltweit verbreitet und zu stattlicher Größe entwickelt. Geschmeidige Raubkatzen, stolze Hirsche, flinke Antilopen und gemächliche Rüsseltiere durchstreifen die Wälder und offenen Graslandschaften fast aller Klimazonen. In der äußersten Schicht ihres Großhirns , dem Neokortex , werden zahllose Informationen zusammengeführt und zu einem entwickelten räumlichen Vorstellungsvermögen und differenzierten Sozialverhalten verknüpft. Die tropischen Regenwälder sind in Folge der lang anhaltenden Abkühlung und Trockenheit auf dem Rückzug. Offene Baum- und Graslandschaften breiten sich aus. Während in Europa die Pyrenäen, der Jura und die Karpaten entstehen und sich in Nordafrika das Atlasgebirge auftürmt, kommt es im östlichen Afrika ebenfalls zu einer geologischen Veränderung, deren Folgen sich für den weiteren Verlauf der Erdgeschichte als ungleich grösser erweisen werden: Der Kontinent beginnt, mit der Geschwindigkeit, mit der ein Fingernagel wächst, auseinanderzubrechen. Entlang der Bruchkante entsteht in Nord-Süd-Richtung nach und nach ein langer, tiefer Graben. Vor etwa drei Millionen Jahren stoßen die nord- und südamerikanischen Landmassen zusammen. Für die südamerikanischen Säugetiere ist dieses Ereignis eine Katastrophe: Über die Landbrücke des neu entstandenen Isthmus von Panama dringen räuberische Invasoren aus dem Norden ein, die innerhalb kurzer Zeit die meisten großen Arten auf dem Südkontinent verdrängen. Im weit entfernten Europa bewirkt die amerikanische Kollision eine deutliche Klimaänderung: Der von der afrikanischen Küste kommende Golfstrom , der zuvor weiter in den Pazifik trieb, wird nun in Richtung Nordosten umgelenkt; seine Wassermassen erwärmen nun die westeuropäischen Küsten. Die Kontinente haben ihre heutigen Formen und Positionen angenommen: Der amerikanische Doppelkontinent und Afrika bilden lange Nord-Südachsen, während die gigantische eurasische Landmasse von West nach Ost verläuft. Auf der Südhalbkugel finden sich die beiden kleineren, isolierten Kontinente Australien und die Antarktis. Die Anordnung von Kontinenten, Gebirgen, Gräben, Strömungen und Winden wird einen wesentlichen Einfluss auf die Entwicklung der Menschheit haben.   Den Blog entdecken    Bildnachweise:  Pangäa Kambrische Explosion Eiszeit am Ende des Neogen Anmerkungen: [i] Für Nerds: Aus taxonomischer Sicht sind Wirbeltiere ein Unterstamm der Chordatiere, von denen sie allerdings rund 98% aller bekannten Stammesangehörigen repräsentieren. Die beiden Stämme gingen nicht nur beim Skelettdesign, sondern auch beim Sauerstofftransport getrennte Wege. Weich- und Krebstiere entwickelten ein System, das auf dem Element Kupfer beruht und ihr Blut deshalb blau färbt. Wirbeltiere setzten beim Sauerstofftransport hingegen auf das rotfärbende Eisen.

  • Das Fenster zur Welt: Wie funktioniert unser Nervensystem?

    Fortsetzung von „Sugar makes the world go round”   Das Fenster zur Welt Unter den zahlreichen eukaryotischen Zelltypen sind die Neuronen die wohl merkwürdigsten Vertreter. Ohne diese bizarren Gebilde wüssten wir nicht, dass es uns und die Welt gibt. Nervenzellen  lassen uns träumen, Intrigen schmieden, Sonette dichten, ewige Treue schwören, imaginäre Zahlen erfinden, zum Mond fliegen oder an höhere Wesen glauben. Aus ihrem Zusammenspiel entsteht ein komplexes Informationsverarbeitungssystem, das mittels eines permanenten elektrochemischen Gewitters sicherstellt,   dass wir mit uns selbst und der Welt um uns herum zurechtkommen. Pausenlos überprüft es externe und interne Signale hinsichtlich ihrer Bedeutung für das Wohlergehen des Organismus, indem es Änderungen des Energieniveaus der Umgebung und des eigenen Körpers in Empfindungen umwandelt, die wir als Farben, Geräusche, Gerüche, Schmerzen, Hitze, Hunger, Glücksgefühle oder Assoziationen wahrnehmen. Kurz: Neuronen lassen die Welt in unserem Kopf entstehen. Das Konzert, das das Zusammenspiel der Neuronen  veranstaltet, verstehen wir trotz großer Fortschritte in den letzten Jahren erst ansatzweise. Die Neurowissenschaften sind heute das vielleicht bedeutsamste Grenzgebiet naturwissenschaftlicher Forschung. Wir stehen an der Schwelle zum Zeitalter der Materialisierung des Geistes, ein Thema, dem wir in der Blog-Kategorie „Bewusstsein“ nachgehen. werden. An dieser Stelle beschränken wir uns daher zunächst auf eine rein biologisch-mechanische Betrachtung des Nervensystems .              Eine sehr merkwürdige Zelle Der erste, der sich intensiv mit der Anatomie der Neuronen auseinandersetzte, war Camillo Golgi – wir sind ihm bereits begegnet . Seine Forschungsarbeiten auf dem Gebiet der Neurologie sollten 1906 immerhin mit dem Nobelpreis für Medizin belohnt werden. Das ungewöhnliche Erscheinungsbild des Neurons verrät uns bereits einiges über seine Arbeitsweise. Es besteht aus einem Zellkörper, von dem filigrane Verästelungen, die Dendriten , antennenartig verzweigen. An einer Stelle entspringt dem Körper ein besonders langer und kräftiger Strang, das Axon . In manchen Fällen erreicht es die für Zellen unglaubliche Länge von über einem Meter. Das Axon ist im Grunde ein elektrisches Kabel. Wie eine Telefonleitung ist es in der Lage, mittels Ladungsträgern Informationen zu befördern. Bei den besonders dicht verkabelten Wirbeltieren ist das Axon von Schwann-Zellen umgeben. Sie produzieren die lipidhaltige Membran Myelin, die den Strang isoliert und so Kurzschlüsse verhindert. Die Isolierung ist nicht durchgängig, sie wird von kleinen Lücken, den Ranvier-Schnürringen , durchbrochen. An ihren Enden sind die Axone über besondere Schnittstellen, den Synapsen , mit den Dendriten anderer Neuronen verbunden. So entsteht ein Netzwerk von Signalbahnen, bei dem sich Axon-Gruppen zu Nerven und Nervensträngen verdichten, die den ganzen Organismus durchziehen.   Ein Beispiel: Wie reagieren wir auf einen Umweltreiz? Wir können den neuronalen Informationsverarbeitungsprozess beispielhaft anhand des Lidschlussreflexes  nachvollziehen. Dieser simple Schutzmechanismus wird ausgelöst, wenn hochfrequente elektromagnetische Wellen   auf die Netzhaut des Auges treffen. Die Netzhaut  ist ein mit lichtempfindlichen Sensoren bestücktes Empfangsgerät, das mit Stäbchen-Zellen auf den Reiz „hell-dunkel“ und mit Zäpfchen-Zellen auf elektromagnetische Wellen unterschiedlicher Länge reagiert. Von der Netzhaut wird der Lichtimpuls an das angeschlossene Neuron übertragen. Damit daraus auch ein Nervenimpuls entsteht, müssen zwei Bedingungen erfüllt sein: Erstens muss am Eingang des Axons eine elektrische Mindestspannung, die so genannte Reizschwelle überschritten werden. Dieser Filtermechanismus stellt sicher, dass schwache Signale ausgeblendet werden und das System nicht mit irrelevanten Informationen überlasten. Zweitens muss das Axon über ein Spannungsgefälle verfügen, das so genannte Ruhepotential . Zum Aufbau dieses Potentials pumpt die Zelle mithilfe von ATP   positiv geladene Kalium-Ionen durch spezielle Membrankanäle in den extrazellulären Raum, sodass nun die Ladungen innerhalb und außerhalb der Zelle ungleich verteilt sind.  Sind beide Voraussetzungen gegeben, zündet der Nervenimpuls und brennt ein wahres Feuerwerk ab: Durch spezielle Membran-Kanäle strömen positiv geladene Natrium-Ionen in das Axon; die Zelle reagiert wenige Millisekunden später auf diesen Ladungsüberschuss, indem sie durch ihre Kanäle weitere positiv geladene Kalium-Ionen nach außen schleust, bis das Spannungsgefälle abgebaut und das ursprüngliche Ruhepotential wiederhergestellt ist. Das wiederum ist das Signal für den benachbarten Ionen-Kanal, sich zu öffnen, so dass sich der Impuls   wie ein Domino-Effekt in Richtung des Axon-Endes fortpflanzt. [i]  Da bei Wirbeltieren an den isolierten Abschnitten kein Ionent ausch stattfinden kann, springt der Impuls direkt zum nächstgelegenen Ranvier-Schnürring. Mit diesem Trick erreicht die Reizleitung eine Geschwindigkeit von über 400 Stundenkilometern. Am Axon-Ende angekommen, bewirkt der Nervenimpuls, dass – diesmal mithilfe von Calcium-Ionen – chemische Botenstoffe ausgeschüttet werden. Die Neurotransmitter  überbrücken den synaptischen Spalt zwischen dem Axon-Ende und dem Dendriten des Nachbarneurons und veranlassen dieses, seinerseits die Natrium- und Kalium-Schleusen zu öffnen. Damit ist der Reiz auf die nächste Nervenzelle übertragen. Im Falle des Lidschlussreflexes gelangt so der Impuls über eine Breitbandverbindung (den kurzen, kräftigen Sehnerv) von der Netzhaut ins Gehirn.   Wie entsteht die Wirklichkeit? Das Gehirn bildet zusammen mit dem Rückenmark das zentrale Nervensystem. Hier werden die Informationen verarbeitet, die die peripheren Sensoren anliefern. Im Grunde sind diese beiden Verarbeitungsinstanzen nichts anderes als große Nervenknoten, die von Hilfszellen geschützt und stabilisiert werden. Zugleich sind Gehirne aber auch das größte uns bekannte Wunder, das Atome zu vollbringen vermögen, die komplexesten Strukturen, die wir im Universum   kennen. Sie erzeugen das, was wir als Wirklichkeit wahrnehmen (als Wirklichkeit möchte ich hier das bezeichnen, was auf uns wirkt – das ist etwas anderes als die Realität, denn es gibt Dinge, die real sind, aber nicht auf uns wirken.)   Unsere Nerven steuern unsere Bewegungen Um die vergleichsweise einfache Mechanik des Lidschlussreflexes zu verstehen, reicht es jedoch, wenn wir uns zunächst das Gehirn als ein System verschalteter Stromkreis e vorstellen, das wie ein Computer Informationen empfängt, sie verarbeitet und anschließend ein Ergebnis ausgibt: Tief im Hirnstamm kommt ein simpler Algorithmus zu der Einschätzung, dass die Intensität des empfangenen Sonnenlichts die Netzhaut schädigen könnte. Innerhalb von Millisekunden veranlasst das Programm eine Reaktion: Eine vom Gehirn wegführende Nervenbahn beginnt zu feuern und jagt nun ihrerseits Impulse (die Neurologen sprechen von Aktionspotentialen) in Richtung Auge. Dort angekommen, aktivieren die Neuronen Muskelzellen, die am Schädelknochen haften. Die Fasern der Muskelzellen bestehen hauptsächlich aus den Proteinkomplexen Myosin und Aktin . Der eingehende Nervenimpuls veranlasst das Myosin, sich wie eine Häkelnadel in das Aktinmolekül einzuhaken und es unter ATP-Verbrauch zusammenzuziehen. Mit einem weiteren ATP-Schub löst sich das Myosin danach wieder vom Aktin. Durch viele, kurz hintereinander eintreffende Aktionspotentiale summieren sich kurze Zuckungen zu einer dauerhaften Kontraktion aller Muskelfasern. Nach diesem Prinzip wandeln Tiere chemische in kinetische Energie. Damit lassen sich Augenlieder verschließen, Nähnadeln einfädeln oder auch der Körper eines Elefanten in Bewegung versetzen. Muskeln sind Marionetten, die tun, was die Nervenfäden ihnen gebieten.   Hormone koordinieren ebenfalls – aber anders als die Nerven Daneben gibt es noch einen weiteren Mechanismus, mit dem das Nervensystem den Körper koordiniert. Hormone  reisen nicht wie Aktionspotentiale über die schnelle Nervenbahn, sondern über die langsame Blutbahn. So langsam sie sind, so nachhaltig ist ihre Wirkung: Als Botenstoffe sind sie chemisch eng verwandt mit den Neurotransmittern der Axon-Enden oder, wie im Fall von Dopamin und Insulin , sogar mit ihnen identisch. Am Ziel ihrer Reise docken die Nachrichten- Proteine  an speziellen Rezeptoren ihrer Empfängerzellen an. Wie ein Schlüssel, der eine Tür öffnet, lösen die Hormone damit die unterschiedlichsten Prozesse aus: Somatropin steuert das Wachstum, Melatonin den Wach-Schlaf-Rhythmus, Insulin  den Blutzuckerspiegel, Testosteron und Östrogen  die Entwicklung der männlichen und weiblichen Geschlechtsmerkmale. Das elektrochemische Zusammenspiel von Dendriten, Axonen, Synapsen, Muskeln und Hormonen, mit dem sich komplexe Lebewesen koordinieren, ist nicht weniger beeindruckend und verwirrend als die verschlungenen Pfade des Stoffwechsels . Erneut drängt sich die Frage auf, wie einfache Zellen ein derlei kompliziertes Zusammenspiel entwickeln konnten. Der Mensch, der als erster versuchte, diese Frage zu beantworten, hat mit seiner Theorie die Welt mehr erschüttert als irgendein anderer Naturwissenschaftler vor oder nach ihm.   Den Blog entdecken     Anmerkungen: [i]  Im Anschluss tauschen spezielle Pumpen die positiven Natrium- und Kalium-Ionen gegeneinander aus, so dass die ursprüngliche Anordnung der Elemente wiederhergestellt ist.

  • Atomare Allianzen

    Fortsetzung von "Der Rhythmus des Universums" Atomare Allianzen Atome  verbinden sich miteinander, um an Stabilität zu gewinnen. Die Natur kennt eine ganze Reihe solcher Allianzen, die unsere makroskopische Welt entstehen lassen. Eine erste Bindungsform haben wir bereits kennengelernt : Bei der Bildung von Salzen schlägt sich ein Elektron aus der Gruppe der Alkalimetalle  auf die Seite der Halogene . Das Elektron wechselt dabei vollständig zu dem anderen Atom , so dass beide dadurch die energetisch optimale Edelgaskonfiguration e rreichen. Verbindungen aus Metallen und Nichtmetallen sind daher ausgesprochen stabil. Der Tausch hat allerdings eine weitreichende Konsequenz: Das Chloratom verfügt nun über einen zusätzlichen negativen Ladungsträger , während umgekehrt Natrium mit einem Elektron weniger vorliebnehmen muss. Beide Atome  sind für sich also nach außen hin nicht mehr elektrisch neutral; die Wanderlust der Elektronen hat aus ihnen Ionen gemacht. [i]  Die elektrostatische Anziehung zwischen den beiden Ionen erklärt den außerordentlich festen Zusammenhalt des Salzkristalls. Bei der Partnerwahl geht um Anziehungsvermögen  Beide Partner bringen jeweils eine unterschiedliche Mitgift in die Verbindung ein: Chlor ist mit 17 Protonen gewichtiger als Natrium, das lediglich 11 positive Ladungsträger  beisteuern kann. Chlor hat somit ein relativ größeres Vermögen, Elektronen anzuziehen. Die Fähigkeit eines Elements anderen Elementen ihre Elektronen abspenstig machen zu können, wird durch die Elektronegativität zum Ausdruck gebracht. [ii]  Diese dimensionslose Zahl beträgt für Natrium 0,9 und für Chlor 3,0. Aus der Differenz lässt sich der grundlegende Charakter einer chemischen Bindung bestimmen. In unserem Beispiel ist sie mit 2,1 relativ groß. Wenn ihr Betrag in etwa den Wert von 1,7 übersteigt, spricht man definitionsgemäß von einer Ionenbindung .    Das Na- und das Cl-Atom stellen innerhalb des Kochsalzmoleküls zwei Pole dar, die aufgrund der Negativitätsdifferenz zwischen den beiden Elementen unterschiedlich stark geladen sind. Kochsalz ist daher ein so genannter Dipol .   Und schon sind sie ein Paar… Auch die nächste Bindungsform lässt sich anhand eines alltäglichen Stoffs erklären – er wird uns in Folge noch mehrmals beschäftigen: Wasser. Wasser ist die Allianz zweier unsichtbarer Gase. Sauerstoff, die erste Komponente, hat eine Elektronegativität von 3,5. Für den Bindungspartner Wasserstoff beträgt dieser Wert 2,1. Diesmal ist die Differenz mit 1,4 nicht groß genug, um die Elektronen vollständig entkommen zu lassen. Es entsteht daher eine Kooperation, die als Atombindung , Elektronenpaarbindung  oder kovalente Bindung  bezeichnet wird. Ein, zwei oder drei Valenzelektronen -Paare nutzen ein zwischen zwei Atomen liegendes Orbital gemeinsam und begründen so den Zusammenhalt des Moleküls. Atombindungen sind typisch für Nichtmetalle; oftmals handelt es sich um Gase , die den Koalitionspartner unter ihresgleichen suchen. Zwei Wasserstoffatome können ihre beiden einsamen Elektronen gemeinsam nutzen und sich so der optimalen Heliumkonfiguration immerhin annähern. Im Fall des Stickstoffs entstehen gleich drei solcher Paare. Da die Bindungspartner in diesen Fällen jeweils über die gleiche Protonenzahl verfügen, sind die Moleküle unpolar, das heißt, sie entfalten nach außen hin keine elektromagnetische Wirkung. Bei Kollisionen prallen sie daher wie Billardkugeln voneinander ab – genau das ist es, was Gase auszeichnet.   Metalle unter sich So wie Metalle mit Nichtmetalle untereinander jeweils typische Bindungsformen aufweisen, gibt es auch einen Typus für rein metallische Zusammenschlüsse. Er wird naheliegenderweise als metallische Bindung bezeichnet. Während die Ionenbindung von einem absolutistischen Besitzanspruch geprägt ist und die Atombindung  von Kooperation, ist die Metallbindung kollektivistisch. Die Elektronen sind hier gemeinsamer Besitz gleicher Atome , ähnlich wie Bad und Küche einer Wohngemeinschaft.  Metalle verlieren ihre Valenzelektronen aufgrund ihres schwachen Bindungsvermögens relativ leicht. Die losgelösten Ladungsträger schwirren anarchisch-frei als so genannte Elektronengaswolke zwischen der Gitterstruktur der Metall-Ionen. Diese Wolke ist es, die den Metallen ihren charakteristischen Glanz, ihre Leitfähigkeit für Wärme und Strom sowie ihre Verformbarkeit verleiht. [iii]     Nicht alle sind stark Alle drei bisher betrachteten Bindungsarten sind „ starke Bindungen “. Sie sichern den Zusammenhalt innerhalb eines Moleküls. Daneben gibt es auch Bindungsformen zwischen Molekülen. Sie sind allesamt relativ leicht wieder lösbar und werden daher als „ schwache Bindungen “ bezeichnet. Auch sie lassen sich gut anhand des Wassers erklären, dessen außergewöhnliche Eigenschaften allesamt auf schwache Bindungsformen zurückgehen: Wasser bleibt innerhalb einer großen Temperaturspanne flüssig, ist ein hervorragendes Lösungsmittel und zieht sich im Gegensatz zu fast allen anderen Stoffen bei niedrigen Temperaturen nicht zusammen, sondern dehnt sich aus. Wassermoleküle sind, wie Salze, aufgrund ihrer Ladungsasymmetrie Dipole und haben daher auf ihre Nachbarn eine elektromagnetische Wirkung. Dadurch werden Wasserstoffatome nicht nur durch eine Atombindung an das Sauerstoffatom des eigenen Moleküls gebunden, sondern gleichzeitig auch an das Sauerstoffatom des Nachbarmoleküls. Dieser lockere Zusammenschluss wird als Wasserstoffbrückenbindung  bezeichnet .   Der wichtigste Stoff auf unserem Planeten Durch die Brücken entsteht eine besondere räumliche Anordnung, die die Beweglichkeit der Moleküle ermöglicht und so sicherstellt, dass Wasser zwischen 0° und 100° Celsius flüssig bleibt. Zugleich schwächt diese spezielle Geometrie die elektrischen Ladungen anderer Stoffe stark ab. Das macht es polaren Verbindungen, wie Salzen, leicht, ihre Elektronen abzugeben. Dies ist die Ursache für die hervorragenden Lösungseigenschaften des Wassers. Unterhalb des Gefrierpunkts lassen Wasserstoffbrückenbindungen eine sechseckige Kristallstruktur entstehen, die mehr Platz beansprucht, als der flüssige Zustand. Dies ist der Grund für die so genannte „ Dichteanomalie “ des Wassers. Sie bezeichnet das Phänomen, dass sich Wasser bei Kälte nicht zusammenzieht, sondern ausdehnt. Wir werden noch sehen, dass diese speziellen Eigenschaften eine zentrale Rolle bei der Entstehung des Lebens auf unserem Planeten gespielt haben. Es gibt noch zwei weitere schwache Bindungsformen, die ebenfalls auf Dipolen basieren. Dipol-Dipol-Bindungen  kommen ohne Beteiligung von Wasserstoff  zustande und sind schwächer als die Wasserstoffbrücken. Noch schwächer sind Bindungen, die auf den Van-der-Waals-Kräften  beruhen. Sie entstehen, wenn sich rein zufällig Elektronen an einer bestimmten Stelle im Orbital häufen. Es kommt dann zu einer Kettenreaktion, bei der die negativen Ladungsträger der Nachbarmoleküle fortgeschoben werden, so dass eine Bindung zum positiven Kern des Nachbarmoleküls entsteht . Van-der-Waals-Bindungen sind nicht besonders stabil; die Koalitionen zerfallen rasch, bilden sich aber ebenso schnell wieder neu.  Starke Bindungen (Intramolekular) Schwache Bindungen (Intermolekular) Ionenbindung (Metall-Nichtmetall) Wasserstoffbrückenbindung (Polar) Atombindung (Nichtmetall-Nichtmetall) Dipol-Dipol-Bindung (Polar) Metallische Bindung (Metall-Metall) Van-der-Waals-Bindung (Nichtpolar)  Da die Van-der-Waals-Bindungen sehr schwach sind, werden sie zumeist von den Dipol-Bindungen polarer Moleküle überlagert.   Ihre Wirkung entfalten sie somit bevorzugt in nichtpolaren Konstellationen, wie sie für Gase typisch sind. Bei extrem niedrigen Temperaturen, ab etwa -200° Celsius, verlangsamen sich die Teilchenbewegungen derart, dass die Van-der Wals-Kraft etwa Stickstoff- oder Sauerstoffmoleküle jeweils dauerhaft aneinander zu binden vermag, so dass sich die Gase dann verflüssigen.   Den Blog entdecken       Wer mehr wissen will: John T. Moore (2018): Chemie für Dummies, Wiley   Anmerkungen [i] Von „Ion“ griechisch: „Der Wanderer“. Positiv geladene Ionen werden als Kationen, negativ geladene als Anionen bezeichnet. [ii]  Die Protonenanzahl ist die wichtigste Einflussgröße der Elektronegativität; daneben gibt es weitere Faktoren wie etwa den Atomdurchmesser. [iii] Die metallische Bindung lässt sich durch das quantenmechanische Bändermodell erklären. Über dem Band, in dem sich die Valenzelektronen bewegen, befindet sich ein höherer Energiebereich, das so genannte Leitungsband. Wenn sich diese beiden Orbitale überlappen, können Elektronen aus dem Valenzband in das Leitungsband wechseln. Dort können sie sich frei zwischen den Atomen bewegen, was den Stoff zu einem elektrischen Leiter macht. Bei einem kleinen Abstand zwischen den Bändern können die Elektronen nur dann in das Leitungsband wechseln, wenn sie durch eine entsprechende Energiezufuhr dazu angeregt werden, wie dies etwa beim photoelektrischen Effekt geschieht; in diesem Fall spricht man von einem Halbleiter. Stoffe, bei denen eine Elektronenübertragung aufgrund eines zu großen Abstands zwischen den Bändern auch bei hoher Energiezufuhr nicht möglich ist, sind Isolatoren.

  • Der Rhythmus des Universums

    Fortsetzung von „ Viel Lärm um Nichts “   Das Periodensystem der Elemente - der geheimnisvolle Rhythmus der Natur Im letzten Blog zum Thema Chemie haben wir uns mit dem merkwürdigen „elementaren“ Rhythmus beschäftigt, den Dimitri Mendelejew   und  Lothar Meyer   im Jahr 1869 entdeckten. Was genau hat es damit auf sich? Sortiert man die Elemente nach aufsteigender Protonenzahl, und fügt nach jedem achten Element einen Umbruch ein, entsteht die folgende Tabelle:   Die Reihen stellen die Perioden  dar, denen das System seinen Namen verdankt. Jede Reihe entspricht einer der sieben von K bis Q bezeichneten Bohrschen Schalen . Vertikal bilden die mit IA bis VIIIA benannten Spalten die acht so genannten Hauptgruppen . Ihre wichtigste Gemeinsamkeit ist, dass jede von ihnen stets über die gleiche Anzahl an Valenzelektronen  verfügt: Die Elemente der ersten Hauptgruppe haben allesamt ein Außenelektron, die der zweiten zwei und so weiter bis zur letzten Gruppe mit acht Valenzelektronen. Die Gruppenmitglieder weisen untereinander große Ähnlichkeiten auf, auch, was ihre Reaktionsneigung angeht. Die erste Hauptgruppe, die Alkalimetalle , zu denen als einziges nichtmetallisches Element auch der Wasserstoff gehört, ist hoch reaktiv. Die Elemente der zweiten Hauptgruppe, die Erdalkalimetalle , sind ein kleines bisschen weniger reaktionsfreudig. Es folgen die Erdmetalle, die Kohlenstoff-Silicium-Gruppe , die Stickstoff-Phosphor-Gruppe , die Chalkogene , die Halogene und schließlich die Edelgase . Von links nach rechts betrachtet, nimmt die Reaktionsfreudigkeit der Hauptgruppenmitglieder bis zur Mitte hin schrittweise ab und danach wieder bis zur siebten Hauptgruppe zu. Die magische „Acht“ Die Elemente der achten Hauptgruppe sind etwas Besonderes: Sie lassen sich durch praktisch nichts zu einer chemischen Reaktion bewegen. Edelgase mischen sich deshalb nicht unters Volk, weil sie ein grundlegendes Ideal der Natur erreicht haben – sie sind frei vom Zwang, ihre Situation verbessern zu müssen. Sie ruhen in sich selbst, bedürfnislos wie buddhistische Mönche (Im Chinesischen werden Edelgase etwas weniger poetisch als „die faulen Gase“ bezeichnet.) Da ihre Valenzschale mit acht Außenelektronen besetzt ist, befinden sie sich in einem quantenmechanischen Zustand niedrigster Energie und somit größtmöglicher Stabilität und Harmonie. Alle übrigen Elemente sind nicht in dieser beneidenswerten Lage. Sie möchten daher ihre energetische Situation optimieren. Betrachten wir dazu die Elemente der ersten und der siebten Hauptgruppe: Sie trennt jeweils nur ein Elektron vom Glück der optimalen Edelgaskonfiguration. Die Lösung ist naheliegend. Die Angehörigen der beiden Elementgruppen schließen einen einfachen Handel: Alkalimetalle geben ihr vereinsamtes Valenzelektron gerne ab, die Halogene nehmen es dankend auf. Das erklärt die große Reaktionsfreudigkeit dieser beiden Gruppen. Wann immer sich die Gelegenheit bietet, verbinden sie sich zu einer neuen Stoffklasse, die wir als Salze  bezeichnen. Das bekannteste Salz, unser Kochsalz, ist die Verbindung aus dem elektronenspendenden Alkalimetall Natrium und dem elektronenraubenden Halogen Chlor (Das griechische Wort Halogen bedeutet „Salzerzeuger.) Beide haben dabei gewonnen: Durch den Pakt erreicht Natrium die Elektronenkonfiguration des Edelgases Neon und Chlor die des Argons. Die chemische Reaktion  verhilft beiden zu mehr Stabilität. Heavy Metal Der Blick auf das Periodensystem zeigt uns, dass die Hauptgruppenelemente insgesamt in der Minderheit sind. Wie ein Fremdkörper hat sich ein großer Block zwischen die zweite und dritte Hauptgruppe geschoben und stört Symmetrie und Rhythmus. Dieser Block enthält die Nebengruppenelemente . Bei ihnen handelt es sich ausnahmslos um Metalle , von denen sich viele in jedem gewöhnlichen Werkzeugkasten finden: Eisenhammer, Kupferdraht, Schraubenschlüssel aus Chrom-Vanadium-Stahl, verzinktes Blech oder Federn aus Titanlegierungen. Es fällt auf, dass die Angehörigen der zehn Nebengruppen sich untereinander viel ähnlicher sind als die Hauptgruppenelemente. Doch woran liegt das? Und wieso können die Nebengruppen überhaupt einen Keil zwischen zwei Hauptgruppen treiben? Um die Sonderrolle der Nebengruppenelemente zu verstehen, müssen wir eine spezielle Eigenheit der Aufbaulogik betrachten. Für die Hauptgruppen lässt sich die Elektronenkonfiguration direkt aus der Periodentafel ablesen. Phosphor etwa findet sich in der fünften Hauptgruppe und in der dritten Periode. Er hat somit fünf Valenzelektronen und nimmt die drei Schalen K, L und M in Anspruch. Kennt man die Aufbaulogik, lässt sich die Ordnungszahl  des Phosphors mit K = 2 + L = (2 + 6) + M = (2 + 3) = 15 problemlos errechnen. Bei den Nebengruppenelementen ist das leider nicht so einfach. Betrachten wir dazu das erste Nebengruppenelement, Scandium, mit der Ordnungszahl 21. Sein Vorgänger, das Hauptgruppenelement Calcium, komplettiert mit seinem zwanzigsten Elektron das s-Orbital der N-Schale. Nach der bisherigen Logik müsste Scandium sein 21. Elektron im p-Orbital der N-Schale platzieren. Dem ist aber nicht so. Denn auf der weiter innen liegenden M-Schale sind noch Plätze frei. Elektron Nummer 21 findet daher seine Heimat im d-Orbital der dritten Schale. Das gilt auch für die nachfolgenden Elemente, bis Zink schließlich den letzten der 18 möglichen Elektronenplätze der M-Schale besetzt. Erst danach wird mit Gallium wieder der alte Hauptgruppen-Rhythmus aufgenommen und das p-Orbital der vierten Schale befüllt. Diese Logik wiederholt sich in den folgenden Perioden.   Stabilität ist Alles! Auch die Nebengruppenelemente folgen dabei lediglich dem immer gleichen physikalischen Gesetz, nämlich, dass sie durch Abgabe von Energie an Stabilität  gewinnen können. Die besonderen räumlichen Strukturen der d-Orbitale bedingen, dass es energetisch günstiger ist, das s-Orbital der äußeren Schale vor dem d-Orbital der inneren Schale zu füllen. Daher verfügen die Nebengruppenelemente zumeist über zwei Valenzelektronen, was ihre auffällige Ähnlichkeit erklärt. Der gleiche Rückfüllmechanismus greift auch bei den beiden Elementgruppen, die unterhalb der Periodentafel stehen. Bei ihnen handelt es sich um Unterkategorien der ersten Nebengruppe mit den wenig eingängigen Bezeichnungen Lanthanoide  und Actinoide . Von den anderen Nebengruppenelementen unterscheiden sie sich quantenmechanisch dadurch, dass ihr Rückfüllorbital nicht das d- sondern das f-Orbital ist. Die Lanthanoide, angesiedelt in der sechsten Periode, gehören zu einer Gruppe von Metallen mit der poetischen Bezeichnung „seltene Erden“. Sie finden sich häufig in Hightech-Geräten wie Brennstoffzellen, Festplatten oder Plasmabildschirmen. Die zweite Gruppe, die Actinoide, gehören zur siebten Periode. Obwohl auch sie ausnahmslos Metalle sind, möchte man sie weder im Werkzeugkasten noch im Computer haben, denn sie sind allesamt radioaktiv. Die ersten vier Gruppenmitglieder, bis einschließlich Uran, kommen in der Natur noch regelmäßig vor. Danach folgen die kurzlebigen Transurane. Bis auf Neptunium und Plutonium, die auf der Erde in winzigen Spuren vorkommen, wurden sie samt und sonders für Sekundenbruchteile von Menschenhand erschaffen. Im Periodensystem der Elemente verstecken sich noch zahlreiche weitere Muster. Zum Beispiel trennt eine beim Bor beginnende gedankliche Treppenlinie, die bis zu Astat führt, die Metalle von den Nichtmetallen. Nichtmetalle  sind somit insgesamt deutlich in der Unterzahl; von ihnen gibt es im Universum gerade einmal 22 Vertreter. Wie wir noch sehen werden, sind aber vor allem sie es, die die größten chemischen Wunder zu vollbringen vermögen.    Den Blog entdecken   Wer mehr wissen will: Sacks, Oliver (2003): „Onkel Wolfram: Erinnerungen“, Rowohlt. Ortanderl, Stefanie / Ritgen, Ulf (2019): Chemie für Dummies. Das Lehrbuch

  • Pioniere des Lichts: Die Entdeckung des Elektromagnetismus

    Fortsetzung von "Die Welt als Uhrwerk"   Pioniere des Lichts (Teil I) Mitte des 17. Jahrhunderts begann das Licht die Neugier der Naturforscher zu erregen. Von der rätselhaften Erscheinung wusste man kaum mehr, als dass sie Voraussetzung für das Sehen und optische Phänomene wie Reflexion, Brechung oder Beugung war. 1676 bewies der Däne Ole Rømer  erstmals, dass Licht sich nicht, wie man allgemein seit Aristoteles  angenommen hatte, augenblicklich, sondern mit einer endlichen Geschwindigkeit ausbreitete. Rømer hatte festgestellt, dass die Verfinsterung der von Galilei  entdeckten Jupitermonde früher eintrat, wenn sich die Erde auf ihrer Bahn um die Sonne auf Jupiter zubewegte und später, wenn sie sich von ihm entfernte. Aus den Beobachtungsdaten errechnete der Niederländer Christiaan Huygens  zwei Jahre später eine Lichtgeschwindigkeit von über 200.000 km/s. Das größte Rätsel aber blieb die Frage, woraus das merkwürdige Medium eigentlich bestand. Newton   ging wie selbstverständlich davon aus, dass auch Licht Materie ist. Widerspruch kam vom Huygens, der nicht nur in zahlreichen Wissensgebieten bewandert war, sondern darüber hinaus auch noch eine außerordentlich praktische Veranlagung hatte. Nachdem Antoni van Leeuwenhoek , der damals führende Konstrukteur optischer Instrumente, ihn in seine Kunst eingewiesen hatte, begann Huygens selbst Linsen zu schleifen und optische Geräte zu bauen. Die Beobachtungen, die er mit ihnen anstellte, führten ihn zu der Überzeugung, dass sich Licht wellenartig ausbreiten müsse, ähnlich den Wasserwellen, die entstehen, wenn man Steine in einen Tümpel wirft. Mit dieser Annahme ließen sich optische Phänomene, wie die Reflexion von Licht durch einen Spiegel oder Lichtbrechung durch ein Prisma, viel besser erklären als mit Newtons Teilchen-Theorie. Die Mehrheit der Naturphilosophen stellte sich in diesem Streit allerdings hinter den berühmten Engländer: Licht war Materie, die sich als linearer Strahl durch den Raum bewegte.    Materie oder Welle? Diese Auffassung änderte sich schlagartig, als im Jahr 1802 der junge englische Augenarzt Thomas Young  eines jener Experimente durchführte, die Wissenschaftsgeschichte schreiben sollten. Young sandte Lichtstrahlen durch zwei in einer Wand parallel angeordnete Spalten. An einer dahinter befindlichen zweiten Wand entstand dabei das gleiche Interferenzmuster, das auch Wasserwellen bei einer solchen Versuchsanordnung erzeugen. Ganz offenbar hatte Huygens doch recht gehabt: Licht hatte eine Wellennatur; es transportierte seine Energie nach den gleichen Regeln wie Erdbeben, Wasser oder Schall.   Wichtiger Beitrag eines amerikanischen Politikers Ein anderes Kuriosum, das seit Mitte des 17. Jahrhundert das Interesse der Naturphilosophen erregte, war die Elektrizität . Der Begriff stammte von dem griechischen Wort für Bernstein, Elektron. Schon in der Antike hatte man beobachtet, dass Sandkörner auf rätselhafte Weise an dem fossilen Harz kleben blieben. Einer der Ersten, der sich systematisch mit elektrischen Phänomenen auseinandersetzte, war Benjamin Franklin (wir sind ihm bereits im vorletzten Blog in einem ganz anderen Zusammenhang begegnet ) . Der amerikanische Staatsmann und Verleger war auch ein bedeutender Naturforscher, der insbesondere als Erfinder des Blitzableiters in Erinnerung geblieben ist, einer einfachen Vorrichtung, die den Blitzen – einst Ausdruck göttlichen Zorns – den Schrecken nahm. Franklins Beitrag zu Erforschung der Elektrizität geht aber noch viel weiter. Er war einer der Ersten, die erkannten, dass die mächtigen Gewitterblitze am Himmel und die kleinen Funken der Elektrisiermaschinen , die damals in keinem Kuriositätenkabinett fehlen durften, Ausdruck ein und desselben Phänomens waren. Franklin stellte eine Theorie auf, mit der sich beide Erscheinungen gleichermaßen erklären ließen. Die zentrale Idee war die Vorstellung einer „ Ladung “. War die Ladung wie bei einem Buchhaltungskonto ausgeglichen, war das betrachtete Objekt elektrisch unauffällig. Wenn aber auf der Soll- oder Habenseite ein Ungleichgewicht entstanden war, stellten Blitze und Funken das Ladungs-Gleichgewicht schlagartig wieder her. Ursache der ungleichen Ladungsverteilung war nach Franklins Vorstellung ein Fluidum, ein flüssiges Medium, das von einem Körper in den anderen floss. Mit diesem plastischen Bild eines verborgenen, wasserähnlichen Stoffs prägte Franklin die Idee von bewegten elektrischen Ladungen als einem „fließenden Strom“. Benannt wurde die Einheit für die Ladung allerdings nicht nach Franklin, sondern nach Charles Augustin de Coulomb , einen Franzosen, dem 1784 der nächste Erkenntnissprung gelang. In seinem Modell existierten zwei unterschiedliche Fluide, die jeweils eine positive und eine negative Ladungsart repräsentierten und die in elektrisierten Objekten miteinander rangen. Coulomb fand eine Formel für die Kraft, mit der sich die beiden unterschiedlichen Ladungsarten, „q 1 “ und „q 2 “, gegenseitig anziehen oder, im Fall gleicher Ladung, abstoßen. Diese Kraft ist proportional zum Produkt der Ladungsmengen und umgekehrt proportional zum Quadrat ihres Abstands „r“. Die Stärke der Kraft selbst wird durch die Konstante „kc“ zum Ausdruck gebracht. Die mathematische Formulierung des Coulombschen Gesetzes zeigte eine frappierende Analogie mit Newtons Gravitationsformel . Gravitation und Elektrizität schienen ähnlichen Naturgesetzen zu gehorchen, mit dem kleinen, aber wichtigen Unterschied, dass im Gegensatz zur Schwerkraft die elektrischen Kräfte nicht nur anziehend, sondern auch abstoßend sein können.   Zuckende Froschschenkel Etwa zur gleichen Zeit experimentierte der italienische Professor der Medizin Luigi Galvani  mit abgetrennten Froschschenkeln. Dabei beobachtete er zufällig, dass die Schenkel zu zucken anfingen, wenn sie gleichzeitig mit zwei verschiedenen, untereinander verbundenen Metallen in Kontakt kamen. Unbeabsichtigt hatte Galvani einen Stromkreis geschlossen und dabei entdeckt, dass Elektrizität nicht nur in der toten Natur, sondern auch in Lebewesen floss. Die Entdeckung erregte in ganz Europa großes Aufsehen und zog eine Welle weiterer elektrischer Experimente nach sich. Ein Ergebnis dieser Galvanismus-Mode war die erste brauchbare Batterie, die Galvanis Landsmann Alessandro Volta um die Jahrhundertwende der Öffentlichkeit vorstellte. Napoleon Bonaparte , Erster Konsul der Französischen Republik, kam 1801 in den Genuss einer privaten Vorführung, die ihn so beeindruckte, dass er den Erfinder eine Pension gewährte und ihn später in den Adelsstand erhob.  Die „ Voltasche Säule “ ermöglichte erstmals mittels chemischer Reaktionen von Säuren und Metallen einen Stromkreis dauerhaft mit elektrischer Energie zu versorgen. Der Ladungsaustausch erfolgte nun nicht mehr blitzartig und unkontrolliert, sondern als kontinuierlicher und dosierbarer Fluss. Das Zeitalter der Elektrodynamik hatte begonnen. [i] Batteriegespeiste Stromkreise öffneten das Tor zu neuen Experimentierformen. Bei einem dieser zahllosen Versuche entdeckte der dänische Physiker Hans Christian Ørsted  um das Jahr 1820, dass fließender Strom ein weiteres Geheimnis barg, das niemandem zuvor aufgefallen war: Eine zufällig in der Nähe befindliche Magnetnadel begann in Richtung des Stromleiters auszuschlagen. Ganz offenbar waren die Kräfte, die in den heißen, von ätzender Batteriesäure alimentierten Drähten wirkten und jene, die den Seeleuten den Weg wiesen, miteinander verbunden. Fasziniert von dieser Nachricht begab sich der Franzose André-Marie Ampère  auf die Suche. Dabei entdeckte er einen grundlegenden Zusammenhang: Je stärker der Strom floss, je mehr der geheimnisvollen Ladungsträger also in Bewegung waren, umso stärker war auch die magnetische Wirkung. 1826 fand Georg Simon Ohm , Sohn eines Schlossers aus Franken, eine Abhängigkeit zwischen der von Volta eingeführten Größe „Spannung“ und Ampères Begriff der „Stromstärke“: Wird die Spannung „U“ erhöht, so erhöht sich die Stromstärke „I“ im gleichen Maße. Der Quotient aus den beiden Größen, der Widerstand, „R“ bleibt somit stets gleich: Die Eigenschaften des merkwürdigen Fluidums waren damit umfassend beschrieben. Wenn auch die Vorstellung von dem, was da floss, weiterhin vage blieb, war es nun offensichtlich, dass es zwischen einem Stromkreislauf und einem mechanischen Wasserkreislauf keinen grundlegenden Unterschied gab.   Beim Wasserkreislauf erzeugt eine Kraftquelle, etwa eine Pumpe, Druck und setzt so den Wasserfluss in Gang. Analog versetzt beim Stromkreis die Batterie als Spannungsquelle die Ladungsträger in Bewegung. Für einen Schwimmer sind Stromschnellen gefährlicher als ein breiter, gemächlicher Fluss. Entsprechend geht bei elektrischem Strom die Gefahr nicht von einer hohen Spannung, sondern von einer großen Stromstärke aus, also der Anzahl der fließenden Ladungsträger pro Zeiteinheit. Treibt das Wasser eine Turbine an, herrscht vor der Turbine ein höherer Druck als hinter ihr; das Druckgefälle setzt die Schaufeln in Bewegung. Die Schaufeln bieten dem Wasser Widerstand, es hat es somit schwerer durch das Rohr zu fließen. Genauso baut im Stromkreis eine Glühlampe durch ihren Widerstand einen höheren Elektronendruck auf, der die Lampe zum Leuchten bringt. Die Pioniere des Lichts waren dem merkwürdigen Phänomen Strom ein großes Stück näher gekommen - auch er schien sich letztlich problemlos in die Welt der Newtonschen Mechanik einzufügen. Tatsächlich aber war man, wie wir im nächsten Physik-Blog sehen werden, vom Verständnis der wahren Natur der rätselhaften Kraft noch immer ziemlich weit entfernt. Zur Fortsetzung: Die Pioniere des Lichts Teil 2   Den Blog entdecken   Wer mehr wissen will: Elektronik für Dummies : Weichhaus, Gerd: Amazon.de : Bücher     Bildnachweise: File:VoltaBattery.JPG - Wikimedia Commons https://commons.wikimedia.org/wiki/File:Georg_Simon_Ohm3.jpg [i] Die künstliche Stromerzeugung hat seitdem eine bemerkenswerte Karriere erfahren. Während Voltas Säule nur eine einstellige Wattzahl geliefert haben dürfte, betrug die weltweite Stromproduktion im Jahr 2021 über 25.000 Terrawattstunden. (Ein Terrawatt sind 10^12 Watt.)

  • Die Pioniere des Lichts (Teil 2)

    Fortsetzung von „Die Pioniere des Lichts  Teil 1 (1650 bis 1820)   Ein genialer Autodidakt und Praktiker Die nächsten Erkenntnisse kamen von den Britischen Inseln. Hier war es dem Chemiker Sir Humphry Davy  bereits Anfangs des 19. Jahrhunderts gelungen, mithilfe elektrolytischer Verfahren Stoffe in ihre Bestandteile zu zerlegen und so innerhalb von nur zwei Jahren ein halbes Dutzend neuer Elemente zu entdecken. Als noch bedeutsamer sollten sich jedoch die Arbeiten von Davys Laborgehilfen erweisen, einem jungen Mann namens Michael Faraday . Faraday war Autodidakt, anders als die meisten Wissenschaftler seiner Zeit stammte er aus einfachen Verhältnissen. Als gelernter Buchbinder bekam er Zugang zu naturwissenschaftlicher Literatur und schon bald besuchte er neugierig Davys öffentliche Vorlesungen. Als Davy auf ihn aufmerksam wurde und ihm 1812 eine Assistentenstelle anbot, ging für Faraday ein Traum in Erfüllung: Auf einmal standen ihm alle Gerätschaften zur Verfügung, mit denen er seinen unbändigen Wissensdurst befriedigen konnte. Inspiriert von Ørsteds  Experiment, gelang Faraday 1821 eine bahnbrechende Entdeckung: Ein elektrischer Leiter ließ sich mithilfe eines Magneten in eine Rotationsbewegung versetzen. Das Zusammenspiel von Elektrizität und Magnetismus ermöglichte es, kinetische Energie zu erzeugen – Faraday hatte das Prinzip des Elektromotors  erfunden. In den folgenden Jahren – inzwischen war er gegen den erbitterten Widerstand seines ehemaligen Mentors Davy in die Royal Society  aufgenommen worden – beschäftigte sich Faraday mit der Frage, ob sich das Prinzip des Elektromotors nicht auch umkehren lässt. 1831 gelang es ihm schließlich, mittels eines Stabmagneten, der durch eine Drahtspule bewegt wurde, eine Spannung aufzubauen. Damit wurde Faraday auch zum Vater des ersten Generators , einer Maschine, mit der sich kinetische Energie in Strom verwandeln lässt.   Ein genialer Theoretiker Seine letzte große Entdeckung machte Faraday 1845. Er hatte bemerkt, dass Lichtwellen, wenn sie der Wirkung eines starken Magneten ausgesetzt werden, beim Durchgang durch transparente Medien, wie Glas oder Wasser, eine leichte Änderung der Ausbreitungsrichtung aufweisen. Sollte am Ende auch das Licht  zum Wirkungskreis elektromagnetischer Phänomene gehören? Die Antwort auf diese Frage gab der Schotte James Clerk Maxwell . Anders als der Praktiker Faraday, der zeitlebens nie eine Formel aufgeschrieben hatte, betrachtete Maxwell die Erscheinungen des Elektromagnetismus rein theoretisch. 1864 gelang es ihm mit nur vier Gleichungen sämtliche Aspekte elektromagnetischer Phänomene einzufangen und die rätselhafte Naturkraft so in Mathematik zu gießen. Aus Maxwells Formeln ergab sich insbesondere, dass die Wechselwirkung von Elektrizität und Magnetismus elektromagnetische Felder erzeugen müsste. Diese Vermutung konnte Heinrich Hertz  einige Jahre später experimentell bestätigen. Nun war klar: Auch das Licht war ein weiteres jener zahlreichen Gesichter der elektromagnetischen Kraft.   Die physikalische Grundkraft mit den 1000 Gesichtern Heute wissen wir, dass elektromagnetische Wellen  die ganze Welt durchströmen und Licht davon nur der winzige, für uns sichtbare Ausschnitt ist. Elektromagnetische Wellen reichen vom Niederfrequenzbereich mit Wellenlängen von bis zu 100.000 km, über Radio- und Mikrowellen weiter zu Wärmestrahlung und Lichtwellen, deren Länge sich bereits im Bereich von milliardstel Metern befinden und an die sich die noch kurzwelligeren ultravioletten Strahlen, Röntgenstrahlen, Gamma- und Höhenstrahlen anschließen. In ihren hochfrequenten Bereichen transportieren die Wellen so viel Energie, dass sie biochemische Strukturen verändern oder zerstören können. Unsere Sinnesorgane   vermitteln uns aus diesem gigantischen Spektrum allerdings nur Empfindungen für Wärmestrahlen und Licht, das wir je nach Wellenlänge als rote, orangene, gelbe, grüne, blaue oder violette Farbtöne wahrnehmen. Über 200 Jahre lang waren Newton, Rømer, Huygens, Franklin, Coulomb, Galvani, Volta, Young, Ørsted, Ampère, Ohm, Faraday, Maxwell, Hertz und zahlreiche andere dem Wesen von Blitzen, Funken, Regenbögen, zuckenden Froschschenkeln und Magneten auf der Spur gewesen. Nun war auf einmal deutlich geworden, dass all diese Erscheinungen zum Wirkungskreis eines einzigen Phänomens gehörten: Nach der Gravitation   hatten die Menschen mit dem Elektromagnetismus eine zweite Grundkraft  des Universums entdeckt und vermessen.   Die Stunde der Ingenieure Nachdem Faradays Experimente und Maxwells Gleichungen den Weg bereitet hatten, schlug erneut die Stunde der Ingenieure . Im letzten Viertel des 19. Jahrhunderts kamen die elektrotechnischen Erfindungen Schlag auf Schlag: Thomas Alva Edison  und George Westinghouse  trieben mit ihren Industrieimperien die Elektrifizierung der Massen voran. Strahlendes elektrisches Licht vertrieb qualmende Kienspäne, trübe Kerzen und stinkende Petroleumlampen aus den Wohnstuben und machte in den Städten die Nacht zum Tage. Der junge serbische Ingenieur Nikola Tesla  entwickelte für Westinghouse eine Technik, mit der sich Wechselstrom wirtschaftlich über große Distanzen transportieren ließ. Zudem erfand er den ersten Radiosender und die erste Fernsteuerung. 1901 schließlich gelang dem italienischen Radiopionier Guglielmo Marconi  die erste transatlantische Funkübertragung.   Die Entdeckung des Elektrons Zwar wusste man ihn nun zu nutzen, doch seine Geheimnisse hatte der Elektromagnetismus am Ende des 19. Jahrhunderts noch immer nicht vollständig preisgegeben. Seit Franklin war man der Frage, was da eigentlich durch die Leitungen floss, keinen Schritt nähergekommen. Der Durchbruch kam erst 1897, als Joseph John Thomson  das Elektron entdeckte und in ihm den geheimnisvollen Träger der bewegten elektrischen Ladung erkannte: Strom war nichts anderes als die gerichtete Bewegung von Elektronen! Thomson hatte damit aber auch die jahrtausendealte Idee eines einteiligen Atoms zerstört. Atome waren nicht unteilbar, sondern Systeme, die offenbar aus zwei Bauteilen, einem positiv geladenen Atomkern und den negativ geladenen Elektronen bestanden, wobei die Elektronen sich vom Kern lösen konnten und die elektrische Neutralität des Atoms damit aufhoben. Thomson entwickelte aus dieser Erkenntnis ein neues Atommodell, bei dem die Elektronen in die Masse des Atomkerns eingebettet sind, wie Rosinen in einem Milchbrötchenteig.   Ein kosmische Atommodell Der Rosinenbrötchenidee war nur eine kurze Lebensdauer beschieden. Um das Jahr 1910 kamen der ehemalige Thomson-Schüler Ernest Rutherford  und seine beiden Assistenten Hans Geiger  und Ernest Marsden  auf die originelle Idee, eine hauchdünne, nur etwa 0,004 mm starke Goldfolie mit Heliumkernen zu beschießen. Die Folie war so dünn, dass weniger als 1.000 Atome hintereinanderlagen. Zur großen Überraschung der drei Forscher gingen fast alle Teilchen einfach durch die Folie hindurch, so, als ob sie gar nicht da wäre. Manche Heliumkerne wurden bei dem Foliendurchgang geringfügig abgelenkt, einige wenige prallten hingegen zurück wie ein Tennisball von einer Wand. Die Ergebnisse ließen nur einen Schluss zu: Im Zentrum des Goldatoms gab es eine extrem dichte Zusammenballung von Masse. Sie ließ bei einem Treffer die leichteren Heliumatome abprallen oder verfälschte ihre Bahn. Da die allermeisten Heliumprojektile jedoch in keiner Weise beeinflusst wurden, war die schier unglaubliche Schlussfolgerung, dass das Atom fast ausschließlich aus „Nichts“ besteht. In Rutherfords neuem Modell war es ein gigantischer leerer Raum, in dem fast die gesamte Masse auf den positiv geladenen Kern konzentriert war, während die sehr leichten, negativ geladenen Elektronen den Kern auf festgelegten Bahnen in sehr großen Abständen umkreisten. Die kosmische Ordnung des Planetensystems schien sich hier tatsächlich im winzigen Maßstab widerzuspiegeln. Mit dem neuen Atommodell  und der vollständigen Beschreibung des Elektromagnetismus glaubte man Anfang des 20. Jahrhunderts ein geschlossenes physikalisches Weltbild in den Händen zu halten: Was auch immer in der Natur geschah – ganz gleich ob ein Apfel zu Boden fiel, ein Blitz am Himmel zuckte, ein Mond seinen Planeten umkreiste, ein Lichtstrahl von einem Spiegel reflektiert wurde oder ein Elektron um einen Atomkern zog – alles folgte einer überschaubaren Zahl relativ einfacher Gesetze, einer klaren Ordnung, die sich mathematisch beschreiben ließ. Auf geradezu wundersame Weise hatten sich alle Entdeckungen der letzten 200 Jahre wie von selbst in das Regelwerk der Newtonschen Mechanik eingefügt. Konnte es einen besseren Beweis für die Richtigkeit eines Theoriegebäudes geben? Die deterministische Weltsicht der klassischen Physik war auf ihrem Höhepunkt. Ein neues Jahrhundert war angebrochen. Es sollte das Jahrhundert des Atoms werden. Und alle hart erkämpften Gewissheiten würden sich schon bald in Luft auflösen...   Den Blog entdecken     Bildnachweise Elektromagnetisches Spektrum   Rutherfords planetarisches Atommodell

  • Die Vielfalt der Sprachen

    Fortsetzung von "Der Ursprung der Sprache" Ein Sprachengenie William Jones , Sohn eines walisischen Mathematikers, war mit einer außerordentlichen Sprachbegabung gesegnet; am Ende seines Lebens soll er 28 Sprachen beherrscht haben. Schon während seiner Schulzeit lernte er neben dem üblichen Griechisch und Latein, auch noch Arabisch und Persisch. Seine Berufung 1783 zum Richter am Obersten Gericht von Bengalen in Kalkutta, bot ihm nun auch die Gelegenheit, sich mit Sanskrit , der klassischen Gelehrtensprache Indiens vertraut zu machen. 1786 veröffentlichte Jones einen Aufsatz, in dem er einen gemeinsamen Ursprung von Sanskrit, Latein, Griechisch, Persisch, Gotisch und den keltischen Sprachen behauptete. Jones war nicht der erste, der auf die Idee kam, dass geographisch entfernte Sprachen untereinander verwandt sein könnten. Bereits Mitte des 17. Jahrhunderts hatte der niederländische Gelehrte Marcus Zuerius van Boxhorn  diese These vorweggenommen. Doch erst Jones‘ Veröffentlichung erregte breiteres Interesse. Bald wurde klar, dass so verschiedene Sprachen wie Walisisch, Bulgarisch, Litauisch, Schwedisch, Armenisch, Kurdisch oder Hindi tatsächlich einen gemeinsamen Ursprung hatten. Sie alle gehören einer Gruppe an, die wir heute als indogermanische  oder indoeuropäische Sprachfamilie  bezeichnen. Fast jeder zweite Mensch auf der Erde spricht heute eine ihrer Sprachen.   Sprachfamilien Indogermanisch ist jedoch nicht die einzige große Sprachfamilie. Neben ihr existieren unter anderem die semito-hamitischen Sprachen , zu denen Arabisch, Hebräisch, Aramäisch, das ausgestorbene Altägyptisch und Somali gehören; die Turksprachen  die insbesondere Türkisch, Turkmenisch, Kasachisch und Usbekisch umfassen, und die sinotibetischen Sprachen , mit ihren verschiedenen chinesischen Dialekten, Tibetisch und Birmanisch.   Als außerordentlich schwierig hat sich bisher der Versuch erwiesen, einer möglichen Verwandtschaft der großen Sprachfamilien untereinander auf die Spur zu kommen. Eine hypothetische, unter Sprachforschern aber nach wie vor umstrittene Makrofamilie ist Nostratisch , das neben den indogermanischen und semito-hamitischen Sprachen auch die Turksprachen sowie Japanisch und Koreanisch umfassen soll.   Beziehungen und Veränderungen Einer der wichtigsten Betrachtungsgegenstände der vergleichenden Sprachforschung sind Kognate . Kognate sind Wörter, die auf ein gemeinsames Ursprungswort zurückgehen und es daher erlauben, die Verwandtschaftsbeziehungen innerhalb einer Sprachfamilie zu analysieren. Ein grundlegendes Instrument ist in diesem Zusammenhang die Untersuchung von Lautverschiebungen , eine Technik, die auf Jakob Grimm , den älteren der Gebrüder Grimm zurückgeht.   Deutsch Englisch Französisch Spanisch Latein Tschechisch Persisch Sanskrit Mutter mother mère madre mater matka mādar mātr Vater father père padre pater otec pedar pitr Flamme flame flamme Ilama flamma plamen šo'le agni Sonne sun soleil sol sol sluneční xoršid sūrya Wasser water eau agua aqua voda āb jala drei three troi tres tres tři se trayaṁ Kognate indoeuropäischer Sprachen im Vergleich (Regler nach rechts verschieben, um alle Sprachen zu sehen)   Lautverschiebungen beschreiben die gesetzmäßige Umwandlung von Konsonanten und Vokalen, die sich bei vielen Sprachen über längere Zeiträume beobachten lassen. Grimm formulierte 1822 das nach ihm benannte Gesetz der ersten Lautverschiebung . Es beschreibt, wie sich der Zweig der germanischen Sprachen (von denen heute noch Englisch, Deutsch, Niederländisch, Friesisch, Afrikaans, Schwedisch, Dänisch, Norwegisch und Isländisch gesprochen werden) durch den Austausch einiger Konsonanten von den übrigen indoeuropäischen Sprachen absetzte. Der Wandel muss etwa 300 v. Chr. abgeschlossen gewesen sein, noch bevor Römer und Germanen miteinander in Kontakt traten, da lateinische Lehnwörter im Germanischen die Verschiebungen nicht vollzogen haben.  Zwischen dem 6. und dem 9. Jahrhundert kam es innerhalb der germanischen Sprachen zu einem weiteren Konsonantentausch, der zweiten Lautverschiebung , in deren Folge das Hochdeutsche entstand. Die anderen germanischen Sprachen, einschließlich dem Niederdeutschen, folgten dieser Verschiebung nicht (Eine Ausnahme stellt die Verschiebung von „th“ nach „d“ dar, die sich auch im Niederländischen und Niederdeutschen vollzog).  Durch die Analyse von Lautverschiebungen lassen sich relative Verwandtschaftsgrade zwischen Sprachen bestimmen und wahrscheinliche Urlaute der gemeinsamen Vorgängersprache rekonstruieren, auch wenn bei letzterem vieles spekulativ bleibt. So wie die geographische Isolation durch Mutation und Selektion in der Biologie neue Arten hervorbringt, lässt sie durch Lautverschiebungen neue Sprachen entstehen. 1853 stellte der Linguist August Schleicher  die Verwandtschaftsbeziehungen der indogermanischen Sprachen in Form einer Baumstruktur dar, sechs Jahre bevor Darwin dieselbe Metapher für die Abstammungslinien der Arten wählte. Wie in der biologischen Evolution können Informationen aber auch horizontal transferiert werden. So hat etwa jedes vierte deutsche Wort einen fremdsprachlichen Ursprung. Straße, Keller, Nase, Wein oder Armbrust sieht man es nicht unbedingt an, dass sie aus dem Lateinischen entlehnt sind. Nach Latein haben Griechisch, Englisch und Französisch im heutigen Deutsch die meisten Spuren hinterlassen. Sprachen sind, als lebendige Gebilde, auch untereinander fortpflanzungsfähig; aus Begegnungen können neue Sprachen entstehen. Beispiele für solche Pidgin- oder Kreolsprachen sind die „ Lingua franca “, die im Mittelalter im Mittelmeerraum als Handelssprache aus romanischen Sprachen und dem Arabischen hervorging, oder das auf Haiti gesprochene Kreolisch , eine Mischung aus Französisch mit verschiedenen westafrikanischen, spanischen und indianischen Elementen.   Die Herkunft der Wörter lehrt uns alte Weltsichten Sprachen entwickeln sich nicht nur durch Lautverschiebungen und die Aufnahme neuer Wörter, auch die Bedeutung des überlieferten Wortschatzes entwickelt sich laufend fort. Mit diesem Bedeutungswandel ,  der uns oftmals das Verständnis alter Texte erschwert, befasst sich die Etymologie . Vor 2.000 Jahren bezeichnete „Tier“ alle im Wald lebenden, also wilden Tiere – im Gegensatz zu „Vieh“, den domestizierten Nutztieren. Die Bedeutung „Wildtier“ ist im Laufe der Jahrhunderte verloren gegangen. Im Deutschen wurde der Begriff auf alle Tiere erweitert, während er sich im Englischen mit „deer“ auf Hirsche einengte. Das deutsche „Vieh“ wiederum hat den gleichen Ursprung wie das englische Wort „fee“, das heute Gebühr oder Entgelt bedeutet – Nutztiere waren früher eine gängige Verrechnungseinheit für Handelsgeschäfte. Das gemeingermanische Ursprungswort „fehu“ geht gemäß den Regeln der ersten Lautverschiebung auf das indogermanische Wort „peku“ zurück, das Schaf bedeutet und somit auch die Herkunft des lateinischen Wortes für Geld „pecunia“ erklärt. Die indogermanische Wurzel von Tier, „dheu“, bedeutete ursprünglich so viel wie „schnauben“, oder „atmendes Wesen“. Diese Vorstellung findet sich auch in dem lateinischen Wort „anima“ wieder, das beseelte, also mit Lebenshauch versehene Wesen bezeichnet. Aus ihm leitet sich sowohl das lateinische, französische und englische Wort für Tier „animal“ als auch das lateinische und französische Wort für Seele „anima“, „âme“ her. Die Etymologie lehrt uns daher auch viel über Weltsichten und Wirklichkeiten unserer Vorfahren.   Sprachuniversalien sind rar Trotz zahlreicher Bezüge innerhalb der einzelnen Sprachfamilien gibt es kaum Universalien , also Eigenschaften, die alle Sprachen miteinander teilen. Der gemeinsame Nenner umfasst nur einige wenige Feststellungen wie: Alle Sprachen haben Konsonanten und mindestens zwei Vokale, kennen Eigennamen, eine 1., 2. und 3. Person und verfügen über ein Intonationssystem, bei dem sich mit der Stimmhöhe auch die Bedeutung verändert (Im Deutschen etwa kann jedes Wort als Frage intoniert werden, indem man die Stimme am Wortende hebt.) Aussagen wie „in jeder Sprache gibt es Verben und Substantive“ sind bereits umstritten. Bestimmte Formen, etwa die Satzstellung „Subjekt-Verb-Objekt“ treten zwar sehr häufig auf, doch es finden sich auch Beispiele für alle sonst denkbaren Anordnungsmöglichkeiten. Wer im Sprachvergleich Grundkonstanten der menschlichen Existenz sucht, wird enttäuscht. Der Mangel an absoluten Sprachuniversalien zeigt, dass es sehr viele Möglichkeiten gibt, die Welt zu sehen und zu beschreiben. Eine Fremdsprache zu beherrschen, gibt daher auch stets Einblick in eine andere Weltsicht. Von Karl dem Großen  soll das Zitat stammen: „Eine andere Sprache zu können, ist wie eine zweite Seele zu besitzen.“   Die Vielfalt der Sprachen: Ein Artensterben der besonderen Art Von den rund 15.000 Sprachen, die im 16. Jahrhundert noch auf der Welt gesprochen wurden, haben bis heute nur 6.000 bis 7.000 überlebt; etwa die Hälfte von ihnen wird, Schätzungen der Linguisten zufolge, in den nächsten 100 Jahren aussterben. Die Vielfalt der Sprachen nimmt also rapide ab. Der Sprachentod ist eine Folge der Globalisierung , doch mit jeder dieser Sprachen stirbt ein ganzes Universum, eine einzigartige Weise, die Welt zu beschreiben.   Den Blog entdecken   Wer mehr wissen will: Auszug aus der Ansprache von William Jones, in der er erstmalig den Zusammenhang der indoeuropäischen Sprachen behauptete. Eco, Umberto (1994) „Die Suche nach der vollkommenen Sprache“, Beck. Rauchhaupt, Ulf von (2016): „Sprechen Sie Nostratisch?“ in: Frankfurter Allgemeine Zeitung Online vom 15.06.2016.

  • Was genau ist Leben?

    Fortsetzung von "Was ist Biologie?" Ein schwieriger Betrachtungsgegenstand Leben ist aus der toten Natur entstanden. Chemisch gesehen ist auch Leben letztlich nur ein Verbund komplexer Kohlenwasserstoffe, die sich im Einklang mit den Gesetzen der Physik durch Raum und Zeit bewegen. Doch was unterscheidet es dann von den toten Bio-Polymeren der organischen Chemie ? Die Antwort auf diese Frage ist alles andere als leicht. Lehrbücher der Biologie zählen bis zu acht verschiedene (und teilweise voneinander abweichende) Kriterien auf, die allesamt erfüllt sein müssen, damit etwas als „lebendig“ gilt. Wie den  Mathematikern  ist es auch den Biologen bis heute nicht gelungen, ihren Betrachtungsgegenstand mit einer allgemein akzeptierten Definition zu versehen. Drei fast immer übereinstimmend genannte Merkmale sind Stoffwechsel, Selbstorganisation und Reizbarkeit. Allerdings finden sich diese Eigenheiten auch in der unbelebten Natur. Stoffwechsel versorgt ein System durch eine unablässige Folge chemischer Reaktionen mit Energie – was aber ebenfalls auf eine Flamme zutrifft. Selbstorganisation steuert Regelkreise und stellt aus physikalischer Sicht die kontrollierte Abfuhr von Entropie sicher – doch auch anorganische Reaktionen kennen solche Rückkopplungsmechanismen, ohne dass es uns in den Sinn käme, sie deshalb als lebendig zu bezeichnen. Reizbarkeit ist das Vermögen, Informationen situationsabhängig verarbeiten zu können – eine Fähigkeit, die zweifelsohne auch Computer haben.   Entropievernichtungsmaschinen Allein das Leben vermag es, diese drei Eigenschaften in sich zu vereinen. Das Zusammenspiel von Stoffwechsel, Selbstorganisation und Reizbarkeit erlaubt es komplexen Riesenmolekülen ein thermodynamisches Ungleichgewicht aufzubauen und mithilfe von Steuerungsmechanismen für die Dauer eines Lebens gegen die Entropie zu verteidigen, indem es geordnete Energie in ungeordnete Wärmeenergie umwandelt. Die Nichtgleichgewichtssysteme der Ordnung mögen noch so raffiniert sein, die Physik lehrt uns, wie wir in einem der kommenden Physik-Blogs noch genauer sehen werden, dass am Ende stets die Entropie gewinnt. Geordnete Systeme, wie das Leben, können nur befristet bestehen, denn über kurz oder lang nimmt gemäß dem Zweiten Hauptsatz der Thermodynamik die Unordnung in einem System mit der Zeit zu. Und doch hat das Leben einen Weg gefunden, diesem fatalistischen Gesetz auf eine ganz besondere Art und Weise zu trotzen. Es geht um Fressen und Sex Diesen sehr speziellen Weg beschreiben drei weitere Lebensmerkmale: Fortpflanzung, Differenzierung und die Fähigkeit zur Evolution. Ihnen ist zu verdanken, dass die Kette des Lebens in fast vier Milliarden Jahren auf unserem Planeten kein einziges Mal abgerissen ist. Fortpflanzung ist die Voraussetzung für Differenzierung und Evolution. Sie basiert auf der Fähigkeit der Zelle, der kleinsten Lebenseinheit, sich teilen zu können. Der Teilungsprozess erlaubt vielzelligen Lebewesen Differenzierung, das heißt, die Fähigkeit, verschiedene Zelltypen hervorzubringen, die arbeitsteilig zusammenwirken können. Das dritte Merkmal, die Fähigkeit zur Evolution, beruht auf einem konstruktiven Knirschen im Getriebe der Vervielfältigungsmaschine: Quantenmechanische Zufälle erzeugen winzige Kopierfehler. Sie sind die Triebfeder der erstaunlichen Artenvielfalt. Lebensmerkmale haben also entweder stets mit Selbsterhalt oder Reproduktion zu tun. Salopp formuliert: Es geht um Fressen und Sex. Damit können wir einen Definitionsversuch wagen: Leben ist ein abgrenzbares System kohlenstoffbasierter Moleküle, das in der Lage ist, ein thermodynamisches Ungleichgewicht für eine gewisse Zeit aufrechtzuerhalten und sich innerhalb dieser Zeit zu reproduzieren. Das ist keine offizielle Definition – eine solche gibt es wiegesagt auch nicht. Beispielhaft liste ich drei weitere Definitionsversuche auf, diesmal von namhaften Biologen: „Leben ist jede Population von Einheiten, die einer Vermehrung, Vererbung und Variation fähig sind“ (John Maynard Smith); „Leben ist ein zu erwartendes kollektives Vermögen katalytischer Polymere zur Selbstorganisation“ (Stuart Kauffman); „Leben ist ein Netzwerk tiefer stehender negativer Rückmeldungen, das einer höherstehenden positiven Rückmeldung untergeordnet ist." (Bernard Korzeniewski).     Was genau ist Leben? Hilft uns das weiter? Leben bleibt ein unscharfer Begriff, der sich keiner mechanistischen Betrachtung unterordnen will; ein Phänomen ohne eindeutige Trennlinien, mit Grauzonen und Widersprüchen. Nehmen wir beispielsweise Viren. Sie verfügen über fast alle Kennzeichen des Lebens. Bei Stoffwechsel und Vermehrung sind sie allerdings auf Unterstützung durch eine lebende Zelle angewiesen. Die meisten Biologen sprechen ihnen deshalb den Status des Lebendigen ab. Das ist nicht ohne Willkür, denn auch Mensch und Tier sind auf den Stoffwechsel anderer Lebewesen angewiesen, um überleben zu können. Andererseits würde kein Biologe bestreiten, dass Ameisen Lebewesen sind. Doch den allermeisten von ihnen – Arbeiterinnen und Soldatinnen – fehlt ein entscheidendes Lebensmerkmal: Sie können sich nicht reproduzieren. Der Insektenstaat kann sich nur als arbeitsteiliges Kollektiv fortpflanzen. Das, was das Leben letztlich auszeichnet, ist seine Fähigkeit, Informationen über Generationen hinweg bewahren zu können – das können Viren und Ameisen gleichermaßen. Aus einer Handvoll Elemente baut die Natur mithilfe des Elektromagnetismus eine atemberaubende Fülle von replikationsfähigen Entropiebekämpfungsmaschinen. Leben (einschließlich seiner Fähigkeit, ein Bewusstsein zu entwickeln) ist Ausdruck dessen, wozu Atome alles in der Lage sind. Es ist eine faszinierende Erkenntnis, dass die Artenvielfalt als Möglichkeit bereits im Moment des  Urknalls angelegt war.   Weiterführende Literatur: Hawking, Stephen (2016): „Das Universum in der Nussschale“, dtv. Probst, Wilfried / Schuchardt, Petra (Hrsg): (2011): „Biologie“, Duden Schulbuchverlag.

bottom of page