Suchergebnisse
105 Ergebnisse gefunden mit einer leeren Suche
- Atomare Allianzen
Fortsetzung von "Der Rhythmus des Universums" Atomare Allianzen Atome verbinden sich miteinander, um an Stabilität zu gewinnen. Die Natur kennt eine ganze Reihe solcher Allianzen, die unsere makroskopische Welt entstehen lassen. Eine erste Bindungsform haben wir bereits kennengelernt : Bei der Bildung von Salzen schlägt sich ein Elektron aus der Gruppe der Alkalimetalle auf die Seite der Halogene . Das Elektron wechselt dabei vollständig zu dem anderen Atom , so dass beide dadurch die energetisch optimale Edelgaskonfiguration e rreichen. Verbindungen aus Metallen und Nichtmetallen sind daher ausgesprochen stabil. Der Tausch hat allerdings eine weitreichende Konsequenz: Das Chloratom verfügt nun über einen zusätzlichen negativen Ladungsträger , während umgekehrt Natrium mit einem Elektron weniger vorliebnehmen muss. Beide Atome sind für sich also nach außen hin nicht mehr elektrisch neutral; die Wanderlust der Elektronen hat aus ihnen Ionen gemacht. [i] Die elektrostatische Anziehung zwischen den beiden Ionen erklärt den außerordentlich festen Zusammenhalt des Salzkristalls. Bei der Partnerwahl geht um Anziehungsvermögen Beide Partner bringen jeweils eine unterschiedliche Mitgift in die Verbindung ein: Chlor ist mit 17 Protonen gewichtiger als Natrium, das lediglich 11 positive Ladungsträger beisteuern kann. Chlor hat somit ein relativ größeres Vermögen, Elektronen anzuziehen. Die Fähigkeit eines Elements anderen Elementen ihre Elektronen abspenstig machen zu können, wird durch die Elektronegativität zum Ausdruck gebracht. [ii] Diese dimensionslose Zahl beträgt für Natrium 0,9 und für Chlor 3,0. Aus der Differenz lässt sich der grundlegende Charakter einer chemischen Bindung bestimmen. In unserem Beispiel ist sie mit 2,1 relativ groß. Wenn ihr Betrag in etwa den Wert von 1,7 übersteigt, spricht man definitionsgemäß von einer Ionenbindung . Das Na- und das Cl-Atom stellen innerhalb des Kochsalzmoleküls zwei Pole dar, die aufgrund der Negativitätsdifferenz zwischen den beiden Elementen unterschiedlich stark geladen sind. Kochsalz ist daher ein so genannter Dipol . Und schon sind sie ein Paar… Auch die nächste Bindungsform lässt sich anhand eines alltäglichen Stoffs erklären – er wird uns in Folge noch mehrmals beschäftigen: Wasser. Wasser ist die Allianz zweier unsichtbarer Gase. Sauerstoff, die erste Komponente, hat eine Elektronegativität von 3,5. Für den Bindungspartner Wasserstoff beträgt dieser Wert 2,1. Diesmal ist die Differenz mit 1,4 nicht groß genug, um die Elektronen vollständig entkommen zu lassen. Es entsteht daher eine Kooperation, die als Atombindung , Elektronenpaarbindung oder kovalente Bindung bezeichnet wird. Ein, zwei oder drei Valenzelektronen -Paare nutzen ein zwischen zwei Atomen liegendes Orbital gemeinsam und begründen so den Zusammenhalt des Moleküls. Atombindungen sind typisch für Nichtmetalle; oftmals handelt es sich um Gase , die den Koalitionspartner unter ihresgleichen suchen. Zwei Wasserstoffatome können ihre beiden einsamen Elektronen gemeinsam nutzen und sich so der optimalen Heliumkonfiguration immerhin annähern. Im Fall des Stickstoffs entstehen gleich drei solcher Paare. Da die Bindungspartner in diesen Fällen jeweils über die gleiche Protonenzahl verfügen, sind die Moleküle unpolar, das heißt, sie entfalten nach außen hin keine elektromagnetische Wirkung. Bei Kollisionen prallen sie daher wie Billardkugeln voneinander ab – genau das ist es, was Gase auszeichnet. Metalle unter sich So wie Metalle mit Nichtmetalle untereinander jeweils typische Bindungsformen aufweisen, gibt es auch einen Typus für rein metallische Zusammenschlüsse. Er wird naheliegenderweise als metallische Bindung bezeichnet. Während die Ionenbindung von einem absolutistischen Besitzanspruch geprägt ist und die Atombindung von Kooperation, ist die Metallbindung kollektivistisch. Die Elektronen sind hier gemeinsamer Besitz gleicher Atome , ähnlich wie Bad und Küche einer Wohngemeinschaft. Metalle verlieren ihre Valenzelektronen aufgrund ihres schwachen Bindungsvermögens relativ leicht. Die losgelösten Ladungsträger schwirren anarchisch-frei als so genannte Elektronengaswolke zwischen der Gitterstruktur der Metall-Ionen. Diese Wolke ist es, die den Metallen ihren charakteristischen Glanz, ihre Leitfähigkeit für Wärme und Strom sowie ihre Verformbarkeit verleiht. [iii] Nicht alle sind stark Alle drei bisher betrachteten Bindungsarten sind „ starke Bindungen “. Sie sichern den Zusammenhalt innerhalb eines Moleküls. Daneben gibt es auch Bindungsformen zwischen Molekülen. Sie sind allesamt relativ leicht wieder lösbar und werden daher als „ schwache Bindungen “ bezeichnet. Auch sie lassen sich gut anhand des Wassers erklären, dessen außergewöhnliche Eigenschaften allesamt auf schwache Bindungsformen zurückgehen: Wasser bleibt innerhalb einer großen Temperaturspanne flüssig, ist ein hervorragendes Lösungsmittel und zieht sich im Gegensatz zu fast allen anderen Stoffen bei niedrigen Temperaturen nicht zusammen, sondern dehnt sich aus. Wassermoleküle sind, wie Salze, aufgrund ihrer Ladungsasymmetrie Dipole und haben daher auf ihre Nachbarn eine elektromagnetische Wirkung. Dadurch werden Wasserstoffatome nicht nur durch eine Atombindung an das Sauerstoffatom des eigenen Moleküls gebunden, sondern gleichzeitig auch an das Sauerstoffatom des Nachbarmoleküls. Dieser lockere Zusammenschluss wird als Wasserstoffbrückenbindung bezeichnet . Der wichtigste Stoff auf unserem Planeten Durch die Brücken entsteht eine besondere räumliche Anordnung, die die Beweglichkeit der Moleküle ermöglicht und so sicherstellt, dass Wasser zwischen 0° und 100° Celsius flüssig bleibt. Zugleich schwächt diese spezielle Geometrie die elektrischen Ladungen anderer Stoffe stark ab. Das macht es polaren Verbindungen, wie Salzen, leicht, ihre Elektronen abzugeben. Dies ist die Ursache für die hervorragenden Lösungseigenschaften des Wassers. Unterhalb des Gefrierpunkts lassen Wasserstoffbrückenbindungen eine sechseckige Kristallstruktur entstehen, die mehr Platz beansprucht, als der flüssige Zustand. Dies ist der Grund für die so genannte „ Dichteanomalie “ des Wassers. Sie bezeichnet das Phänomen, dass sich Wasser bei Kälte nicht zusammenzieht, sondern ausdehnt. Wir werden noch sehen, dass diese speziellen Eigenschaften eine zentrale Rolle bei der Entstehung des Lebens auf unserem Planeten gespielt haben. Es gibt noch zwei weitere schwache Bindungsformen, die ebenfalls auf Dipolen basieren. Dipol-Dipol-Bindungen kommen ohne Beteiligung von Wasserstoff zustande und sind schwächer als die Wasserstoffbrücken. Noch schwächer sind Bindungen, die auf den Van-der-Waals-Kräften beruhen. Sie entstehen, wenn sich rein zufällig Elektronen an einer bestimmten Stelle im Orbital häufen. Es kommt dann zu einer Kettenreaktion, bei der die negativen Ladungsträger der Nachbarmoleküle fortgeschoben werden, so dass eine Bindung zum positiven Kern des Nachbarmoleküls entsteht . Van-der-Waals-Bindungen sind nicht besonders stabil; die Koalitionen zerfallen rasch, bilden sich aber ebenso schnell wieder neu. Starke Bindungen (Intramolekular) Schwache Bindungen (Intermolekular) Ionenbindung (Metall-Nichtmetall) Wasserstoffbrückenbindung (Polar) Atombindung (Nichtmetall-Nichtmetall) Dipol-Dipol-Bindung (Polar) Metallische Bindung (Metall-Metall) Van-der-Waals-Bindung (Nichtpolar) Da die Van-der-Waals-Bindungen sehr schwach sind, werden sie zumeist von den Dipol-Bindungen polarer Moleküle überlagert. Ihre Wirkung entfalten sie somit bevorzugt in nichtpolaren Konstellationen, wie sie für Gase typisch sind. Bei extrem niedrigen Temperaturen, ab etwa -200° Celsius, verlangsamen sich die Teilchenbewegungen derart, dass die Van-der Wals-Kraft etwa Stickstoff- oder Sauerstoffmoleküle jeweils dauerhaft aneinander zu binden vermag, so dass sich die Gase dann verflüssigen. Den Blog entdecken Wer mehr wissen will: John T. Moore (2018): Chemie für Dummies, Wiley Anmerkungen [i] Von „Ion“ griechisch: „Der Wanderer“. Positiv geladene Ionen werden als Kationen, negativ geladene als Anionen bezeichnet. [ii] Die Protonenanzahl ist die wichtigste Einflussgröße der Elektronegativität; daneben gibt es weitere Faktoren wie etwa den Atomdurchmesser. [iii] Die metallische Bindung lässt sich durch das quantenmechanische Bändermodell erklären. Über dem Band, in dem sich die Valenzelektronen bewegen, befindet sich ein höherer Energiebereich, das so genannte Leitungsband. Wenn sich diese beiden Orbitale überlappen, können Elektronen aus dem Valenzband in das Leitungsband wechseln. Dort können sie sich frei zwischen den Atomen bewegen, was den Stoff zu einem elektrischen Leiter macht. Bei einem kleinen Abstand zwischen den Bändern können die Elektronen nur dann in das Leitungsband wechseln, wenn sie durch eine entsprechende Energiezufuhr dazu angeregt werden, wie dies etwa beim photoelektrischen Effekt geschieht; in diesem Fall spricht man von einem Halbleiter. Stoffe, bei denen eine Elektronenübertragung aufgrund eines zu großen Abstands zwischen den Bändern auch bei hoher Energiezufuhr nicht möglich ist, sind Isolatoren.
- Der Rhythmus des Universums
Fortsetzung von „ Viel Lärm um Nichts “ Das Periodensystem der Elemente - der geheimnisvolle Rhythmus der Natur Im letzten Blog zum Thema Chemie haben wir uns mit dem merkwürdigen „elementaren“ Rhythmus beschäftigt, den Dimitri Mendelejew und Lothar Meyer im Jahr 1869 entdeckten. Was genau hat es damit auf sich? Sortiert man die Elemente nach aufsteigender Protonenzahl, und fügt nach jedem achten Element einen Umbruch ein, entsteht die folgende Tabelle: Die Reihen stellen die Perioden dar, denen das System seinen Namen verdankt. Jede Reihe entspricht einer der sieben von K bis Q bezeichneten Bohrschen Schalen . Vertikal bilden die mit IA bis VIIIA benannten Spalten die acht so genannten Hauptgruppen . Ihre wichtigste Gemeinsamkeit ist, dass jede von ihnen stets über die gleiche Anzahl an Valenzelektronen verfügt: Die Elemente der ersten Hauptgruppe haben allesamt ein Außenelektron, die der zweiten zwei und so weiter bis zur letzten Gruppe mit acht Valenzelektronen. Die Gruppenmitglieder weisen untereinander große Ähnlichkeiten auf, auch, was ihre Reaktionsneigung angeht. Die erste Hauptgruppe, die Alkalimetalle , zu denen als einziges nichtmetallisches Element auch der Wasserstoff gehört, ist hoch reaktiv. Die Elemente der zweiten Hauptgruppe, die Erdalkalimetalle , sind ein kleines bisschen weniger reaktionsfreudig. Es folgen die Erdmetalle, die Kohlenstoff-Silicium-Gruppe , die Stickstoff-Phosphor-Gruppe , die Chalkogene , die Halogene und schließlich die Edelgase . Von links nach rechts betrachtet, nimmt die Reaktionsfreudigkeit der Hauptgruppenmitglieder bis zur Mitte hin schrittweise ab und danach wieder bis zur siebten Hauptgruppe zu. Die magische „Acht“ Die Elemente der achten Hauptgruppe sind etwas Besonderes: Sie lassen sich durch praktisch nichts zu einer chemischen Reaktion bewegen. Edelgase mischen sich deshalb nicht unters Volk, weil sie ein grundlegendes Ideal der Natur erreicht haben – sie sind frei vom Zwang, ihre Situation verbessern zu müssen. Sie ruhen in sich selbst, bedürfnislos wie buddhistische Mönche (Im Chinesischen werden Edelgase etwas weniger poetisch als „die faulen Gase“ bezeichnet.) Da ihre Valenzschale mit acht Außenelektronen besetzt ist, befinden sie sich in einem quantenmechanischen Zustand niedrigster Energie und somit größtmöglicher Stabilität und Harmonie. Alle übrigen Elemente sind nicht in dieser beneidenswerten Lage. Sie möchten daher ihre energetische Situation optimieren. Betrachten wir dazu die Elemente der ersten und der siebten Hauptgruppe: Sie trennt jeweils nur ein Elektron vom Glück der optimalen Edelgaskonfiguration. Die Lösung ist naheliegend. Die Angehörigen der beiden Elementgruppen schließen einen einfachen Handel: Alkalimetalle geben ihr vereinsamtes Valenzelektron gerne ab, die Halogene nehmen es dankend auf. Das erklärt die große Reaktionsfreudigkeit dieser beiden Gruppen. Wann immer sich die Gelegenheit bietet, verbinden sie sich zu einer neuen Stoffklasse, die wir als Salze bezeichnen. Das bekannteste Salz, unser Kochsalz, ist die Verbindung aus dem elektronenspendenden Alkalimetall Natrium und dem elektronenraubenden Halogen Chlor (Das griechische Wort Halogen bedeutet „Salzerzeuger.) Beide haben dabei gewonnen: Durch den Pakt erreicht Natrium die Elektronenkonfiguration des Edelgases Neon und Chlor die des Argons. Die chemische Reaktion verhilft beiden zu mehr Stabilität. Heavy Metal Der Blick auf das Periodensystem zeigt uns, dass die Hauptgruppenelemente insgesamt in der Minderheit sind. Wie ein Fremdkörper hat sich ein großer Block zwischen die zweite und dritte Hauptgruppe geschoben und stört Symmetrie und Rhythmus. Dieser Block enthält die Nebengruppenelemente . Bei ihnen handelt es sich ausnahmslos um Metalle , von denen sich viele in jedem gewöhnlichen Werkzeugkasten finden: Eisenhammer, Kupferdraht, Schraubenschlüssel aus Chrom-Vanadium-Stahl, verzinktes Blech oder Federn aus Titanlegierungen. Es fällt auf, dass die Angehörigen der zehn Nebengruppen sich untereinander viel ähnlicher sind als die Hauptgruppenelemente. Doch woran liegt das? Und wieso können die Nebengruppen überhaupt einen Keil zwischen zwei Hauptgruppen treiben? Um die Sonderrolle der Nebengruppenelemente zu verstehen, müssen wir eine spezielle Eigenheit der Aufbaulogik betrachten. Für die Hauptgruppen lässt sich die Elektronenkonfiguration direkt aus der Periodentafel ablesen. Phosphor etwa findet sich in der fünften Hauptgruppe und in der dritten Periode. Er hat somit fünf Valenzelektronen und nimmt die drei Schalen K, L und M in Anspruch. Kennt man die Aufbaulogik, lässt sich die Ordnungszahl des Phosphors mit K = 2 + L = (2 + 6) + M = (2 + 3) = 15 problemlos errechnen. Bei den Nebengruppenelementen ist das leider nicht so einfach. Betrachten wir dazu das erste Nebengruppenelement, Scandium, mit der Ordnungszahl 21. Sein Vorgänger, das Hauptgruppenelement Calcium, komplettiert mit seinem zwanzigsten Elektron das s-Orbital der N-Schale. Nach der bisherigen Logik müsste Scandium sein 21. Elektron im p-Orbital der N-Schale platzieren. Dem ist aber nicht so. Denn auf der weiter innen liegenden M-Schale sind noch Plätze frei. Elektron Nummer 21 findet daher seine Heimat im d-Orbital der dritten Schale. Das gilt auch für die nachfolgenden Elemente, bis Zink schließlich den letzten der 18 möglichen Elektronenplätze der M-Schale besetzt. Erst danach wird mit Gallium wieder der alte Hauptgruppen-Rhythmus aufgenommen und das p-Orbital der vierten Schale befüllt. Diese Logik wiederholt sich in den folgenden Perioden. Stabilität ist Alles! Auch die Nebengruppenelemente folgen dabei lediglich dem immer gleichen physikalischen Gesetz, nämlich, dass sie durch Abgabe von Energie an Stabilität gewinnen können. Die besonderen räumlichen Strukturen der d-Orbitale bedingen, dass es energetisch günstiger ist, das s-Orbital der äußeren Schale vor dem d-Orbital der inneren Schale zu füllen. Daher verfügen die Nebengruppenelemente zumeist über zwei Valenzelektronen, was ihre auffällige Ähnlichkeit erklärt. Der gleiche Rückfüllmechanismus greift auch bei den beiden Elementgruppen, die unterhalb der Periodentafel stehen. Bei ihnen handelt es sich um Unterkategorien der ersten Nebengruppe mit den wenig eingängigen Bezeichnungen Lanthanoide und Actinoide . Von den anderen Nebengruppenelementen unterscheiden sie sich quantenmechanisch dadurch, dass ihr Rückfüllorbital nicht das d- sondern das f-Orbital ist. Die Lanthanoide, angesiedelt in der sechsten Periode, gehören zu einer Gruppe von Metallen mit der poetischen Bezeichnung „seltene Erden“. Sie finden sich häufig in Hightech-Geräten wie Brennstoffzellen, Festplatten oder Plasmabildschirmen. Die zweite Gruppe, die Actinoide, gehören zur siebten Periode. Obwohl auch sie ausnahmslos Metalle sind, möchte man sie weder im Werkzeugkasten noch im Computer haben, denn sie sind allesamt radioaktiv. Die ersten vier Gruppenmitglieder, bis einschließlich Uran, kommen in der Natur noch regelmäßig vor. Danach folgen die kurzlebigen Transurane. Bis auf Neptunium und Plutonium, die auf der Erde in winzigen Spuren vorkommen, wurden sie samt und sonders für Sekundenbruchteile von Menschenhand erschaffen. Im Periodensystem der Elemente verstecken sich noch zahlreiche weitere Muster. Zum Beispiel trennt eine beim Bor beginnende gedankliche Treppenlinie, die bis zu Astat führt, die Metalle von den Nichtmetallen. Nichtmetalle sind somit insgesamt deutlich in der Unterzahl; von ihnen gibt es im Universum gerade einmal 22 Vertreter. Wie wir noch sehen werden, sind aber vor allem sie es, die die größten chemischen Wunder zu vollbringen vermögen. Den Blog entdecken Wer mehr wissen will: Sacks, Oliver (2003): „Onkel Wolfram: Erinnerungen“, Rowohlt. Ortanderl, Stefanie / Ritgen, Ulf (2019): Chemie für Dummies. Das Lehrbuch
- Pioniere des Lichts: Die Entdeckung des Elektromagnetismus
Fortsetzung von "Die Welt als Uhrwerk" Pioniere des Lichts (Teil I) Mitte des 17. Jahrhunderts begann das Licht die Neugier der Naturforscher zu erregen. Von der rätselhaften Erscheinung wusste man kaum mehr, als dass sie Voraussetzung für das Sehen und optische Phänomene wie Reflexion, Brechung oder Beugung war. 1676 bewies der Däne Ole Rømer erstmals, dass Licht sich nicht, wie man allgemein seit Aristoteles angenommen hatte, augenblicklich, sondern mit einer endlichen Geschwindigkeit ausbreitete. Rømer hatte festgestellt, dass die Verfinsterung der von Galilei entdeckten Jupitermonde früher eintrat, wenn sich die Erde auf ihrer Bahn um die Sonne auf Jupiter zubewegte und später, wenn sie sich von ihm entfernte. Aus den Beobachtungsdaten errechnete der Niederländer Christiaan Huygens zwei Jahre später eine Lichtgeschwindigkeit von über 200.000 km/s. Das größte Rätsel aber blieb die Frage, woraus das merkwürdige Medium eigentlich bestand. Newton ging wie selbstverständlich davon aus, dass auch Licht Materie ist. Widerspruch kam vom Huygens, der nicht nur in zahlreichen Wissensgebieten bewandert war, sondern darüber hinaus auch noch eine außerordentlich praktische Veranlagung hatte. Nachdem Antoni van Leeuwenhoek , der damals führende Konstrukteur optischer Instrumente, ihn in seine Kunst eingewiesen hatte, begann Huygens selbst Linsen zu schleifen und optische Geräte zu bauen. Die Beobachtungen, die er mit ihnen anstellte, führten ihn zu der Überzeugung, dass sich Licht wellenartig ausbreiten müsse, ähnlich den Wasserwellen, die entstehen, wenn man Steine in einen Tümpel wirft. Mit dieser Annahme ließen sich optische Phänomene, wie die Reflexion von Licht durch einen Spiegel oder Lichtbrechung durch ein Prisma, viel besser erklären als mit Newtons Teilchen-Theorie. Die Mehrheit der Naturphilosophen stellte sich in diesem Streit allerdings hinter den berühmten Engländer: Licht war Materie, die sich als linearer Strahl durch den Raum bewegte. Materie oder Welle? Diese Auffassung änderte sich schlagartig, als im Jahr 1802 der junge englische Augenarzt Thomas Young eines jener Experimente durchführte, die Wissenschaftsgeschichte schreiben sollten. Young sandte Lichtstrahlen durch zwei in einer Wand parallel angeordnete Spalten. An einer dahinter befindlichen zweiten Wand entstand dabei das gleiche Interferenzmuster, das auch Wasserwellen bei einer solchen Versuchsanordnung erzeugen. Ganz offenbar hatte Huygens doch recht gehabt: Licht hatte eine Wellennatur; es transportierte seine Energie nach den gleichen Regeln wie Erdbeben, Wasser oder Schall. Wichtiger Beitrag eines amerikanischen Politikers Ein anderes Kuriosum, das seit Mitte des 17. Jahrhundert das Interesse der Naturphilosophen erregte, war die Elektrizität . Der Begriff stammte von dem griechischen Wort für Bernstein, Elektron. Schon in der Antike hatte man beobachtet, dass Sandkörner auf rätselhafte Weise an dem fossilen Harz kleben blieben. Einer der Ersten, der sich systematisch mit elektrischen Phänomenen auseinandersetzte, war Benjamin Franklin (wir sind ihm bereits im vorletzten Blog in einem ganz anderen Zusammenhang begegnet ) . Der amerikanische Staatsmann und Verleger war auch ein bedeutender Naturforscher, der insbesondere als Erfinder des Blitzableiters in Erinnerung geblieben ist, einer einfachen Vorrichtung, die den Blitzen – einst Ausdruck göttlichen Zorns – den Schrecken nahm. Franklins Beitrag zu Erforschung der Elektrizität geht aber noch viel weiter. Er war einer der Ersten, die erkannten, dass die mächtigen Gewitterblitze am Himmel und die kleinen Funken der Elektrisiermaschinen , die damals in keinem Kuriositätenkabinett fehlen durften, Ausdruck ein und desselben Phänomens waren. Franklin stellte eine Theorie auf, mit der sich beide Erscheinungen gleichermaßen erklären ließen. Die zentrale Idee war die Vorstellung einer „ Ladung “. War die Ladung wie bei einem Buchhaltungskonto ausgeglichen, war das betrachtete Objekt elektrisch unauffällig. Wenn aber auf der Soll- oder Habenseite ein Ungleichgewicht entstanden war, stellten Blitze und Funken das Ladungs-Gleichgewicht schlagartig wieder her. Ursache der ungleichen Ladungsverteilung war nach Franklins Vorstellung ein Fluidum, ein flüssiges Medium, das von einem Körper in den anderen floss. Mit diesem plastischen Bild eines verborgenen, wasserähnlichen Stoffs prägte Franklin die Idee von bewegten elektrischen Ladungen als einem „fließenden Strom“. Benannt wurde die Einheit für die Ladung allerdings nicht nach Franklin, sondern nach Charles Augustin de Coulomb , einen Franzosen, dem 1784 der nächste Erkenntnissprung gelang. In seinem Modell existierten zwei unterschiedliche Fluide, die jeweils eine positive und eine negative Ladungsart repräsentierten und die in elektrisierten Objekten miteinander rangen. Coulomb fand eine Formel für die Kraft, mit der sich die beiden unterschiedlichen Ladungsarten, „q 1 “ und „q 2 “, gegenseitig anziehen oder, im Fall gleicher Ladung, abstoßen. Diese Kraft ist proportional zum Produkt der Ladungsmengen und umgekehrt proportional zum Quadrat ihres Abstands „r“. Die Stärke der Kraft selbst wird durch die Konstante „kc“ zum Ausdruck gebracht. Die mathematische Formulierung des Coulombschen Gesetzes zeigte eine frappierende Analogie mit Newtons Gravitationsformel . Gravitation und Elektrizität schienen ähnlichen Naturgesetzen zu gehorchen, mit dem kleinen, aber wichtigen Unterschied, dass im Gegensatz zur Schwerkraft die elektrischen Kräfte nicht nur anziehend, sondern auch abstoßend sein können. Zuckende Froschschenkel Etwa zur gleichen Zeit experimentierte der italienische Professor der Medizin Luigi Galvani mit abgetrennten Froschschenkeln. Dabei beobachtete er zufällig, dass die Schenkel zu zucken anfingen, wenn sie gleichzeitig mit zwei verschiedenen, untereinander verbundenen Metallen in Kontakt kamen. Unbeabsichtigt hatte Galvani einen Stromkreis geschlossen und dabei entdeckt, dass Elektrizität nicht nur in der toten Natur, sondern auch in Lebewesen floss. Die Entdeckung erregte in ganz Europa großes Aufsehen und zog eine Welle weiterer elektrischer Experimente nach sich. Ein Ergebnis dieser Galvanismus-Mode war die erste brauchbare Batterie, die Galvanis Landsmann Alessandro Volta um die Jahrhundertwende der Öffentlichkeit vorstellte. Napoleon Bonaparte , Erster Konsul der Französischen Republik, kam 1801 in den Genuss einer privaten Vorführung, die ihn so beeindruckte, dass er den Erfinder eine Pension gewährte und ihn später in den Adelsstand erhob. Die „ Voltasche Säule “ ermöglichte erstmals mittels chemischer Reaktionen von Säuren und Metallen einen Stromkreis dauerhaft mit elektrischer Energie zu versorgen. Der Ladungsaustausch erfolgte nun nicht mehr blitzartig und unkontrolliert, sondern als kontinuierlicher und dosierbarer Fluss. Das Zeitalter der Elektrodynamik hatte begonnen. [i] Batteriegespeiste Stromkreise öffneten das Tor zu neuen Experimentierformen. Bei einem dieser zahllosen Versuche entdeckte der dänische Physiker Hans Christian Ørsted um das Jahr 1820, dass fließender Strom ein weiteres Geheimnis barg, das niemandem zuvor aufgefallen war: Eine zufällig in der Nähe befindliche Magnetnadel begann in Richtung des Stromleiters auszuschlagen. Ganz offenbar waren die Kräfte, die in den heißen, von ätzender Batteriesäure alimentierten Drähten wirkten und jene, die den Seeleuten den Weg wiesen, miteinander verbunden. Fasziniert von dieser Nachricht begab sich der Franzose André-Marie Ampère auf die Suche. Dabei entdeckte er einen grundlegenden Zusammenhang: Je stärker der Strom floss, je mehr der geheimnisvollen Ladungsträger also in Bewegung waren, umso stärker war auch die magnetische Wirkung. 1826 fand Georg Simon Ohm , Sohn eines Schlossers aus Franken, eine Abhängigkeit zwischen der von Volta eingeführten Größe „Spannung“ und Ampères Begriff der „Stromstärke“: Wird die Spannung „U“ erhöht, so erhöht sich die Stromstärke „I“ im gleichen Maße. Der Quotient aus den beiden Größen, der Widerstand, „R“ bleibt somit stets gleich: Die Eigenschaften des merkwürdigen Fluidums waren damit umfassend beschrieben. Wenn auch die Vorstellung von dem, was da floss, weiterhin vage blieb, war es nun offensichtlich, dass es zwischen einem Stromkreislauf und einem mechanischen Wasserkreislauf keinen grundlegenden Unterschied gab. Beim Wasserkreislauf erzeugt eine Kraftquelle, etwa eine Pumpe, Druck und setzt so den Wasserfluss in Gang. Analog versetzt beim Stromkreis die Batterie als Spannungsquelle die Ladungsträger in Bewegung. Für einen Schwimmer sind Stromschnellen gefährlicher als ein breiter, gemächlicher Fluss. Entsprechend geht bei elektrischem Strom die Gefahr nicht von einer hohen Spannung, sondern von einer großen Stromstärke aus, also der Anzahl der fließenden Ladungsträger pro Zeiteinheit. Treibt das Wasser eine Turbine an, herrscht vor der Turbine ein höherer Druck als hinter ihr; das Druckgefälle setzt die Schaufeln in Bewegung. Die Schaufeln bieten dem Wasser Widerstand, es hat es somit schwerer durch das Rohr zu fließen. Genauso baut im Stromkreis eine Glühlampe durch ihren Widerstand einen höheren Elektronendruck auf, der die Lampe zum Leuchten bringt. Die Pioniere des Lichts waren dem merkwürdigen Phänomen Strom ein großes Stück näher gekommen - auch er schien sich letztlich problemlos in die Welt der Newtonschen Mechanik einzufügen. Tatsächlich aber war man, wie wir im nächsten Physik-Blog sehen werden, vom Verständnis der wahren Natur der rätselhaften Kraft noch immer ziemlich weit entfernt. Zur Fortsetzung: Die Pioniere des Lichts Teil 2 Den Blog entdecken Wer mehr wissen will: Elektronik für Dummies : Weichhaus, Gerd: Amazon.de : Bücher Bildnachweise: File:VoltaBattery.JPG - Wikimedia Commons https://commons.wikimedia.org/wiki/File:Georg_Simon_Ohm3.jpg [i] Die künstliche Stromerzeugung hat seitdem eine bemerkenswerte Karriere erfahren. Während Voltas Säule nur eine einstellige Wattzahl geliefert haben dürfte, betrug die weltweite Stromproduktion im Jahr 2021 über 25.000 Terrawattstunden. (Ein Terrawatt sind 10^12 Watt.)
- Die Pioniere des Lichts (Teil 2)
Fortsetzung von „Die Pioniere des Lichts Teil 1 (1650 bis 1820) Ein genialer Autodidakt und Praktiker Die nächsten Erkenntnisse kamen von den Britischen Inseln. Hier war es dem Chemiker Sir Humphry Davy bereits Anfangs des 19. Jahrhunderts gelungen, mithilfe elektrolytischer Verfahren Stoffe in ihre Bestandteile zu zerlegen und so innerhalb von nur zwei Jahren ein halbes Dutzend neuer Elemente zu entdecken. Als noch bedeutsamer sollten sich jedoch die Arbeiten von Davys Laborgehilfen erweisen, einem jungen Mann namens Michael Faraday . Faraday war Autodidakt, anders als die meisten Wissenschaftler seiner Zeit stammte er aus einfachen Verhältnissen. Als gelernter Buchbinder bekam er Zugang zu naturwissenschaftlicher Literatur und schon bald besuchte er neugierig Davys öffentliche Vorlesungen. Als Davy auf ihn aufmerksam wurde und ihm 1812 eine Assistentenstelle anbot, ging für Faraday ein Traum in Erfüllung: Auf einmal standen ihm alle Gerätschaften zur Verfügung, mit denen er seinen unbändigen Wissensdurst befriedigen konnte. Inspiriert von Ørsteds Experiment, gelang Faraday 1821 eine bahnbrechende Entdeckung: Ein elektrischer Leiter ließ sich mithilfe eines Magneten in eine Rotationsbewegung versetzen. Das Zusammenspiel von Elektrizität und Magnetismus ermöglichte es, kinetische Energie zu erzeugen – Faraday hatte das Prinzip des Elektromotors erfunden. In den folgenden Jahren – inzwischen war er gegen den erbitterten Widerstand seines ehemaligen Mentors Davy in die Royal Society aufgenommen worden – beschäftigte sich Faraday mit der Frage, ob sich das Prinzip des Elektromotors nicht auch umkehren lässt. 1831 gelang es ihm schließlich, mittels eines Stabmagneten, der durch eine Drahtspule bewegt wurde, eine Spannung aufzubauen. Damit wurde Faraday auch zum Vater des ersten Generators , einer Maschine, mit der sich kinetische Energie in Strom verwandeln lässt. Ein genialer Theoretiker Seine letzte große Entdeckung machte Faraday 1845. Er hatte bemerkt, dass Lichtwellen, wenn sie der Wirkung eines starken Magneten ausgesetzt werden, beim Durchgang durch transparente Medien, wie Glas oder Wasser, eine leichte Änderung der Ausbreitungsrichtung aufweisen. Sollte am Ende auch das Licht zum Wirkungskreis elektromagnetischer Phänomene gehören? Die Antwort auf diese Frage gab der Schotte James Clerk Maxwell . Anders als der Praktiker Faraday, der zeitlebens nie eine Formel aufgeschrieben hatte, betrachtete Maxwell die Erscheinungen des Elektromagnetismus rein theoretisch. 1864 gelang es ihm mit nur vier Gleichungen sämtliche Aspekte elektromagnetischer Phänomene einzufangen und die rätselhafte Naturkraft so in Mathematik zu gießen. Aus Maxwells Formeln ergab sich insbesondere, dass die Wechselwirkung von Elektrizität und Magnetismus elektromagnetische Felder erzeugen müsste. Diese Vermutung konnte Heinrich Hertz einige Jahre später experimentell bestätigen. Nun war klar: Auch das Licht war ein weiteres jener zahlreichen Gesichter der elektromagnetischen Kraft. Die physikalische Grundkraft mit den 1000 Gesichtern Heute wissen wir, dass elektromagnetische Wellen die ganze Welt durchströmen und Licht davon nur der winzige, für uns sichtbare Ausschnitt ist. Elektromagnetische Wellen reichen vom Niederfrequenzbereich mit Wellenlängen von bis zu 100.000 km, über Radio- und Mikrowellen weiter zu Wärmestrahlung und Lichtwellen, deren Länge sich bereits im Bereich von milliardstel Metern befinden und an die sich die noch kurzwelligeren ultravioletten Strahlen, Röntgenstrahlen, Gamma- und Höhenstrahlen anschließen. In ihren hochfrequenten Bereichen transportieren die Wellen so viel Energie, dass sie biochemische Strukturen verändern oder zerstören können. Unsere Sinnesorgane vermitteln uns aus diesem gigantischen Spektrum allerdings nur Empfindungen für Wärmestrahlen und Licht, das wir je nach Wellenlänge als rote, orangene, gelbe, grüne, blaue oder violette Farbtöne wahrnehmen. Über 200 Jahre lang waren Newton, Rømer, Huygens, Franklin, Coulomb, Galvani, Volta, Young, Ørsted, Ampère, Ohm, Faraday, Maxwell, Hertz und zahlreiche andere dem Wesen von Blitzen, Funken, Regenbögen, zuckenden Froschschenkeln und Magneten auf der Spur gewesen. Nun war auf einmal deutlich geworden, dass all diese Erscheinungen zum Wirkungskreis eines einzigen Phänomens gehörten: Nach der Gravitation hatten die Menschen mit dem Elektromagnetismus eine zweite Grundkraft des Universums entdeckt und vermessen. Die Stunde der Ingenieure Nachdem Faradays Experimente und Maxwells Gleichungen den Weg bereitet hatten, schlug erneut die Stunde der Ingenieure . Im letzten Viertel des 19. Jahrhunderts kamen die elektrotechnischen Erfindungen Schlag auf Schlag: Thomas Alva Edison und George Westinghouse trieben mit ihren Industrieimperien die Elektrifizierung der Massen voran. Strahlendes elektrisches Licht vertrieb qualmende Kienspäne, trübe Kerzen und stinkende Petroleumlampen aus den Wohnstuben und machte in den Städten die Nacht zum Tage. Der junge serbische Ingenieur Nikola Tesla entwickelte für Westinghouse eine Technik, mit der sich Wechselstrom wirtschaftlich über große Distanzen transportieren ließ. Zudem erfand er den ersten Radiosender und die erste Fernsteuerung. 1901 schließlich gelang dem italienischen Radiopionier Guglielmo Marconi die erste transatlantische Funkübertragung. Die Entdeckung des Elektrons Zwar wusste man ihn nun zu nutzen, doch seine Geheimnisse hatte der Elektromagnetismus am Ende des 19. Jahrhunderts noch immer nicht vollständig preisgegeben. Seit Franklin war man der Frage, was da eigentlich durch die Leitungen floss, keinen Schritt nähergekommen. Der Durchbruch kam erst 1897, als Joseph John Thomson das Elektron entdeckte und in ihm den geheimnisvollen Träger der bewegten elektrischen Ladung erkannte: Strom war nichts anderes als die gerichtete Bewegung von Elektronen! Thomson hatte damit aber auch die jahrtausendealte Idee eines einteiligen Atoms zerstört. Atome waren nicht unteilbar, sondern Systeme, die offenbar aus zwei Bauteilen, einem positiv geladenen Atomkern und den negativ geladenen Elektronen bestanden, wobei die Elektronen sich vom Kern lösen konnten und die elektrische Neutralität des Atoms damit aufhoben. Thomson entwickelte aus dieser Erkenntnis ein neues Atommodell, bei dem die Elektronen in die Masse des Atomkerns eingebettet sind, wie Rosinen in einem Milchbrötchenteig. Ein kosmische Atommodell Der Rosinenbrötchenidee war nur eine kurze Lebensdauer beschieden. Um das Jahr 1910 kamen der ehemalige Thomson-Schüler Ernest Rutherford und seine beiden Assistenten Hans Geiger und Ernest Marsden auf die originelle Idee, eine hauchdünne, nur etwa 0,004 mm starke Goldfolie mit Heliumkernen zu beschießen. Die Folie war so dünn, dass weniger als 1.000 Atome hintereinanderlagen. Zur großen Überraschung der drei Forscher gingen fast alle Teilchen einfach durch die Folie hindurch, so, als ob sie gar nicht da wäre. Manche Heliumkerne wurden bei dem Foliendurchgang geringfügig abgelenkt, einige wenige prallten hingegen zurück wie ein Tennisball von einer Wand. Die Ergebnisse ließen nur einen Schluss zu: Im Zentrum des Goldatoms gab es eine extrem dichte Zusammenballung von Masse. Sie ließ bei einem Treffer die leichteren Heliumatome abprallen oder verfälschte ihre Bahn. Da die allermeisten Heliumprojektile jedoch in keiner Weise beeinflusst wurden, war die schier unglaubliche Schlussfolgerung, dass das Atom fast ausschließlich aus „Nichts“ besteht. In Rutherfords neuem Modell war es ein gigantischer leerer Raum, in dem fast die gesamte Masse auf den positiv geladenen Kern konzentriert war, während die sehr leichten, negativ geladenen Elektronen den Kern auf festgelegten Bahnen in sehr großen Abständen umkreisten. Die kosmische Ordnung des Planetensystems schien sich hier tatsächlich im winzigen Maßstab widerzuspiegeln. Mit dem neuen Atommodell und der vollständigen Beschreibung des Elektromagnetismus glaubte man Anfang des 20. Jahrhunderts ein geschlossenes physikalisches Weltbild in den Händen zu halten: Was auch immer in der Natur geschah – ganz gleich ob ein Apfel zu Boden fiel, ein Blitz am Himmel zuckte, ein Mond seinen Planeten umkreiste, ein Lichtstrahl von einem Spiegel reflektiert wurde oder ein Elektron um einen Atomkern zog – alles folgte einer überschaubaren Zahl relativ einfacher Gesetze, einer klaren Ordnung, die sich mathematisch beschreiben ließ. Auf geradezu wundersame Weise hatten sich alle Entdeckungen der letzten 200 Jahre wie von selbst in das Regelwerk der Newtonschen Mechanik eingefügt. Konnte es einen besseren Beweis für die Richtigkeit eines Theoriegebäudes geben? Die deterministische Weltsicht der klassischen Physik war auf ihrem Höhepunkt. Ein neues Jahrhundert war angebrochen. Es sollte das Jahrhundert des Atoms werden. Und alle hart erkämpften Gewissheiten würden sich schon bald in Luft auflösen... Den Blog entdecken Bildnachweise Elektromagnetisches Spektrum Rutherfords planetarisches Atommodell
- Die Vielfalt der Sprachen
Fortsetzung von "Der Ursprung der Sprache" Ein Sprachengenie William Jones , Sohn eines walisischen Mathematikers, war mit einer außerordentlichen Sprachbegabung gesegnet; am Ende seines Lebens soll er 28 Sprachen beherrscht haben. Schon während seiner Schulzeit lernte er neben dem üblichen Griechisch und Latein, auch noch Arabisch und Persisch. Seine Berufung 1783 zum Richter am Obersten Gericht von Bengalen in Kalkutta, bot ihm nun auch die Gelegenheit, sich mit Sanskrit , der klassischen Gelehrtensprache Indiens vertraut zu machen. 1786 veröffentlichte Jones einen Aufsatz, in dem er einen gemeinsamen Ursprung von Sanskrit, Latein, Griechisch, Persisch, Gotisch und den keltischen Sprachen behauptete. Jones war nicht der erste, der auf die Idee kam, dass geographisch entfernte Sprachen untereinander verwandt sein könnten. Bereits Mitte des 17. Jahrhunderts hatte der niederländische Gelehrte Marcus Zuerius van Boxhorn diese These vorweggenommen. Doch erst Jones‘ Veröffentlichung erregte breiteres Interesse. Bald wurde klar, dass so verschiedene Sprachen wie Walisisch, Bulgarisch, Litauisch, Schwedisch, Armenisch, Kurdisch oder Hindi tatsächlich einen gemeinsamen Ursprung hatten. Sie alle gehören einer Gruppe an, die wir heute als indogermanische oder indoeuropäische Sprachfamilie bezeichnen. Fast jeder zweite Mensch auf der Erde spricht heute eine ihrer Sprachen. Sprachfamilien Indogermanisch ist jedoch nicht die einzige große Sprachfamilie. Neben ihr existieren unter anderem die semito-hamitischen Sprachen , zu denen Arabisch, Hebräisch, Aramäisch, das ausgestorbene Altägyptisch und Somali gehören; die Turksprachen die insbesondere Türkisch, Turkmenisch, Kasachisch und Usbekisch umfassen, und die sinotibetischen Sprachen , mit ihren verschiedenen chinesischen Dialekten, Tibetisch und Birmanisch. Als außerordentlich schwierig hat sich bisher der Versuch erwiesen, einer möglichen Verwandtschaft der großen Sprachfamilien untereinander auf die Spur zu kommen. Eine hypothetische, unter Sprachforschern aber nach wie vor umstrittene Makrofamilie ist Nostratisch , das neben den indogermanischen und semito-hamitischen Sprachen auch die Turksprachen sowie Japanisch und Koreanisch umfassen soll. Beziehungen und Veränderungen Einer der wichtigsten Betrachtungsgegenstände der vergleichenden Sprachforschung sind Kognate . Kognate sind Wörter, die auf ein gemeinsames Ursprungswort zurückgehen und es daher erlauben, die Verwandtschaftsbeziehungen innerhalb einer Sprachfamilie zu analysieren. Ein grundlegendes Instrument ist in diesem Zusammenhang die Untersuchung von Lautverschiebungen , eine Technik, die auf Jakob Grimm , den älteren der Gebrüder Grimm zurückgeht. Deutsch Englisch Französisch Spanisch Latein Tschechisch Persisch Sanskrit Mutter mother mère madre mater matka mādar mātr Vater father père padre pater otec pedar pitr Flamme flame flamme Ilama flamma plamen šo'le agni Sonne sun soleil sol sol sluneční xoršid sūrya Wasser water eau agua aqua voda āb jala drei three troi tres tres tři se trayaṁ Kognate indoeuropäischer Sprachen im Vergleich (Regler nach rechts verschieben, um alle Sprachen zu sehen) Lautverschiebungen beschreiben die gesetzmäßige Umwandlung von Konsonanten und Vokalen, die sich bei vielen Sprachen über längere Zeiträume beobachten lassen. Grimm formulierte 1822 das nach ihm benannte Gesetz der ersten Lautverschiebung . Es beschreibt, wie sich der Zweig der germanischen Sprachen (von denen heute noch Englisch, Deutsch, Niederländisch, Friesisch, Afrikaans, Schwedisch, Dänisch, Norwegisch und Isländisch gesprochen werden) durch den Austausch einiger Konsonanten von den übrigen indoeuropäischen Sprachen absetzte. Der Wandel muss etwa 300 v. Chr. abgeschlossen gewesen sein, noch bevor Römer und Germanen miteinander in Kontakt traten, da lateinische Lehnwörter im Germanischen die Verschiebungen nicht vollzogen haben. Zwischen dem 6. und dem 9. Jahrhundert kam es innerhalb der germanischen Sprachen zu einem weiteren Konsonantentausch, der zweiten Lautverschiebung , in deren Folge das Hochdeutsche entstand. Die anderen germanischen Sprachen, einschließlich dem Niederdeutschen, folgten dieser Verschiebung nicht (Eine Ausnahme stellt die Verschiebung von „th“ nach „d“ dar, die sich auch im Niederländischen und Niederdeutschen vollzog). Durch die Analyse von Lautverschiebungen lassen sich relative Verwandtschaftsgrade zwischen Sprachen bestimmen und wahrscheinliche Urlaute der gemeinsamen Vorgängersprache rekonstruieren, auch wenn bei letzterem vieles spekulativ bleibt. So wie die geographische Isolation durch Mutation und Selektion in der Biologie neue Arten hervorbringt, lässt sie durch Lautverschiebungen neue Sprachen entstehen. 1853 stellte der Linguist August Schleicher die Verwandtschaftsbeziehungen der indogermanischen Sprachen in Form einer Baumstruktur dar, sechs Jahre bevor Darwin dieselbe Metapher für die Abstammungslinien der Arten wählte. Wie in der biologischen Evolution können Informationen aber auch horizontal transferiert werden. So hat etwa jedes vierte deutsche Wort einen fremdsprachlichen Ursprung. Straße, Keller, Nase, Wein oder Armbrust sieht man es nicht unbedingt an, dass sie aus dem Lateinischen entlehnt sind. Nach Latein haben Griechisch, Englisch und Französisch im heutigen Deutsch die meisten Spuren hinterlassen. Sprachen sind, als lebendige Gebilde, auch untereinander fortpflanzungsfähig; aus Begegnungen können neue Sprachen entstehen. Beispiele für solche Pidgin- oder Kreolsprachen sind die „ Lingua franca “, die im Mittelalter im Mittelmeerraum als Handelssprache aus romanischen Sprachen und dem Arabischen hervorging, oder das auf Haiti gesprochene Kreolisch , eine Mischung aus Französisch mit verschiedenen westafrikanischen, spanischen und indianischen Elementen. Die Herkunft der Wörter lehrt uns alte Weltsichten Sprachen entwickeln sich nicht nur durch Lautverschiebungen und die Aufnahme neuer Wörter, auch die Bedeutung des überlieferten Wortschatzes entwickelt sich laufend fort. Mit diesem Bedeutungswandel , der uns oftmals das Verständnis alter Texte erschwert, befasst sich die Etymologie . Vor 2.000 Jahren bezeichnete „Tier“ alle im Wald lebenden, also wilden Tiere – im Gegensatz zu „Vieh“, den domestizierten Nutztieren. Die Bedeutung „Wildtier“ ist im Laufe der Jahrhunderte verloren gegangen. Im Deutschen wurde der Begriff auf alle Tiere erweitert, während er sich im Englischen mit „deer“ auf Hirsche einengte. Das deutsche „Vieh“ wiederum hat den gleichen Ursprung wie das englische Wort „fee“, das heute Gebühr oder Entgelt bedeutet – Nutztiere waren früher eine gängige Verrechnungseinheit für Handelsgeschäfte. Das gemeingermanische Ursprungswort „fehu“ geht gemäß den Regeln der ersten Lautverschiebung auf das indogermanische Wort „peku“ zurück, das Schaf bedeutet und somit auch die Herkunft des lateinischen Wortes für Geld „pecunia“ erklärt. Die indogermanische Wurzel von Tier, „dheu“, bedeutete ursprünglich so viel wie „schnauben“, oder „atmendes Wesen“. Diese Vorstellung findet sich auch in dem lateinischen Wort „anima“ wieder, das beseelte, also mit Lebenshauch versehene Wesen bezeichnet. Aus ihm leitet sich sowohl das lateinische, französische und englische Wort für Tier „animal“ als auch das lateinische und französische Wort für Seele „anima“, „âme“ her. Die Etymologie lehrt uns daher auch viel über Weltsichten und Wirklichkeiten unserer Vorfahren. Sprachuniversalien sind rar Trotz zahlreicher Bezüge innerhalb der einzelnen Sprachfamilien gibt es kaum Universalien , also Eigenschaften, die alle Sprachen miteinander teilen. Der gemeinsame Nenner umfasst nur einige wenige Feststellungen wie: Alle Sprachen haben Konsonanten und mindestens zwei Vokale, kennen Eigennamen, eine 1., 2. und 3. Person und verfügen über ein Intonationssystem, bei dem sich mit der Stimmhöhe auch die Bedeutung verändert (Im Deutschen etwa kann jedes Wort als Frage intoniert werden, indem man die Stimme am Wortende hebt.) Aussagen wie „in jeder Sprache gibt es Verben und Substantive“ sind bereits umstritten. Bestimmte Formen, etwa die Satzstellung „Subjekt-Verb-Objekt“ treten zwar sehr häufig auf, doch es finden sich auch Beispiele für alle sonst denkbaren Anordnungsmöglichkeiten. Wer im Sprachvergleich Grundkonstanten der menschlichen Existenz sucht, wird enttäuscht. Der Mangel an absoluten Sprachuniversalien zeigt, dass es sehr viele Möglichkeiten gibt, die Welt zu sehen und zu beschreiben. Eine Fremdsprache zu beherrschen, gibt daher auch stets Einblick in eine andere Weltsicht. Von Karl dem Großen soll das Zitat stammen: „Eine andere Sprache zu können, ist wie eine zweite Seele zu besitzen.“ Die Vielfalt der Sprachen: Ein Artensterben der besonderen Art Von den rund 15.000 Sprachen, die im 16. Jahrhundert noch auf der Welt gesprochen wurden, haben bis heute nur 6.000 bis 7.000 überlebt; etwa die Hälfte von ihnen wird, Schätzungen der Linguisten zufolge, in den nächsten 100 Jahren aussterben. Die Vielfalt der Sprachen nimmt also rapide ab. Der Sprachentod ist eine Folge der Globalisierung , doch mit jeder dieser Sprachen stirbt ein ganzes Universum, eine einzigartige Weise, die Welt zu beschreiben. Den Blog entdecken Wer mehr wissen will: Auszug aus der Ansprache von William Jones, in der er erstmalig den Zusammenhang der indoeuropäischen Sprachen behauptete. Eco, Umberto (1994) „Die Suche nach der vollkommenen Sprache“, Beck. Rauchhaupt, Ulf von (2016): „Sprechen Sie Nostratisch?“ in: Frankfurter Allgemeine Zeitung Online vom 15.06.2016.
- Was genau ist Leben?
Fortsetzung von "Was ist Biologie?" Ein schwieriger Betrachtungsgegenstand Leben ist aus der toten Natur entstanden. Chemisch gesehen ist auch Leben letztlich nur ein Verbund komplexer Kohlenwasserstoffe, die sich im Einklang mit den Gesetzen der Physik durch Raum und Zeit bewegen. Doch was unterscheidet es dann von den toten Bio-Polymeren der organischen Chemie ? Die Antwort auf diese Frage ist alles andere als leicht. Lehrbücher der Biologie zählen bis zu acht verschiedene (und teilweise voneinander abweichende) Kriterien auf, die allesamt erfüllt sein müssen, damit etwas als „lebendig“ gilt. Wie den Mathematikern ist es auch den Biologen bis heute nicht gelungen, ihren Betrachtungsgegenstand mit einer allgemein akzeptierten Definition zu versehen. Drei fast immer übereinstimmend genannte Merkmale sind Stoffwechsel, Selbstorganisation und Reizbarkeit. Allerdings finden sich diese Eigenheiten auch in der unbelebten Natur. Stoffwechsel versorgt ein System durch eine unablässige Folge chemischer Reaktionen mit Energie – was aber ebenfalls auf eine Flamme zutrifft. Selbstorganisation steuert Regelkreise und stellt aus physikalischer Sicht die kontrollierte Abfuhr von Entropie sicher – doch auch anorganische Reaktionen kennen solche Rückkopplungsmechanismen, ohne dass es uns in den Sinn käme, sie deshalb als lebendig zu bezeichnen. Reizbarkeit ist das Vermögen, Informationen situationsabhängig verarbeiten zu können – eine Fähigkeit, die zweifelsohne auch Computer haben. Entropievernichtungsmaschinen Allein das Leben vermag es, diese drei Eigenschaften in sich zu vereinen. Das Zusammenspiel von Stoffwechsel, Selbstorganisation und Reizbarkeit erlaubt es komplexen Riesenmolekülen ein thermodynamisches Ungleichgewicht aufzubauen und mithilfe von Steuerungsmechanismen für die Dauer eines Lebens gegen die Entropie zu verteidigen, indem es geordnete Energie in ungeordnete Wärmeenergie umwandelt. Die Nichtgleichgewichtssysteme der Ordnung mögen noch so raffiniert sein, die Physik lehrt uns, wie wir in einem der kommenden Physik-Blogs noch genauer sehen werden, dass am Ende stets die Entropie gewinnt. Geordnete Systeme, wie das Leben, können nur befristet bestehen, denn über kurz oder lang nimmt gemäß dem Zweiten Hauptsatz der Thermodynamik die Unordnung in einem System mit der Zeit zu. Und doch hat das Leben einen Weg gefunden, diesem fatalistischen Gesetz auf eine ganz besondere Art und Weise zu trotzen. Es geht um Fressen und Sex Diesen sehr speziellen Weg beschreiben drei weitere Lebensmerkmale: Fortpflanzung, Differenzierung und die Fähigkeit zur Evolution. Ihnen ist zu verdanken, dass die Kette des Lebens in fast vier Milliarden Jahren auf unserem Planeten kein einziges Mal abgerissen ist. Fortpflanzung ist die Voraussetzung für Differenzierung und Evolution. Sie basiert auf der Fähigkeit der Zelle, der kleinsten Lebenseinheit, sich teilen zu können. Der Teilungsprozess erlaubt vielzelligen Lebewesen Differenzierung, das heißt, die Fähigkeit, verschiedene Zelltypen hervorzubringen, die arbeitsteilig zusammenwirken können. Das dritte Merkmal, die Fähigkeit zur Evolution, beruht auf einem konstruktiven Knirschen im Getriebe der Vervielfältigungsmaschine: Quantenmechanische Zufälle erzeugen winzige Kopierfehler. Sie sind die Triebfeder der erstaunlichen Artenvielfalt. Lebensmerkmale haben also entweder stets mit Selbsterhalt oder Reproduktion zu tun. Salopp formuliert: Es geht um Fressen und Sex. Damit können wir einen Definitionsversuch wagen: Leben ist ein abgrenzbares System kohlenstoffbasierter Moleküle, das in der Lage ist, ein thermodynamisches Ungleichgewicht für eine gewisse Zeit aufrechtzuerhalten und sich innerhalb dieser Zeit zu reproduzieren. Das ist keine offizielle Definition – eine solche gibt es wiegesagt auch nicht. Beispielhaft liste ich drei weitere Definitionsversuche auf, diesmal von namhaften Biologen: „Leben ist jede Population von Einheiten, die einer Vermehrung, Vererbung und Variation fähig sind“ (John Maynard Smith); „Leben ist ein zu erwartendes kollektives Vermögen katalytischer Polymere zur Selbstorganisation“ (Stuart Kauffman); „Leben ist ein Netzwerk tiefer stehender negativer Rückmeldungen, das einer höherstehenden positiven Rückmeldung untergeordnet ist." (Bernard Korzeniewski). Was genau ist Leben? Hilft uns das weiter? Leben bleibt ein unscharfer Begriff, der sich keiner mechanistischen Betrachtung unterordnen will; ein Phänomen ohne eindeutige Trennlinien, mit Grauzonen und Widersprüchen. Nehmen wir beispielsweise Viren. Sie verfügen über fast alle Kennzeichen des Lebens. Bei Stoffwechsel und Vermehrung sind sie allerdings auf Unterstützung durch eine lebende Zelle angewiesen. Die meisten Biologen sprechen ihnen deshalb den Status des Lebendigen ab. Das ist nicht ohne Willkür, denn auch Mensch und Tier sind auf den Stoffwechsel anderer Lebewesen angewiesen, um überleben zu können. Andererseits würde kein Biologe bestreiten, dass Ameisen Lebewesen sind. Doch den allermeisten von ihnen – Arbeiterinnen und Soldatinnen – fehlt ein entscheidendes Lebensmerkmal: Sie können sich nicht reproduzieren. Der Insektenstaat kann sich nur als arbeitsteiliges Kollektiv fortpflanzen. Das, was das Leben letztlich auszeichnet, ist seine Fähigkeit, Informationen über Generationen hinweg bewahren zu können – das können Viren und Ameisen gleichermaßen. Aus einer Handvoll Elemente baut die Natur mithilfe des Elektromagnetismus eine atemberaubende Fülle von replikationsfähigen Entropiebekämpfungsmaschinen. Leben (einschließlich seiner Fähigkeit, ein Bewusstsein zu entwickeln) ist Ausdruck dessen, wozu Atome alles in der Lage sind. Es ist eine faszinierende Erkenntnis, dass die Artenvielfalt als Möglichkeit bereits im Moment des Urknalls angelegt war. Weiterführende Literatur: Hawking, Stephen (2016): „Das Universum in der Nussschale“, dtv. Probst, Wilfried / Schuchardt, Petra (Hrsg): (2011): „Biologie“, Duden Schulbuchverlag.
- Was ist Biologie?
Insekten-Mathematik Die Larven der Zikadenart Magicicada septendecim schlüpfen nur alle 17 Jahre. Kämen sie alle 12 Jahre auf die Welt, würden sie auf sämtliche Fressfeinde und Parasiten treffen, die ein-, zwei-, drei-, vier-, sechs oder zwölfjährige Reproduktionszyklen haben. Beim primzahligen 17-Jahres-Zyklus droht den Insekten hingegen nur von jenen ihnen nicht wohlgesonnenen Kreaturen Gefahr, die jährlich schlüpfen oder sich in demselben, ungewöhnlichen Rhythmus reproduzieren, wie die Zikaden selbst. Haben sich die Insekten mit dem Fundamentalsatz der Arithmetik auseinandergesetzt, um die Anzahl möglicher fataler Begegnungen zu minimieren? Wie kommen schlichte Gliederfüßer auf solch eine ausgeklügelte Strategie? Die Biologen haben darauf eine einfache Antwort: „Nichts in der Biologie ergibt einen Sinn, außer im Licht der Evolution“. Die Evolutionstheorie bildet eine mächtige Klammer, die alle biologischen Teildisziplinen, also Zelllehre, Physiologie, Genetik, Botanik, Zoologie, Ökologie und Verhalten zusammenhält. Sie beschreibt ein langfristig angelegtes Spiel mit dem Zufall; ein Spiel, das weder einem Plan folgt noch ein Ziel kennt und dessen einzige Regel lautet, dass alles erlaubt ist, was den eigenen Reproduktionserfolg erhöht. Jeder der unzähligen Spieler verfolgt eine andere Strategie. Es gibt nur wenige Gewinner – die vielen Verlierer zahlen mit ihrem Leben. Leben – was soll das sein? Aber was ist das eigentlich: Leben? Die Biologie hat das gleiche Problem wie die Mathematik : Es ist außerordentlich schwierig, den Untersuchungsgegenstand zu definieren. Wir wissen bis heute nicht genau, was Leben eigentlich ausmacht. Mit dieser schwierigen Definition werden wir uns im nächsten Biologie-Blog beschäftigen. Soviel vorweg: Wenn wir in verschiedene Biologie-Lehrbücher schauen, findet sich dort keine einheitliche Begriffsbestimmung. Jede Quelle listet eine andere Reihe von Merkmalen auf, die kumulativ erfüllt sein sollte, damit etwas als „Leben“ bezeichnet werden kann. Allerdings haben alle im weitesten Sinne immer etwas mit Selbsterhalt oder Reproduktion zu tun. Salopp formuliert: Es geht stets um Fressen und Sex. Übrigens: Die gängige Behauptung, dass der Tod zum Leben gehört, ist, wie wir später ebenfalls noch sehen werden, so nicht uneingeschränkt richtig… Eine folgenreiche Reise Die Ursprünge der Evolutionstheorie sind eng mit einem Vermessungsschiff der Royal Navy verknüpft. Am 27. Dezember 1831 brach die HMS Beagle zu einer langen Reise auf. In den folgenden fünf Jahren sollte die kleine Brigg, mit zahlreichen Zwischenstationen, einmal die Erde umrunden. Mit an Bord war ein 22-jähriger Naturwissenschaftler und ehemaliger Theologiestudent. Sein Name: Charles Darwin . Später sollte er in seiner Autobiographie schreiben: „Die Reise mit der Beagle war das bei weitem bedeutendste Ereignis in meinem Leben und hat meinen gesamten Werdegang bestimmt.“ Die zahlreichen Beobachtungen, die Darwin während seiner Reise machte, prägten, wie wir heute wissen, weitaus mehr als lediglich seinen persönlichen Werdegang: Nach seiner Rückkehr destillierte der neugierige Forscher in jahrzehntelanger Arbeit aus seinen Notizen eine umfassende Theorie des Lebendigen, die alle überkommenen Betrachtungen über den Haufen warf und die (sofern wir nicht dem Kreationismus anhängen) unsere heutige Sicht auf die Biologie in jeder Beziehung entscheidend bestimmt. Darwins bahnbrechendes Werk „ Über die Entstehung der Arten “, 1859 erschienen, beschreibt in beeindruckender Weise jene Kräfte, die aus einer Urzelle Abermillionen von Spezies entstehen ließen. Eine Theorie, die die ganze Biologie erklärt Die Evolutionstheorie erklärt jenes Räderwerk, das aus sich selbstreplizierenden organischen Verbindungen Abermillionen verschiedene Pflanzen- und Tierarten werden ließ. Die Einflussfaktoren, die bei dieser Entwicklung mitspielen, sind so zahlreich und die sich aus ihnen ergebenden Wechselwirkungen so komplex, dass sich ihre Ergebnisse, anders als im Falle der wohldefinierten Wissensbereiche Physik und Chemie , nicht mehr prognostizieren lassen. Wir können vorhersagen, wie sich eine Billardkugel bewegen wird, wenn eine bestimmte Kraft auf sie wirkt, oder welche Verbindung unter bestimmten Bedingungen aus Natrium und Chor entsteht. Wie sich die zahllosen Spielformen des Lebens künftig entwickeln werden, entzieht sich hingegen vollständig unserer Kenntnis. Die Vielfalt der biologischer Phänomene kann daher bestenfalls rückwirkend erklärt werden. Sie ist eine Naturwissenschaft ohne Naturgesetze. Während aktuell niemand mehr das von der Physik vermittelte Weltbild grundsätzlich infrage stellt, wird die Evolutionstheorie bis heute immer noch vielfach abgelehnt oder angefeindet. Einer Umfrage aus dem Jahre 2005 zufolge, sind 42% aller US-Amerikaner der Auffassung, dass sämtliche Arten ihre Existenz einem singulären göttlichen Schöpfungsakt verdanken und nicht einer sich über Jahrmilliarden hinwegziehenden biologischen Evolution. Egoistische Gene Den biochemischen Hintergrund der Artenvielfalt konnte Darwin noch nicht erklären. Den Grundstein hierfür legte wenige Jahre nach der Veröffentlichung von „ Über die Entstehung der Arten “ die empirische Forschung eines österreichischen Augustinermönchs namens Gregor Mendel, der mit seiner Arbeit die Vererbungslehre begründete. Es sollten noch einmal an die 90 Jahre vergehen, bis James Watson und Francis Krick die Molekularstruktur aufklären konnten, mit der Informationen auf die nächste Generation übertragen werden. Damit war die zentrale Verbindung von Darwins Makro-Theorie zu biochemischen Mikro-Prozessen hergestellt. Manche Evolutionsbiologen wie Richard Dawkins sind der Meinung, dass die von Watson und Krick dingfest gemachten Gene, als Träger der Erbinformation, nicht den Arten dienen, sondern dass sich die selbstsüchtigen Gene umgekehrt vielmehr der Arten bedienen, die sie gleichsam als roboterhaft fremdgesteuerte Erfüllungsgehilfen gegeneinander antreten lassen. Diese und zahlreiche weitere biologische Thesen werden wir in den kommenden Biologie Blogs näher beleuchten. Weiterführende Literatur: Darwin, Charles (2008): „Die Entstehung der Arten“, Nikol. Darwin, Charles (2016): „Die Fahrt der Beagle“, Theiss. Dawkins, Richard (1996): „Das egoistische Gen“, Rowohlt.
- Was wir alles nicht wissen
Was wir alles nicht wissen Dieser Blog (und mein Buch ) sind der Versuch, die wichtigsten Theorien vorzustellen, die für die ausgewählten Wissensgebiete den Anspruch haben, die Welt – oder zumindest wesentliche ihrer Aspekte – zu erklären. Bei der Auswahl ging es mir nicht darum, ob ich glaube (oder sonst irgendjemand glaubt), dass diese Theorien richtig sind, sondern darum, welche praktische Bedeutung diese Theorien im Laufe der Geschichte entfaltet haben und welche „Erklärungsmacht“ ihnen heute zugesprochen wird. Bei den Recherchen bin ich aber auch immer wieder darüber gestolpert, was wir heute alles NICHT wissen – und das ist tatsächlich eine ganze Menge. Es gibt zahlreiche Fälle, bei denen unser Wissen an Grenzen stößt. Ich versuche hier einmal einen Überblick zu geben. Für eine Systematik würde ich vier verschiedene Gründe von Nichtwissen vorschlagen (ich freue mich über Kritik oder Kommentare): Methodischer Zweifel Limitationen unserer Sinne Potentiell lösbare Fragen Grundsätzliche Erkenntnisgrenzen Methodischer Zweifel „Was kann ich wissen?“ ist die erste der vier berühmten „ kantschen Fragen “. Es geht also um Erkenntnistheorie , das philosophische Fachgebiet der Epistemologie. Ein zentraler Aspekt dabei ist, dass wir uns stets darüber im Klaren sein müssen, dass alle Erkenntnis immer nur vorläufig ist: Wir meinen etwas zu wissen, weil es sich augenscheinlich mit unseren Beobachtungen deckt. Das ptolemäische Weltbild etwa war in jeder Beziehung plausibel, bis Kopernikus , Kepler und Galile i zu der Erkenntnis kamen, dass es auch anders sein könnte und sich die Beobachtungen auch mit einem Modell erklären lassen, das die Sonne in den Mittelpunkt des Universums rückt. Heute wissen wir, dass die Sonne zwar Mittelpunkt unseres Sonnensystems ist, keinesfalls aber das Zentrum des Universums. Es gibt einige Beobachtungen, die nahelegen, dass auch unser heutiges Verständnis der Kosmologie zumindest unvollkommen, vielleicht aber auch schlichtweg falsch ist und wir keine Ahnung haben, wie wir diese Beobachtungen mit unserem heutigen Modellen versöhnen können. Da gibt es etwa den merkwürdigen Umstand, dass es eigentlich sehr viel mehr Materie im Universum geben müsste, als wir sehen können. Die für uns sichtbaren Sterne umkreisen das Zentrum ihrer Galaxien schneller, als wir aufgrund der uns bekannten Gravitationsträger erwarten würden. Etwa 85% aller Materie, die es demnach im Universum geben müsste, interagiert offenbar nicht mit elektromagnetischen Wellen, das heißt, sie ist unsichtbar und wird daher als „Dunkle Materie“ bezeichnet. Wir haben heute weder eine Vorstellung davon, ob es diese riesigen Stoffmengen überhaupt gibt, noch wie sie sich aufspüren lassen könnten. Dies nur als Beispiel, dass wir uns nie sicher sein können, dass unsere Annahmen über die Welt auch tatsächlich richtig sind. Der Urheber dieses methodischen Zweifels war übrigens René Descartes , der mit seinem Ansatz einen Neustart der abendländischen Philosophie initiierte. Alles, was wir wahrnehmen, kann grundsätzlich eine Täuschung sein. Die einzige Gewissheit, die wir haben, ist die, dass wir als denkendes Wesen existieren. Das ist sein berühmtes „cogito ergo sum“. Sonstige Gewissheiten gibt es erst einmal nicht und müssen schrittweise von diesem einzigen Ur- Axiom aus wieder zurückgewonnen werden. Es steht außer Frage, dass dieses von Descartes aufgehängte Damoklesschwert, das permanente, systematische Hinterfragen unseres vermeintlichen Wissens, seitdem eine der wichtigsten Triebfedern des wissenschaftlichen Fortschritts ist. Limitationen unserer Sinne Eine weitere Erkenntnisgrenze wird uns unmittelbar durch unsere Sinne auferlegt. Die Erklärung hierfür liefert die Evolutionstheorie . Unsere Möglichkeiten, die Welt zu verstehen sind limitiert, denn unsere Sinnesorgane wurden nicht geschaffen, um die Welt zu verstehen, sondern um in ihr überleben zu können. Die knappen Rechenkapazitäten unseres Gehirns haben andere Prioritäten, als elektromagnetische Wellen zu erfassen, die außerhalb jenes Spektrums liegen, das wir als Licht oder Wärme wahrnehmen. Als Homo sapiens werden wir daher niemals wissen, wie ultraviolette, radioaktive oder langwellige Strahlen aussehen oder wie sie sich anfühlen. Genauso wenig haben es die Evolutionsmechanismen als relevant erachtet, die von Einstein entdeckte Raumkrümmung wahrnehmen zu müssen. Eine dreidimensionale Wahrnehmung der Welt war für unsere Vorfahren gut genug, um sich von Ast zu Ast zu schwingen. Immerhin ist es uns heute möglich mit entsprechenden Apparaten physikalische Phänomene außerhalb unseres Wahrnehmungshorizonts zu messen und mathematisch zu beschreiben. Das aber ändert nichts daran, dass uns der sinnliche Zugang verwehrt bleiben wird. Potentiell lösbare Fragen Potentiell lösbare Fragen sind jene, bei denen die Wissenschaft heute gewissermaßen noch „auf dem Schlauch steht“. Dazu gehört etwa, dass die moderne Physik nicht in der Lage ist alle Widersprüche zwischen der allgemeinen Relativitätstheorie und dem „ Standardmodell der Teilchenphysik “ aufzulösen. Eine Theorie, die beides vereinen könnte, wird gemeinhin als „ Weltformel “ bezeichnet. Das Teilchen, das die Schwerkraft vermittelt – das mutmaßliche Graviton – konnte bis heute durch keinen noch so elaborierten Teilchenbeschleuniger nachgewiesen werden. Aber es erscheint nicht grundsätzlich undenkbar, dass wir eines Tages dieses Rätsel werden lösen können. Andere Beispiele liefert die Biologie : Es gibt – zumindest meines Wissens – bis heute weder eine allgemein akzeptierte Theorie des Todes noch eine ebensolche Theorie der Entstehung des Lebens: Wir wissen weder, warum wir sterben müssen, noch wie sich der Sprung von der Kohlenwasserstoffchemie zum Leben vollzog. Zwar gibt es dazu zahlreiche Hypothesen, doch keine, die empirisch belegt sind und im Wissenschaftsbetrieb allgemein anerkannt werden. Aber auch hier erscheint es nicht grundsätzlich ausgeschlossen, dass eines Tages ein besseres Verständnis plausible Erklärungen liefert. Gleiches gilt auch für die Mathematik : Hier gibt es verschiedene Problemsammlungen, wie die des Clay Institute, das zu Beginn des neuen Jahrtausends die aus Sicht des Institutes sieben wichtigsten ungelösten mathematischen Probleme zusammenstellte und für deren Lösung jeweils ein Preisgeld von einer Millionen Doller auslobte. Bis heute gelang es immerhin einem Mathematiker, Grigori Perelman , eines dieser Probleme, die Poincaré-Vermutung zu beweisen. Grundsätzliche Erkenntnisgrenzen Bei dieser vierten Kategorie helfen keine technischen Apparate, mit denen wir die Limitationen unserer Sinnesorgane überwinden können. Vielmehr stoßen wir hier an ganz grundsätzliche Grenzen. Ich würde dabei zwei Fälle unterscheiden: Fehlender Determinismus Der Franzose Pierre-Simon Laplace ersann 1814 basierend auf dem Weltbild der Newtonschen Mechanik einen fiktiven, allwissenden Weltgeist, der sämtliche Kausalitäten des Universums in Form von Funktionsgleichungen erfassen und simultan verarbeiten kann. Wären alle diese kausalen Beziehungen bekannt, ließe sich theoretisch damit die Bewegung aller Materie und damit die Zukunft der Welt bis an ihr Ende vorausberechnen. Die Quantenphysik kam aber in den 1920er Jahren zu der Erkenntnis, dass dem weder theoretisch noch praktisch so ist. Der Laplacesche Dämon – wir würden ihn heute als „Supercomputer“ bezeichnen – regiert nicht die Welt, denn diese ist auf ihrer untersten Ebene von Natur aus unbestimmt und diffus. In der klassischen Mechanik ist es möglich, den Ort und Impuls eines bewegten Objekts gleichzeitig zu bestimmen: Fährt ein Auto in eine Radarfalle, lässt sich genau sagen, wo das geschah und welche Geschwindigkeit und Masse das Fahrzeug hatte. In der Quantenwelt aber gilt dies nicht mehr. Der Wellencharakter der kleinsten Teilchen macht eine exakte Orts- und Impulsbestimmung der Teilchen unmöglich. Werner Heisenberg fasste diese Erkenntnis 1927 in einer einfachen Formel zusammen, der Unschärferelation: Dabei steht delta x für die Ungenauigkeit der Ortsbestimmung, delta p für die Ungenauigkeit der Impulsmessung. Will man den Ort genauer bestimmen, indem man die Unschärfe delta x verringert, ergibt sich durch die multiplikative Verknüpfung unweigerlich eine Einbuße der Genauigkeit der Impulsmessung delta p. Je genauer wir also bei der einen Größe hinschauen, umso weniger können wir über die andere wissen. Prinzipielle Unmöglichkeit Was war vor dem Urknall? Was geschieht in einem schwarzen Loch? In was hinein expandiert das Universum? All diese Fragen werden wir nie beantworten können, weil unsere Erkenntnismöglichkeit hier an ganz prinzipielle Ränder stößt. Zeit, Raum und Materie, die Denkkategorien, in denen wir uns bewegen können, sind erst im Moment des Urknalls entstanden. Ob es vor dem Big Bang eine andere Physik gab und wie diese konstruiert war, können wir nicht wissen; wir sind in unserer heutigen Welt und ihren heutigen Regeln gefangen. Die extreme Gravitation schwarzer Löcher verschluckt sogar das Licht und beraubt uns damit jeder Möglichkeit, jemals was auch immer aus dem Innern des Lochs zu berichten. Um zu verstehen in was hinein das Universum expandiert, müssten wir in der Lage sein unsere Welt von außen zu betrachten – doch wir sind zwangsläufig selbst Teil dieses Systems. Ein System aber kann sich nicht vollständig selbst erklären. Das war die entscheidende Erkenntnis des Mathematikers Kurt Gödel , der 1931 den Nachweis erbrachte, dass es mathematische Aussagen gibt, die zwar wahr sind, die aber dennoch nicht bewiesen werden können. Gödel zeigte, dass die Widerspruchsfreiheit eines axiomatisierten formalen Systems nicht innerhalb des Systems selbst beweisbar ist. Sowenig, wie ein Gehirn sich selbst vollständig erforschen und eine Sprache sich selbst vollständig erklären kann, kann auch die Mathematik allein nicht die Widerspruchsfreiheit der Mathematik beweisen. Dies hat nichts mit dem Unvermögen der Akteure zu tun, es ist vielmehr grundsätzlich nicht möglich: Um ein System vollständig zu beschreiben, muss man es von außen betrachten können. Die Mathematik aber kann sich nicht nur mit Hilfe der Mathematik erklären und auch führende Neurobiologen sind der festen Überzeugung, dass aus diesem Grund unser Gehirn niemals in der Lage sein wird, sich selbst in seiner Gesamtheit vollständig zu analysieren. Dort übrigens, wo wir an prinzipielle Grenzen, an die Ränder unserer Erkenntnis stoßen, bleibt Raum für Glauben , ein dimensionsloses Terrain, das die Wissenschaft nie wird besetzen können. Dieser Glaube kann religiöser Natur sein oder auch sehr profan: So beruht das ganze Gebäude der Mathematik mit Vermutung, Beweis und Satz letztlich auf Axiomen , simplen Aussagen, die so einleuchtend erscheinen, dass sie ganz offenbar keines Beweises bedürfen. Damit basiert aber auch die vermeintlich vollkommenste aller Wissenschaften letztlich auf einem unbewiesen Glaubens-Fundament. Wer Millionär werden möchte: The Millennium Prize Problems - Clay Mathematics Institute
- Ein Planet wird geboren
Fortsetzung von "Der Anfang von Allem" Die Entstehung der Sonne Eine dieser Galaxien nennen wir heute die Milchstraße , eine in jeder Beziehung unauffällige, spiralförmige Ansammlung von lediglich 200 Milliarden Sternen und einem überschaubaren Durchmesser von 100.000 Lichtjahren. In einem ihrer Spiralarme, 30.000 Lichtjahre vom galaktischen Zentrum entfernt, entsteht vor etwa 4,6 Milliarden Jahren ein neuer Stern . In der Buchhaltung des Universums ist dieser Stern ein Nichts. Eine Sonne der dritten Generation, geboren aus Sternenstaub und mit nur 700.000 Kilometern Durchmesser viel kleiner als ihre Ahnen. Das nukleare Feuer, das sich in ihr entzündet, beginnt Wasserstoff zu Helium zu verschmelzen. Aufgrund seiner geringen Gewichtskraft wird der kosmische Reaktor bei einer Oberflächentemperatur von lediglich 5.500 Grad Celsius zehn Milliarden Jahre verlässlich und konstant brennen. Der Ursprung des Planetensystems Um den jungen Himmelskörper wirbelt eine flache Rotationsscheibe aus den Trümmern vergangener Supernovae -Explosionen. Die Zentripetalkraft bewahrt sie vor dem Sturz in das Gravitationszentrum. Kleine Verdichtungen entstehen; deren Schwerkraft zieht weitere Staubteilchen an und formt sie zu massiven, kugeligen Zusammenballungen. Durch ihren gemeinsamen Ursprung haben sie alle dieselbe Richtung und Achsrotation. Während sich am Rand riesige Gaskugeln zusammenballen, verdichten sich in Sonnennähe die schweren Elemente zu vier kleinen Gesteinsbrocken. Ein Planetensystem ist entstanden. Wie Galaxien und Sonnen ist auch dieses System eine winzige, durch die Gravitation geschaffene Insel der Ordnung in einem immer grösser werdenden Meer aus Entropie . Eine glückliche Katastrophe schafft einen neuen Planeten Der Größte unter den kleinen Gesteinsplaneten zieht seine Kreise 150 Millionen Kilometer von der Sonne entfernt. Fünfzig oder sechzig Millionen Jahre nach Beginn des Sonnenfeuers wird der junge Himmelskörper um ein Haar wieder ausgelöscht: Theia , ein gigantischer Gesteinsbrocken, kollidiert mit der Ur-Erde . Theia wird dabei zertrümmert, die Erde aber überlebt, wenn auch mit schweren Blessuren, den wuchtigen Impuls. Innerhalb weniger tausend Jahre schafft die Gravitation aus den Trümmerstücken der Kollision den Mond . (Diese Kollisionsthese gilt heute als die wahrscheinlichste Erklärung für die Mondentstehung.) Nur wenige zehntausend Kilometer trennen die beiden Himmelskörper. Aus dem kosmischen Unfall ist eine Partnerschaft entstanden, die sich für die neue Erde als außerordentlicher Glücksfall erweisen wird: Tanzte sie vor der Kollision noch wie ein instabiler Kreisel um ihre Rotationsachse, beginnt sich die Drehbewegung der Erde nun unter dem Einfluss der Mond-Gravitation zu stabilisieren. Theias Peitschenhieb hat die Erdrotation beschleunigt: Ein Erdentag geht bereits nach sechs Stunden zu Ende. Der junge Planet ist ein ausgesprochen unwirtlicher Ort. Der Sonnenwind, ein hochenergetischer Strom aus Protonen, Neutronen und Alphateilchen, prasselt ungehindert auf die Erde nieder und verhindert die Bildung einer Gashülle. Unter dem permanenten Bombardement kosmischer Gesteinsbrocken hat sich die Oberfläche des Planeten verflüssigt. Auch in seinem Inneren rumort es gewaltig: Druck und radioaktiver Zerfall haben eine zähflüssige Masse erzeugt, in der sich nun die Elemente nach Gewicht zu sortieren beginnen. Schwere Metalle wie Eisen und Nickel sinken in Richtung des Erdmittelpunkts und formen den Erdkern, während die leichteren Elemente den Erdmantel bilden. Ein gewaltiger Druck sorgt dafür, dass der innere Teil des Erdkerns trotz extremer Temperaturen fest bleibt. Im äußeren, flüssigen Teil des Kerns stellen mächtige Konvektionsströme den thermischen Ausgleich zwischen innerem Kern und Erdmantel sicher. Heiße Eisenmassen steigen nach oben, kältere sinken nach unten. Wie ein Dynamo erzeugt die Bewegung der kreisenden geladenen Atome einen elektrischen Strom und erschafft ein dichtes, erdumspannendes Magnetfeld. Es wird von nun an wie ein Schutzschild die Oberfläche des Planeten vor der zerstörerischen Kraft des Sonnenwinds bewahren. Atmosphäre 500 Millionen Jahre nach Geburt der Erde beginnt sich auf ihrer Oberfläche eine dünne Kruste auszubilden. An keiner Stelle wird sie mehr als 40 Kilometer tief werden. Die Oxide leichter Metalle, Silizium, Aluminium und Magnesium, schaffen schroffe Basalt- und Granitformationen. Zahlreiche Vulkane wirken als Druckausgleichsventile für den darunter schwimmenden heißen Erdmantel . Ihre Krater speien große Mengen an Stickstoff, Methan, Ammoniak, Schwefeldioxid, Kohlendioxid und Wasserdampf aus, die zuvor im Gestein eingeschlossen waren. Durch den Meteoritenbeschuss ist die Masse der Erde soweit angewachsen, dass ihre Gravitation das ausgeschwitzte Gasgemisch nun auch festzuhalten vermag: Eine erste dauerhafte Atmosphäre umhüllt den Planeten. Wasserdampf steigt empor, erkaltet und es beginnt zum ersten Mal zu regnen. Beim Aufprall auf die noch immer heiße Erdkruste verdampft das Wasser sofort. Dabei nimmt es einen kleinen Teil der Wärmeenergie mit in die Atmosphäre, wo es erneut kondensiert und wieder herabregnet. Die Sintflut dauert viele zehntausend Jahre. Doch eines Tages hat sich die Oberfläche soweit abgekühlt, dass das Wasser am Boden bleibt. Nach und nach entstehen die Ur-Ozeane. Zahlreiche Eismeteoriten bringen weiteres Wasser. 1,4 Milliarden Kubikkilometer werden sich so mit der Zeit davon auf der Erdoberfläche ansammeln. Mit der Atmosphäre entsteht auch das Wetter . Thermische Strömungen treiben Wolken vor sich her, die sich über Land niederschlagen, Seen und Flüsse bilden und wieder zurück in die Meere strömen. Der Wasserkreislauf hat sich in Gang gesetzt. Winde und Meeresströmungen bewirken einen permanenten Temperaturausgleich. Tagsüber speichern Atmosphäre und Ozeane Wärme, die sie nachts wieder abgeben, so dass auch auf der Nachtseite der Erde die Temperaturen moderat bleiben. Unterdessen beginnen sich die durch die Gravitation des Mondes erzeugten Gezeiten wie ein Bremssystem auf die Erdrotation auszuwirken: Die Drehgeschwindigkeit des Planeten verringert sich, die Erdentage werden langsam länger. Um den Impuls des Gesamtsystems zu erhalten, muss sich der Mond mit schwindender Erd-Rotationsenergie zunehmend von seinem Planeten entfernen. (Die Impulserhaltung bewirkt, dass sich heute der Mond jedes Jahr knapp 4 cm von der Erde entfernt.) Der zunehmende Abstand des Trabanten beruhigt die Urmeere und das Wechselspiel der Kräfte führt zu einer gebundenen Rotation des Mondes. Er dreht sich nun während eines Erdumlaufs genau einmal um seine eigene Achse und wendet uns daher seitdem stets die gleiche Seite zu. Der Elektromagnetismus übernimmt die Regie Vier Milliarden Jahre vor unserer Zeit ist der Verdichtungsprozess der Erde abgeschlossen; ihr Durchmesser beträgt nun knapp 13.000 Kilometer. Die Rotationsgeschwindigkeit hat sich weiter verringert, ein Erdentag dauert bereits 14 Stunden. Im Vergleich zu ihren Schwesterplaneten, zeichnet sich die Erde durch eine Reihe von Besonderheiten aus: Ein ungewöhnlich großer Mond stabilisiert ihre Rotationsachse; ihre Oberfläche birgt einen gigantischen Wasservorrat; ein starkes Magnetfeld hält die Sonnenwinde fern, während eine dichte Atmosphäre die Wärme des Zentralsterns speichert und die meisten Meteoriten nun vor dem Aufschlag verglühen lässt. Hunderte von Jahrmillionen hat vor allem die Gravitation das Schicksal der Erde bestimmt. Von nun an wird die vielgesichtige Kraft des Elektromagnetismus die Regie übernehmen und eine chemische Evolution in Gang setzen. Die Voraussetzungen könnten besser nicht sein: Moderate, konstante Temperaturen und Unmengen von Wasser, in dem zahllose Sauerstoff-, Stickstoff-, Phosphor- Schwefel- und Kohlenstoffatome gelöst sind. Schwache Bindungen entstehen und lösen sich wieder, nur um sogleich eine andere Konstellation auszuprobieren. Das unentwegte Experimentieren lässt auf der Basis von Kohlenstoffketten erste organische Riesenmoleküle von bislang unbekannter Komplexität entstehen. Aus Monosacchariden, Aminosäuren, Nukleotiden und Fettsäuren formen sich nach und nach komplexe Zucker, Proteine, Lipide und Polynukleotide. Auch sie sind Kinder des Urknalls … Den Blog entdecken Wer mehr wissen will: v. Ditfurth Hoimar, (1972): Im Anfang war der Wasserstoff. Hoffmann und Campe. [i] Der Impulserhaltungseffekt lässt sich am einfachsten bei den Pirouetten der Eiskunstläufer beobachten: Wenn sie ihre Arme ausbreiten, verringert sich ihre Rotationsgeschwindigkeit. Die Impulserhaltung bewirkt die langsame stetige Entfernung des Mondes von der Erde.
- Die Zelle als Chemiefabrik
Fortsetzung von "Was genau ist Leben?" Hooke zeichnet schuppige Monster und entdeckt die Zelle Robert Hooke , Newtons streitlustigem Zeitgenossen , lag auf einmal eine neue Welt zu Füßen. Das Tor dazu hatte das Mikroskop aufgestoßen, eine geniale Erfindung niederländischer Linsenschleifer. Die ehrwürdige Royal Society hatte den Wissenschaftler beauftragt, die Offenbarungen des neuen Wundergeräts im Wortsinne unter die Lupe zu nehmen. Das optische Instrument verwandelte eine Nadelspitze in einen schroffen Berg und einen winzigen Floh in ein bizarres, schuppiges Monster. 1665 veröffentlichte Hooke das Buch „ Micrographia “, eine umfangreiche Sammlung von Zeichnungen der verschiedenen Objekte, die der Autor unter dem Mikroskop beobachtet hatte, samt dazugehörigen Kommentaren. Einer der beschriebenen Gegenstände war ein einfaches Stück Kork. Die kammerartigen Strukturen, die er unter dem Mikroskop sah, erinnerten Hooke an die kleinen Zellen der Mönche. Deshalb nannte er sie auch einfach so: Zellen. Viele Jahre und zahllose weitere angestrengte Blicke durch das Mikroskop später, erfasste der deutsche Physiologe Theodor Schwann schließlich die Tragweite der Hookeschen Entdeckung: Zellen waren die Grundeinheit allen Lebens ! Bald darauf erkannte Rudolf Virchow in Zellstörungen die Ursache sämtlicher Krankheiten und Anfang der 1860er Jahre setzte der Franzose Louis Pasteur die Erkenntnis durch, dass Zellen nur aus anderen lebenden Zellen hervorgehen können. Dies war das Ende der noch bis in die zweite Hälfte des 19. Jahrhunderts von zahlreichen Biologen vertretene, auf Aristoteles zurückgehende Ansicht, dass Leben durch „spontane Urzeugung“ aus toter Materie entstehen könne. Nach Elementarteilchen, Atomen und Molekülen stellen Zellen eine nächste Aggregations- und Komplexitätsstufe dar. Ihre Größe verhält sich zu Atomen etwa so, wie Atom zu Atomkern: Eine Zelle aus erbsengroßen Atombausteinen, hätte die Ausdehnung eines Fußballstadions. Ihr tatsächlicher Durchmesser liegt bei einigen hundertstel Millimetern – eine Winzigkeit zu klein für das bloße Auge. (Die einzige bekannte einzelne Zelle, die ohne Hilfsmittel für uns sichtbar ist, ist die Eizelle des Vogel Strauß.) Die Urzelle Wir haben heute relativ konkrete Vorstellungen davon, wie Universum, Atome, Sterne und Planeten entstanden sind – der Ursprung des Lebens auf unserem Himmelskörper aber bleibt zum großen Teil rätselhaft. Weitgehende wissenschaftliche Übereinstimmung gibt es nur dahingehend, dass alles Leben wahrscheinlich auf einen einzigen Vorfahren zurückgeht, der vor etwa 3,8 Milliarden Jahren im Wasser entstanden sein muss. Langkettige, mit verschiedenen funktionellen Gruppen bestückte Kohlenwasserstoffe begannen damals miteinander zu kooperieren. Sie schufen einen abgeschlossenen Reaktionsraum, in der autokatalytische Prozesse ihre Dynamik entfalten konnten. Diese zunächst rein physikalisch-chemischen Vorgänge waren der Beginn der biologischen Evolution. Wie sich die Urzeugung, der Sprung von toter Materie zum Leben, genau vollzog, wie das Ganze zu mehr als der Summe seiner Teile wurde, bleibt ein Geheimnis der Urozeane. Heute fügen sich die zahllosen Nachfahren jenes ersten Keims zu Algenkolonien, Krokussen, Regenwürmern, Haifischen, Grottenolmen, Kranichen, Walen, Kühen oder menschlichem Bewusstsein zusammen. Die Zelle als Chemiefabrik: Ein Mikrokosmos Jede Zelle ist ein Universum für sich, ein Mikrokosmos, in dem ohne Unterlass Schwerstarbeit verrichtet wird. Die Grenzen dieses Kosmos zieht eine Membran, ein aus Phospholipiden bestehendes Wunderwerk der Biochemie, dem schwache Bindungskräfte eine einmalige Kombination aus Stabilität und Flexibilität verleihen. Wir können uns diese Membran wie eine doppelte Phalanx aus Streichhölzern vorstellen, bei der die Zündköpfe jeweils nach außen weisen. Innerhalb und außerhalb der Zelle werden die Phosphor-Enden vom Wasser angezogen, während die wasserscheuen Fettsäureschwänze nach innen gerichtet sind. In die Doppelmembran sind zahlreiche Proteinkomplexe eingebettet, die die Zellhaut an manchen Stellen tunnelartig durchbohren. Sie machen die Zelle zu einem offenen physikalischen System, das mit seiner Umwelt Wasser-, Baustoff-, Energie- und Nachrichtenmoleküle austauscht. Das Zellinnere ist mit Cytoplasma ausgefüllt, einem glibberigen Cocktail aus Wasser, Proteinfäden, Zuckern, organischen Säuren und anorganischen Bausteinen. Darin eingebettet finden sich die Organellen, komplexe Molekülverbände, deren kryptische Namen uns vielleicht noch aus dem Biologieunterricht in Erinnerung sind. Organellen machen die Zelle zu einer Chemiefabrik en miniature: Sie beschaffen und lagern Rohstoffe, stellen Halb- und Fertigfabrikate her, verteilen sie mithilfe eines ausgeklügelten Logistiksystems, betreiben Kraftwerke für die Energieversorgung und kümmern sich um Instandhaltung und ein gewissenhaftes Recycling. All das wird von einer effizienten Werkleitung gesteuert, die dafür sorgt, dass die Einheiten pausenlos, sieben Tage in der Woche mit der Präzision eines Schweizer Uhrwerks zusammenspielen. Die Nomenklatur der Zelltypen Es gibt zwei Grundtypen dieser Chemiefabriken: Prokaryoten sind einfach gestrickte Zellen, vergleichsweise primitive Gebilde mit niedrigen Sicherheits- und Umweltauflagen, deren Organelle frei und ungeschützt im Cytoplasma schwimmen. Prokaryoten sind fast immer nur einzellig und werden in die beiden biologischen Domänen der Bakterien und Archaeen unterteilt. (Dass es Archaeen gibt, wissen wir übrigens erst seit Ende der 1970er Jahre. Obwohl sie sich äußerlich kaum von Bakterien unterscheiden, stellen sie aufgrund eines unterschiedlichen Aufbaus ihrer Ribonukleinsäurensequenz ein eigenständiges Bauprinzip des Lebens dar, das besonders gut mit extremen Bedingungen wie Wassertemperaturen um die 100° C zurechtkommt.) Der zweite Typus, die Eukaryoten , bilden eine eigene, dritte Domäne. Eukaryoten sind fast immer mehrzellig und teilen sich in die drei großen Lebensformen der Pflanzen , Pilze und Tiere . Bei ihnen sind Zellkern und die meisten Organellen von einer eigenen Membran umgeben. Dadurch entstehen getrennte Reaktionseinheiten, in denen verschiedene Stoffwechselprozesse ohne das Risiko von Chemieunfällen gleichzeitig ablaufen können. Die Parade der Organelle Dreh- und Angelpunkt aller Abläufe in Eukaryoten ist der Zellkern . Er ist die Kommandozentrale und zugleich ein gigantisches Archiv für Proteinrezepte. Grundbestandteil all dieser Rezepte sind Enzyme, Protein-basierte Biokatalysatoren, die es erlauben, bei niedrigen Betriebstemperaturen Reaktionen schneller ablaufen zu lassen. Die Ribosomen sind die Produktionseinheiten, die die Rezeptaufträge abarbeiten . Sie sitzen außerhalb des Zellkerns auf einem Organell mit der merkwürdigen Bezeichnung „ Endoplasmatisches Retikulum “ – „in Plasma eingebettetes kleines Netz“. (Nennen wir es praktischerweise ER.) Das ER ist ein verflochtenes Kanalsystem, das die von den Ribosomen hergestellten Proteine mithilfe von Vesikeln , kleinen, kugeligen Transporteinheiten, an ihren Bestimmungsort bringt. „Dreck auf der Linse“ Die meiste Fracht wird vom Golgi-Apparat in Empfang genommen. Dieses Organell ist nach seinem etwas unglücklichen Entdecker benannt, dem italienischen Arzt Camillo Golgi , der es 1898 aufgespürt hatte. (Seine Beobachtung wurde von Zeitgenossen als „Dreck auf der Mikroskop-Linse“ abgetan.) Der Golgi-Apparat ist eine Spezialanlage für Hightech-Fertigprodukte. Die vom ER gelieferten Vorstufen werden durch ihn zu komplexen Eiweißverbindungen aufgebaut. In Pflanzen entstehen hier auch die Mehrfachzucker, aus denen die Zellwände errichtet werden. Des Weiteren ist der Golgi-Apparat Teil eines raffinierten Abfall-Recycling-Systems: Er liefert die Verdauungsenzyme, mit deren Hilfe verbrauchte Organellen in einfache, wiederverwendbare Monomere zerlegt werden. Die fertigen Proteine werden schließlich an einer Verladerampe mit chemisch codierten Navigationsanweisungen versehen und von Transportvesikeln zu ihrer Destination gebracht. Die Betriebsamkeit einer Zelle als hektisch zu bezeichnen, wäre eine ziemliche Untertreibung: Ohne Unterlass werden Abermilliarden von Molekülen transportiert und mit einer unfassbaren Geschwindigkeit auf- um- und abgebaut. Die hierfür nötige Energie liefern die Zell-Kraftwerke, die Mitochondrien . Genau genommen handelt es sich um Kohlekraftwerke, denn hier werden Kohlehydrate verbrannt. Den Zucker-Brennstoff erzeugt ein weiteres Organell, die Chloroplasten , die sich allerdings nur in Pflanzen und bestimmten Bakterien finden. Sie haben die wundersame Fähigkeit, Sonnenenergie in den chemischen Bindungen bestimmter Kohlenstoffmoleküle speichern zu können. Jedes einzelne der unzähligen Moleküle, aus denen eine Zelle besteht, ist tot; durch ihr Zusammenspiel aber erwachen sie zu etwas, das unvorstellbar viel mehr ist als die Summe seiner Teile – ein Wunder an Synergie, das sich jeder mechanistischen Betrachtung entzieht. Nicht weniger wundersam ist das Zusammenspiel der Zellen untereinander. Kein einzelner Eukaryot wäre allein überlebensfähig. Billionen und Billiarden von ihnen aber bilden jene Arbeitsgemeinschaften, die wir als Pflanzen, Pilze oder Tiere bezeichnen. Sie formen Gewebe , aus denen Wurzeln, Stängel, Blätter oder komplexe Organe wie Tracheen, Chitinpanzer, Herz, Leber, Haut, Knochen oder Gehirn entstehen. Die einzelnen Organe verbinden sich zu Systemen – Blutkreislauf, Verdauungsapparat, Harn- oder Nervensystem. Der Verbund aller Organsysteme untereinander bildet schließlich einen Organismus . Die Zahl der Zellen, die zusammenarbeiten, um etwa einen Menschen entstehen zu lassen, wird auf zehn Millionen Milliarden geschätzt. Betrachten wir solche komplexe Organismen, drängen sich drei grundlegende Fragen auf: Wie lassen sich diese gigantischen Systeme mit Energie versorgen? Wie werden sie koordiniert? Und vor allem: Wie konnten sie überhaupt entstehen? Diesen drei Fragen werden wir in den kommenden Blogs zum Thema Biologie nachgehen. Den Blog entdecken Wer mehr wissen will: Probst, Wilfried / Schuchardt, Petra (Hrsg.): (2011): „Biologie“, Duden Schulbuchverlag Bill Bryson (2004): Eine kurze Geschichte von fast allem, Goldmann – Kapitel 24
- Viel Lärm um Nichts: Das Aufbauprinzip der Atome
Fortsetzung von "Die Ursprünge der modernen Chemie" Viel Lärm um Nichts Atome sind die materielle Grundlage allen Seins – und damit auch allen Bewusstseins – im Universum. In ihrem Zentrum verbinden sich Quarks zu Protonen und Neutronen , die 99,95% der atomaren Masse ausmachen. Der winzige Rest entfällt auf die Elektronen . Sie umschwirren den Kern rastlos, sind überall und nirgendwo. Ihre Wellen spannen die Elektronenhülle auf, einen Raumbereich, von etwa einem zehnmilliardstel Meter Durchmesser. Wenn wir uns den Atomkern als Erbse auf dem Anstoßpunkt eines großen Fußballstadions vorstellen, dann hält sich das Elektron mit einer 95%igen Wahrscheinlichkeit irgendwo zwischen der Erbse und dem hintersten Tribünenrang auf. Vielleicht ist es aber auch überhaupt nicht im Stadium, sondern kilometerweit davon entfernt. Der Rest ist Leere. Atome bestehen vor allem aus dem Nichts! Das Wechselspiel der vier Grundkräfte lässt Elementarteilchen und damit Materie entstehen. Die Chemie benötigt aus diesem Ensemble nur zwei Akteure: die positiven und negativen Teilchen des Elektromagnetismus. Protonen sind auf der chemischen Bühne die Charakterdarsteller. Ihre Anzahl bestimmt das Wesen eines Atoms, seine elementare Identität. Ein zusätzliches Proton verändert die Eigenschaften eines Atoms radikal, es macht aus dem Gas Helium das Metall Lithium, aus dem Metall Silizium das Nichtmetall Phosphor und aus Platin Gold. Die Hauptrolle aber kommt dem unscheinbaren Elektron zu. Die Leichtgewichte erschaffen unsere makroskopische Welt, indem sie die Atomsorten zu Abermilliarden Spielarten verbinden, von denen jede mit einzigartigen Eigenschaften versehen ist. Das Aufbauprinzip Drei Quantenmechaniker, Nils Bohr , Werner Heisenberg und Wolfgang Pauli , haben das theoretische Fundament geliefert, das dieses Wunder erklärt. Von Bohr stammt das grundlegende Atommodell. Heisenberg erweiterte es durch die Idee der Orbitale , und Pauli erkannte, dass die Anzahl der Elektronen, die sich dort jeweils aufhalten können, begrenzt ist. Diese drei Theorien sind im „ Aufbauprinzip “ miteinander vereint, einem quantenmechanischen Modell, das die Organisation der elementaren Elektronenhüllen beschreibt. Bohrs Atommodell kennt sieben Elektronenschalen , von denen jede ein unterschiedliches Energieniveau repräsentiert und die von innen nach außen mit den Buchstaben K, L, M, N, O, P und Q bezeichnet werden. Den Schalen lassen sich, gleichsam als „Unterschalen“, jeweils bis zu vier verschiedene Orbital-Bausteine zuordnen: das kugelförmige s-Orbital, und die p-, d- und f-Orbitale, deren Formen sich am ehesten als ring- und hantelförmig umschreiben lassen (Die Abkürzungen stehen für die englischen Bezeichnungen „sharp“, „principal“, „diffuse“ und „fundamental“). Jedes Orbital hat dabei eine spezifische Höchstgrenze für die Aufnahme von Elektronen. Die K-Schale besteht nur aus einem s-Orbital, das maximal zwei Elektronen beherbergen kann. Die folgende L-Schale verfügt über zwei Orbitale: Ein s-Orbital und ein p-Orbital, das sechs Elektronen Raum bietet. Die L-Schale kann somit insgesamt acht Elektronen aufnehmen. Auf der M-Schale gesellt sich zu dem s- und p- noch ein d-Orbital, das zehn Elektronen fasst, so dass die M-Schale bis zu 18 Elektronen eine Heimat bieten kann. Auf der vierten, der N-Schale, erweitert das mächtige f-Orbital mit einer Kapazität von vierzehn Elektronen, das Gesamtfassungsvermögen der Schale auf 32 Elektronen. (Die Kapazität einer beliebigen Schale lässt sich mit der einfachen mathematischen Formel 2n^2 berechnen, wobei n der Zahl der jeweils betrachteten Schale entspricht. Für die vierte Schale, die N-Schale, beträgt die Kapazität also 2 x 4^2 = 32.). Diese Elektronenkonfiguration ist ein schrittweiser Auffüllmechanismus, bei dem die Orbitale von innen nach außen bestückt werden. Die Plätze mit dem niedrigsten Energieniveau werden zuerst besetzt, da sie gegenüber dem Atomkern die geringste Lageenergie und somit die größte Stabilität aufweisen. Wer unten nicht mehr unterkommt, muss sich notgedrungen weiter oben einen weniger stabilen Raumbereich suchen. Das Aufbaumodell der Atome am Beispiel des Phosphors Diese Logik lässt sich anhand von Henning Brand s Phosphor illustrieren. Er hat 15 Protonen und muss in seiner elektrisch neutralen Variante somit auch 15 Elektronen unterbringen. Die beiden ersten finden sich auf dem s-Orbital der K-Schale. Die nächsten acht werden durch das s- und p-Orbital der L-Schale versorgt. Den übrigen fünf Elektronen bleibt nur die M-Tribüne: zwei im s-Block, drei weitere im p-Block. Mit jeder neuen Schale kommen immer ein s- und ein p-Orbital hinzu, insgesamt also Raum für acht Elektronen. Zusammen bilden diese beiden jeweils äußersten Orbitale die „ Valenzschale “; ihre Ladungsträger sind die „ Valenzelektronen “. Phosphor verfügt somit über fünf dieser exponierten Ladungsträger. Um die Valenzelektronen dreht sich in der Chemie so ziemlich alles. Dass die Valenzschalen maximal acht Elektronen fassen, ist der quantenmechanische Schlüssel zum Verständnis des von Mendelejew und Meyer gefundenen Rhythmus. Bredouille Der Physik-Artikel der letzten Woche endet mit einer kurzen Vorstellung der ersten modernen Atomtheorie, die zu Beginn des 19. Jahrhunderts durch John Dalton aufgestellt wurde. Das brachte mich jetzt erstmals in eine kleine Bredouille: Die Inhalte dieses Blogs basieren auf den Kapiteln meines Buchs in der Reihenfolge: Mathematik, Physik, Chemie, Biologie, Geschichte des Universums, Bewusstsein, Sprache, Philosophie, Gesellschaft, Ökonomie und Geschichte der Menschheit. Das Folgekapitel baut jeweils auf Aussagen des vorausgegangenen Kapitels auf. Die Kapitel selbst folgen der Chronologie des historischen Erkenntnisfortschritts. Wer das Buch liest - es erscheint jetzt doch erst im Juni :( - liest normalerweise erst das Physik-Kapitel fertig, bevor er mit dem Chemie-Kapitel anfängt. Der Blog aber folgt nicht der Kapitelstruktur des Buchs, sondern widmet jede Woche jedem der elf Buchkapitel einen eigenen Beitrag. In der Chronologie des Blogs sind wir in der Kategorie Physik erst bei Newton und Dalton angelangt. Danach ist aber noch einiges geschehen. Unser modernes Physikverständnis beruht auf Einsteins Relativitätstheorie und auf der Quantenphysik. Letztere ist elementar, um die Chemie zu verstehen, die streng genommen nur eine bestimmte Physik ist – die Physik der Elektronenschalen. Das in diesem Artikel vorgestellte Aufbauprinzip der Atome setzt somit eigentlich gewisse Kenntnisse der Quantenphysik voraus, die in diesem Blog bisher noch nicht behandelt wurden. Das nur zur nachträglichen Erklärung. Den Blog entdecken Wer mehr wissen will: Günter Klar , Armin Reller (2023): „Das Werden der Chemie“, Wiley-VCH. Moore, John T. (2020): „Chemie kompakt für Dummies“, Wiley-VCH Bildnachweis: Werner Heisenberg: File:Bundesarchiv Bild183-R57262, Werner Heisenberg.jpg - Wikimedia Commons
- Isaac Newton: Das Universum als Uhrwerk
Fortsetzung von "Die Ursprünge der Physik" Edmond Halley reist nach Cambridge Der Astronom Edmond Halley – nach ihm ist der bekannte Komet benannt – war im englischen Wissenschaftsbetrieb eine etablierte Größe. 1677 hatte er eine Methode entwickelt, mit der sich der Abstand zwischen Erde und Sonne berechnen ließ. Nun, sieben Jahre später, hatte ihn die ehrwürdige Royal Society mit einer heiklen Mission betraut: Nach einem Streit mit seinem Kollegen Robert Hooke hatte sich Isaac Newton beleidigt nach Cambridge zurückgezogen und widmete sich dort fortan nur noch Fragen der Theologie und Alchemie . Halley sollte den schrullig-genialen Naturforscher wieder mit der königlichen Gelehrtengesellschaft versöhnen, denn die Mitglieder der Society waren auf Newtons Hilfe angewiesen. Nur ihm trauten sie zu, Keplers Theorie der Planetenbewegung , Galileis Fallgesetze und die Überlegungen des französischen Mathematikers und Naturforschers René Descartes zur Trägheit von Massen miteinander zu vereinen. Im August des Jahres 1684 reiste Halley daher nach Cambridge. Zu seiner Überraschung stellte er gleich nach seiner Ankunft fest, dass die lange gesuchten Antworten bereits fertig in Newtons Schublade lagen. Mit einiger Mühe gelang es Halley, Newton davon zu überzeugen, seine Erkenntnisse zu ordnen und zu veröffentlichen. 1687 erschienen die „ Philosophiae Naturalis Principia Mathematica “, die „Mathematischen Grundlagen der Naturphilosophie“. Bis heute ist es eines der wichtigsten Bücher der Wissenschaftsgeschichte. Es lieferte das Fundament, auf dem die Physik die nächsten 200 Jahre scheinbar unerschütterlich stehen sollte. Newtons Bewegungsgesetze Zu Newtons Genie gehörte seine Fähigkeit, auch unsichtbare Dinge erfassen zu können. Was Keplers, Galileis und Descartes Beobachtungen miteinander verband, waren Kräfte . Newton war der erste, der ihr Wirken umfassend beschrieb. Kräfte sind alles, was den Zustand von Materie zu ändern vermag, also die Dinge der Welt beschleunigen und abbremsen kann oder ihnen einen neue Richtung oder Form gibt. Sie lassen Äpfel vom Baum fallen, dehnen Metallfedern, schleudern Kanonenkugeln, verdampfen Wasser, bringen die Sonne zum Leuchten und halten Organismen am Leben. Ihre Fähigkeiten muten dabei geradezu geisterhaft an, denn wir können sie nicht direkt beobachten, sondern erkennen sie allein an ihren Wirkungen. Newtons erster Geniestreich war es, das Wirken von Kräften in drei einfachen Bewegungsgesetzen zusammenzufassen. Nach dem ersten dieser Gesetze, dem „ Trägheitsprinzip “, verharrt jeder Körper in Ruhe oder gleichförmiger Bewegung, solange er nicht durch äußere Krafteinwirkung gezwungen wird, seinen Zustand zu ändern. Dass ein Körper ohne äußere Veranlassung passiv bleibt, entspricht der aristotelischen Lehre und unserer Alltagserfahrung. Doch dass ein bewegter Körper seine Geschwindigkeit konstant beibehält, war eine revolutionäre neue Erkenntnis: Lag es doch ganz augenscheinlich in der Natur bewegter Dinge, dass sie, so wie eine rollende Billardkugel, irgendwann von selbst zur Ruhe kommen. Niemand war bisher auf die Idee gekommen, dass ein Körper, einmal in Bewegung gesetzt, seine Reise endlos mit der gleichen Geschwindigkeit in die gleiche Richtung fortsetzten könnte, sofern ihn keine anderen Kräfte daran hindern. Newtons zweite Erkenntnis war, dass die Beschleunigung einer Masse sich proportional zu der sie verursachenden Kraft verhält: Kraft ist Masse mal Beschleunigung. Dieses „ Aktionsprinzip “ besagt, dass bei konstanter Masse eine Verdopplung der Kraft auch zu einer Verdopplung der Beschleunigung führt; verdoppelt sich die Masse, so halbiert sich bei konstanter Kraft die Beschleunigung. Die Bahn des bewegten Körpers ist dabei die lineare Verlängerung der Richtung, aus der die Kraft wirkt. Das dritte Gesetz, das „ Reaktionsprinzip “, besagt, dass die Übertragung einer Kraft von einem Körper auf einen anderen eine gleich große Gegenkraft provoziert. Wie die ersten beiden Bewegungsgesetze lässt sich auch diese dritte Regel leicht auf einem Billardtisch demonstrieren: Stoßen zwei Kugeln zusammen, so kommt die erste Kugel abrupt zum Stillstand, wobei sie ihre Kraftwirkung auf den Kollisionspartner überträgt, der an ihrer Stelle die Reise fortsetzt. Es entsteht also eine Wechselwirkung, bei der eine Aktion, eine gleich große Reaktion erzeugt. Der Gesamtbetrag aller Kräfte bleibt dabei stets erhalten. Die Schwerkraft regiert das Universum Die drei Bewegungsgesetze erwiesen sich für Newton schon bald auch als Schlüssel zum Verständnis der gesamten Himmelsmechanik . Am Firmament und auf der Erde wirkten dieselben Kräfte! Doch wenn die Schwerkraft auf der Erde den Apfel fallen lässt, warum fällt dann nicht auch der Mond auf die Erde? Eine weitere Kraft musste im Spiel sein. Nach dem ersten Bewegungsgesetz müsste sich ein bewegter Mond stetig von der Erde entfernen. Newton erkannte, dass der Mond tatsächlich auf die Erde fällt, der Fall aber nach einem unendlich kurzen Zeitraum durch die Fluchtbewegung wieder korrigiert wird; im nächsten Moment fällt der Mond erneut und wieder wird der Fall durch die Flucht kompensiert. Aus diesem Differentialkalkül ergibt sich – auch das konnte Newton nachweisen – die von Kepler beobachtete elliptische Bahn. Die Gravitationswirkung ist stets gegenseitig. So wie die Erde den Mond und den Apfel anzieht, so ziehen Mond und Apfel auch die Erde an. Die Kraft ist proportional zur Masse „m“ der betrachteten Körper und nimmt im Quadrat des Abstands „r“ ab. Bei einer Verdopplung des Abstands beträgt die Kraft also nur noch ein Viertel. Daher übt der kleine Mond eine dreimal stärkere Anziehungskraft auf die Erde aus, als die riesige, massereiche Sonne. Außer Masse und Abstand wirkt als dritter Parameter noch die Gravitationskonstante „G“, die die Stärke der Anziehung zum Ausdruck bringt. Das Zusammenwirken der drei Einflussgrößen ergibt die Gravitationskraft „F“, mit der Formel Da die Schwerkraft von der Masse abhängt, hat ein Apfel auf dem Mond nur einen Bruchteil seiner irdischen Gewichtskraft. Nun ließ sich auch Galileis Beobachtung erklären, dass alle Körper gleich schnell fallen: Ein doppelt so schwerer Körper unterliegt zwar einer doppelten Schwerkraft, dafür kann seine Masse aber auch nur halb so schnell beschleunigt werden. Nach dem zweiten Newtonschen Gesetz ist die Beschleunigung für alle Massen daher stets dieselbe. Newton hatte aus dem chaotischen Wirrwarr der Naturgewalten eine erste fundamentale Kraft herausgelöst. Die Gravitationskraft , die den Apfel fallen lässt und die wir jedes Mal überwinden müssen, wenn wir aufstehen oder eine Treppe steigen, bestimmt auch die Ordnung des ganzen Universums: Unbegrenzt in ihrer Reichweite und durch nichts abschirmbar, bewirkt sie, dass sich überall im All Materie zu kugelförmigen Himmelskörpern, Sonnensystemen und Galaxien verdichtet. Das Universum als Uhrwerk Mit den drei Bewegungsgesetzen und der Gravitationsformel hatte der Engländer die Grundlage eines umfassenden mechanischen Weltbilds geschaffen. Die sichtbaren Vorgänge am Himmel und auf der Erde waren ein relativ einfaches Zusammenspiel von Massen und Kräften in Raum und Zeit, das sich mathematisch exakt beschreiben ließ. Mit diesem theoretischen Fundament ließ sich nun auch praktisch arbeiten: Erfahrung, Schätzungen und Intuition wurden durch Berechnungen ersetzt, aus Baumeistern wurden Ingenieure . Die Anzahl der Rollen, die nötig waren, damit ein Flaschenzug eine bestimmte Last heben konnte, der Druck, dem eine Staumauer standhalten musste, die Leistung, die eine Dampfmaschine erbringt, die Bewegungen von Planeten, Äpfeln oder Kanonenkugeln ergaben sich aus mathematischen Formeln. Die Naturgesetze ließen sich nun ganz systematisch in den Dienst des Fortschritts zwingen. Newtons „Prinzipien“ waren ein erster Höhepunkt der wissenschaftlichen Revolution , Ausdruck einer Zeitenwende, nach der Aussagen über die materielle Beschaffenheit der Welt nicht mehr theologisch, sondern nur noch mathematisch und empirisch gerechtfertigt werden mussten. Das neue Weltbild konnte Newton nur zusammenfügen, weil Kopernikus , Brahe , Kepler , Galilei und Descartes durch jahrelanges penibles Beobachten, Messen, Wiegen, Zählen und Experimentieren hierfür die Grundlagen gelegt hatten. Wackelige Weltbilder Gute Theorien machen Aussagen darüber, wie die Welt beschaffen ist. Eine Theorie ist dann gut, wenn die gemachten Beobachtungen mit dem theoretischen Modell in Einklang stehen und Vorhersagen aus ihr abgeleitet werden können. Die Entdeckung des heliozentrischen Weltbildes zeigt eindrücklich, dass alle so gewonnene Erkenntnis immer nur vorläufig ist. Die Menschen, die dem ptolemäischen Weltbild anhingen, waren weder dumm noch naiv. Ihre Theorie befand sich in völliger Übereinstimmung mit dem, was sie beobachten konnten – dennoch unterlagen sie einem Trugschluss. Eine einzige Beobachtung, die nicht mit dem formulierten Zusammenhang in Übereinstimmung gebracht werden kann, bringt eine naturwissenschaftliche Theorie zu Fall. Die alte Erklärung muss dann entweder erweitert oder durch eine völlig neue ersetzt werden. Dieser methodische Zweifel an der Endgültigkeit aller gewonnenen Einsichten ist seit dem 17. Jahrhundert der Motor des wissenschaftlichen Fortschritts. Seitdem tasten wir uns über Irrungen und Wirrungen an das heran, was vielleicht die Wahrheit sein könnte. Newtons deterministisches Welterklärungsmodell sollte sich als ausgesprochen belastbar erweisen. In den folgenden Jahrzehnten wurde deutlich, dass sich seine Gesetze problemlos auf optische, akustische und elektrische Phänomene übertragen ließen. Der Kosmos schien ein gigantisches Uhrwerk zu sein, bei dem alle Rädchen nach den immer gleichen, verlässlichen Spielregeln ineinandergriffen. Lediglich drei Parameter – Zeit, Raum und Masse – waren notwendig, um dieses Uhrwerk in all seinen Details zu beschreiben. Aus ihren arithmetischen Kombinationen ließen sich sämtliche physikalische Größen ableiten. Physikalische Grundgrößen Setzt man die Masse ins Verhältnis zum Raum erhält man die Dichte eines Objekts. Eine hohe Dichte bedeutet viel Masse pro Raumeinheit, somit auch eine starke Gravitation und Trägheit. Der Dichteunterschied erklärt, warum wir mehr Kraft aufwenden müssen, eine Bleikugel in Bewegung zu versetzen, als einen gleichgroßen Pingpongball. Das Verhältnis von Strecke zu Zeit ist die Geschwindigkeit , mit der sich ein Körper bewegt. Multipliziert man die Geschwindigkeit mit der Masse des Körpers, erhält man den Impuls . Den Impuls können wir uns sich als eine Transportleistung vorstellen oder auch als die Wucht, die ein Aufprall verursacht. Die multiplikative Verknüpfung der beiden Größen bedeutet, dass bei gegebenem Impuls die doppelte Masse mit der halben Geschwindigkeit oder die halbe Masse mit der doppelten Geschwindigkeit bewegt wird. Nicht mehr ganz so anschaulich wird es, wenn wir die Geschwindigkeitsformel ins Verhältnis zur Zeit setzen. Wir erhalten eine Exponentialfunktion und messen dann „Meter pro Sekunde pro Sekunde“. Dies ist die Definition der Beschleunigung : Sie bringt zum Ausdruck, wie sich die Geschwindigkeit pro Zeiteinheit verändert. Von hier ist es nur noch ein gedanklicher Katzensprung bis zu Newtons Schlüsselbegriff: Die Kraft – sie wird dem großen Engländer zu Ehren seit 1948 in der Einheit „ Newton “ gemessen – erhalten wir, indem wir die Beschleunigung mit der Masse multiplizieren. Kräfte haben, wie erwähnt, das Vermögen, Massen zu beschleunigen oder deren Zustand in sonst einer Weise zu verändern. Von der Kraft ist es wiederum nur ein kleiner Schritt zu unserer nächsten Größe, der Energie . Rein mathematisch ist sie die Multiplikation der Kraft mit einer Strecke, gemessen in der Einheit „ Joule “. Doch wie müssen wir uns eine Kraft, die „auf den Weg gebracht wird“ vorstellen? Tatsächlich ist Energie ein sehr problematischer Begriff. Eine erste Vorstellung erhalten wir, wenn wir uns der Energie über das physikalische Synonym „Arbeit“ nähern. Wenn eine Billardkugel vom Tisch fällt, wird eine Masse beschleunigt und durch den Raum transportiert. Damit wird – durchaus im umgangssprachlichen Sinn – Arbeit verrichtet, denn nach getaner Arbeit sieht die Welt anders aus. Solange sie auf dem Tisch ruht, stellt die Kugel aufgrund ihrer Position im Raum oberhalb des Bodens ein Energiepotential dar, gleichsam Energie in Lauerstellung. Sie ist vorhanden, verrichtet aber keine Arbeit, sondern ruht. Fällt die Kugel vom Tisch, wird die potentielle zu kinetischer Energie. Fällt dieselbe Kugel von einem höheren Tisch, arbeitet die Kugel automatisch härter und setzt somit auch mehr Energie frei. An dieser Stelle offenbaren sich zwei Merkwürdigkeiten. Die erste ist, dass Energie verschiedene Formen annehmen kann, die untereinander wandelbar sind: Potentielle Energie kann in Bewegungsenergie umgewandelt werden. Chemische Energie, die in einem Stück Holz gefangen ist, wird bei Verbrennung zu Licht- und Wärmeenergie. Ein Generator erzeugt aus kinetischer oder chemischer Energie Strom. Wie eine Substanz kann Energie von einer Form in eine andere fließen. Die zweite Merkwürdigkeit ist, dass es äußere Umstände sind, die bestimmen, wie viel von dem Energiepotential jeweils freigesetzt wird: Die Höhe des Tisches, die Sauerstoffzufuhr bei der Verbrennung, der Wirkungsgrad des Generators. Energie stellt damit letztlich immer nur eine Möglichkeit dar. Die Frage, wieviel Energie insgesamt in der Kugel oder dem Holzscheit steckt, wieviel Arbeit in dem jeweiligen Energieträger gespeichert ist, lässt sich so nicht beantworten; Energie ist eine Größe, die ihr wahres Wesen gut zu verstecken weiß. Der amerikanische Nobelpreisträger Richard Feynman fasste es so zusammen: „Es ist wichtig, sich darüber im Klaren zu sein, dass wir heute in der Physik nicht wissen, was Energie ist“. Setzen wir Energie ins Verhältnis zur Dimension Zeit, erhalten wir eine weitere grundlegende Größe, die Leistung , mit der Einheit „ Watt “. Ihr Namensgeber, der schottische Ingenieur James Watt , hatte hierfür die anschauliche Einheit „Pferdestärke“ vorgeschlagen. Im metrischen System wurde sie später normiert als die Leistung, die erbracht werden muss, um innerhalb einer Sekunde mithilfe eines Seils und einer Rolle ein Gewicht von 75 kg um einen Meter anzuheben. Lässt man zwei Pferde gegeneinander antreten, hat das Pferd, das die Last schneller angehoben hat, die größere Leistung erbracht – wobei beide Tiere nach wie vor die gleiche Arbeit verrichtet haben. Die Wirkung ist eine der weniger bekannten physikalischen Größen. Dieses Schattendasein führt sie zu Unrecht, denn die Entdeckung ihrer kleinstmöglichen Einheit markiert, wie wir noch sehen werden, den Beginn der modernen Physik. Bei der Wirkung wird die Energie, nicht wie bei der Leistung durch die Zeit dividiert, sondern mit ihr multipliziert. Die Wirkung folgt stets einem in der Natur allgegenwärtigen ökonomischen Prinzip: Ein durch den Raum fliegendes Objekt wird unter den unendlich vielen möglichen Flugbahnen immer die schnellstmögliche Bahn, die Bahn mit der kleinstmöglichen Wirkung, wählen. Auch die letzten beiden fundamentalen Größen sind aus der Kraft abgeleitet: Druck und Intensität . Die Bezugsgröße ist in beiden Fällen die Fläche. Druck bezeichnet die Kraft pro Fläche. Die offizielle Einheit „ Pascal “, ist etwa aus der Meteorologie bekannt, wo sie die Gewichtskraft beschreibt, die Luftmassen auf die Erdoberfläche ausüben. Intensität ist das Verhältnis von Leistung zu Fläche. Mit ihr lässt sich etwa die Sonnenenergie beschreiben, die pro Zeiteinheit auf die Oberfläche einer Solarzelle trifft. Nach diesem kombinatorischen Muster lassen sich noch zahlreiche weitere physikalische Größen bilden, die mitunter kryptische Bezeichnungen wie Elektronenvolt, Planck-Kreisfrequenz oder Wärmedurchlasswiderstand tragen. Doch auch hinter ihnen verbergen sich letztlich stets nur Spielarten der drei Dimensionen Zeit , Länge und Masse . Grundlegende Zusammenhänge von Zeit, Länge und Masse Kräfte bewegen Materie durch Zeit und Raum Ende des 18. Jahrhunderts begannen die Naturforscher sich zunehmend auch für ihre drei Rechendimensionen selbst zu interessieren. Was waren Raum, Zeit und Materie eigentlich? Den Raum glaubte man dank Euklids Geometrie im Griff zu haben: Er wurde durch die Dimensionen Höhe, Breite und Tiefe bestimmt. Der rätselhafte Zeitbegriff war aus physikalischer Sicht lediglich etwas gleichförmig Dahinfließendes, das sich durch einen beliebigen regelmäßigen Vorgang, wie das Ticken einer Uhr messen ließ. Am schwersten zu fassen war die Materie. Sie barg nicht nur die Masse und deren Eigenschaften, Trägheit und Gravitation, sondern zeigte im Gegensatz zu Raum und Zeit unzählige Erscheinungsformen. Offenbar gab es verschiedene Sorten von Materiebausteinen. Wie man sich den Aufbau dieser elementaren Einheiten aber vorzustellen hatte, blieb rätselhaft. Ein erster Vorschlag kam von dem englischen Naturforscher John Dalton . 1803 stellte er in Manchester das erste moderne Atommodell auf, das sich als so erfolgreich erwies, dass es fast das ganze 19. Jahrhundert hindurch bestand haben sollte. Dabei hatte Dalton eigentlich nur eine Idee aus dem antiken Griechenland neu aufgegriffen: Der Philosoph Demokrit hatte bereits mehr als zweitausend Jahre zuvor erklärt, dass alle Materie aus winzigen Teilchen aufgebaut sei, die er Atome nannte. Ihnen lag die Überlegung zugrunde, dass wenn man ein Ding immer und immer wieder teilt, man zwangsläufig früher oder später an einen Punkt kommen müsse, ab dem eine weitere Teilung unmöglich sei. Dalton beschrieb diese kleinsten Teilchen als kugelförmig und unzerstörbar. Elemente waren Varianten dieser Atome, jedes von ihnen mit einer unterschiedlichen Masse behaftet; Atome, die zum gleichen Element gehörten, waren jeweils völlig identisch. Einige zentrale Eigenschaften jener grundlegenden Bausteine hatte Dalton damit bereits erstaunlich genau beschrieben. Wer mehr wissen will: Newton, Isaac (1686): „Philosophiae Naturalis Principia Mathematica“, University of Cambridge Digital Library. Bildnachweis: Mond: https://en.wikipedia.org/wiki/Moon#/media/File:FullMoon2010.jpg Ein kleiner Beweis, dass Newtons Mechanik (meistens) funktioniert












