top of page

Suchergebnisse

103 Ergebnisse gefunden mit einer leeren Suche

  • Das Ende eines Traums

    Die reinste aller Wissenschaften „Die Mathematik allein befriedigt den Geist durch ihre Gewissheit.“ Die Überzeugung, die in dem Zitat von Johannes Kepler  zum Ausdruck kommt, prägte das Selbstverständnis der Mathematiker seit der Antike . Keine andere Wissenschaft versprach Erkenntnisse von vergleichbarer Sicherheit. Als im 19. Jahrhundert die Entdeckung der nichteuklidischen Geometrie  diesen Glauben auf einmal ins Wanken brachte, gelang es rasch, für die neue Raumlehre eine eigene Axiomatik   aufzustellen und den festen Boden zurückzugewinnen. Davon inspiriert unternahm der deutsche Mathematiker David Hilbert  (1862-1943) in den 1920er Jahren den Versuch, die gesamte Mathematik auf die Basis vollständiger und widerspruchsfreier Axiome zu stellen und so Keplers „außerordentliche Gewissheit“ lückenlos logisch abzusichern. Hilberts Vision implizierte auch, dass es mit diesem Fundament grundsätzlich immer möglich sein musste, die Richtigkeit jedes mathematischen Theorems zu beweisen – wenn auch die Beweisführung im Einzelfall sehr schwierig sein kann.   Ambitionierter Formalisierer: David Hilbert Die Mechanik der Mathematik Hilberts Programm war mehr als ein technisches Projekt. Es war ein philosophisches Manifest, getragen von der Überzeugung, dass die Mathematik eine in sich geschlossene Welt absoluter Klarheit darstellen könne. In dieser Welt sollte jeder wahre Satz – zumindest prinzipiell – beweisbar sein, und jeder Beweis sollte sich auf endlich viele, mechanisch überprüfbare Schritte reduzieren lassen. Die Mathematik, so die Hoffnung, ließe sich gleichsam industrialisieren: Wahrheit als Ergebnis eines formalisierten Verfahrens. Diese Vision passte zum Zeitgeist einer Epoche, die an Fortschritt, Ordnung und Rationalisierung glaubte. Man darf nicht unterschätzen, wie revolutionär diese Idee war. Jahrtausendelang hatten Mathematiker Beweise als kreative geistige Akte verstanden. Hilbert hingegen dachte an eine Art universelle Beweis-Maschine – eine Vision, die nicht auf die Erfindung eines neuen formalen Systems zielte, denn solche Systeme waren längst etabliert. Seine kühne Hoffnung ging weiter: Die gesamte Mathematik sollte sich auf ein vollständig mechanisierbares Fundament zurückführen lassen.   Gödels Unvollständigkeitssätze: Das Ende eines Traumes: Die Ernüchterung folgte 1931: Der junge österreichische Mathematiker Kurt Gödel  (1906-1978) bewies, dass Hilberts Traum nie Realität werden kann. Die Mathematik kann niemals in einem einzigen, abgeschlossenen Regelwerk aufgehen. Er zeigte: Sobald ein System komplex genug ist, um die Welt der natürlichen Zahlen abzubilden, entstehen zwangsläufig Aussagen, die innerhalb dieses Systems weder bewiesen noch widerlegt werden können. Mehr noch: Gödel wies nach, dass ein solches System auch seine eigene Widerspruchsfreiheit nicht mit seinen eigenen Mitteln belegen kann. Wer beweisen will, dass die Regeln eines Systems nicht zu Widersprüchen führen, muss zwangsläufig auf ein noch stärkeres System zurückgreifen [i]   So wie ein Gehirn sich damit schwer tut, seine eigene Funktionsweise lückenlos zu begreifen, kann auch die Mathematik ihre eigene Fehlerfreiheit niemals allein mit ihren eigenen "Bordmitteln" belegen. Dies hat nichts mit dem Unvermögen der Akteure zu tun, es ist vielmehr grundsätzlich nicht möglich: Um ein System vollständig zu beschreiben, muss man es von außen betrachten können. Gödels Unvollständigkeitssätze stürzte die Mathematik in eine Identitätskrise, vergleichbar jener Verwirrung, die die Pythagoreer  bei der Entdeckung irrationaler Zahlen überkam. Seitdem müssen Mathematiker mit der Erkenntnis leben, dass ihre Denksprache – die vermeintlich reinste aller Wissenschaften – nicht gleichzeitig vollständig und widerspruchsfrei sein kann. Was Gödel gelang, war ein intellektueller Kunstgriff von verblüffender Eleganz. Vereinfacht gesprochen konstruierte er eine mathematische Aussage, die sinngemäß behauptet: „Dieser Satz ist nicht beweisbar.“ Ein logisches Spiegelkabinett. Wäre der Satz beweisbar, wäre er falsch. Wäre er nicht beweisbar, wäre er wahr. Damit zeigte Gödel, dass jedes hinreichend mächtige formale System zwangsläufig Aussagen enthält, die sich innerhalb seiner eigenen Regeln nicht einfangen lassen. Dies ist keine Schwäche einzelner Axiome, sondern eine strukturelle Eigenschaft der Mathematik selbst. Kurt Gödel als Student 1925 Die Tragweite dieser Erkenntnis reicht weit über die Mathematik hinaus. Sie berührt die Grundfrage, was Wissen überhaupt bedeutet. Wenn selbst die strengste aller Wissenschaften an prinzipielle Grenzen stößt, was heißt das für andere Disziplinen? Für die Philosophie , die Physik , die Informatik ? Gödel zerstörte nicht die Mathematik – er entzauberte eine bestimmte Vorstellung von Gewissheit. Gödels Arbeit fiel in eine Zeit tiefgreifender Umbrüche. Die klassische Physik wurde durch die Quantenmechanik erschüttert, Raum und Zeit durch Einsteins Theorie relativiert. In nahezu allen Bereichen der Wissenschaft bröckelte die Idee einer vollständig berechenbaren Welt. Gödel lieferte das mathematische Pendant zu dieser geistigen Zeitenwende.    Glaube und Wissen Dass die Mathematik letztlich auf unbeweisbaren Voraussetzungen, und somit gleichsam auf tönernen Füssen steht, liegt in der Natur der Axiome selbst. Sie sind Sätze, die wir an den Anfang stellen, ohne sie selbst zu beweisen – schlicht, weil jeder Beweis irgendwo beginnen muss. Davon ausgehend werden schrittweise höhere Wahrheiten konstruiert. Doch am Anfang des gesamten Systems steht eine Setzung, eine Art „Glaube“. Dieser „Glaube“ ist freilich kein blinder Akt, sondern eine methodische Entscheidung. Axiome sind bewusst gewählte Startpunkte. Sie definieren die Spielregeln einer abstrakten Welt. Unterschiedliche Axiomensysteme erzeugen unterschiedliche mathematische Universen – euklidische und nichteuklidische Geometrien sind nur das bekannteste Beispiel. Mathematik ist daher weniger eine Entdeckung absoluter Wahrheiten als die Exploration logisch konsistenter Möglichkeiten. Und gerade darin liegt ihre Stärke. Die Mathematik ist nicht deshalb erfolgreich, weil sie unerschütterlich ist, sondern weil sie flexibel bleibt. Sie kann ihre Grundlagen variieren, Strukturen vergleichen, Grenzen untersuchen. Gödels Resultat ist somit kein Scheitern, sondern eine präzise Kartierung dieser Grenzen.   Ein Akt der Befreiung Gödels Nachweis der Unvollständigkeit ist kein Grund zum Bedauern, sondern im Gegenteil: eine Befreiung. Er bewahrt uns vor der Vorstellung, die Mathematik sei ein abgeschlossenes, totes Archiv des Wissens. Stattdessen wissen wir nun, dass es hinter jedem Horizont neue, unentdeckte Wahrheiten geben kann. Die Zwangsjacke einer „fertigen“ Weltformel bleibt uns erspart. Diese Offenheit macht die Mathematik zum idealen Werkzeug für die Naturwissenschaften. Wo die menschliche Sprache  oft vage bleibt, erlaubt uns die Mathematik, die Welt mit höchster Präzision zu beschreiben – auch wenn sie uns keine letzte, absolute Gewissheit über das gesamte Fundament schenken kann. Diesen Vorteil spielt sie am eindrucksvollsten in jener Disziplin aus, die sich der Erforschung der Natur verschrieben hat: der Physik (vom griechischen physikḗ = Natur). Vielleicht ist genau dies die tiefere Einsicht der Unvollständigkeitssätze: Erkenntnis ist kein abgeschlossener Besitz, sondern ein offener Prozess. Jede Antwort erzeugt neue Fragen. Gewissheit existiert – aber niemals grenzenlos. Und gerade deshalb bleibt Wissenschaft lebendig. Die größte Entdeckung der Mathematik war keine neue Formel, sondern die Einsicht, dass Erkenntnis gerade an ihren Grenzen weiterwächst.   Mit diesem Beitrag endet die Artikelserie zum Themenbereich Mathematik Den Blog entdecken   Wer mehr wissen will: Beutelspacher, Albrecht (2010): „Kleines Mathematikum“, C.H. Beck. Hofstadter, Douglas (2018) „Gödel, Escher, Bach“, Klett-Cotta. Rauchhaupt, Ulf von (2006): „Der Herr Professor und die Wahrheit“ in: Frankfurter Allgemeine Zeitung Online vom 23.04.2006.  Fußnoten [i]  Vgl Rauchhaupt. [ii] Vgl. Beutelspacher S. 150-153.

  • Geschichte der Menschheit: "Eine Welt" 1945 bis heute

    Fortsetzung von: Geschichte der Menschheit: die Zeit der Ismen (Teil 2): 1900 bis 1945   Aufbruch nach der Katastrophe Am 26. Juni 1945 unterzeichnen 50 Staaten in San Franzisco die Charta der Vereinten Nationen . Der Nachfolger des gescheiterten Völkerbunds soll nun dauerhaft Weltfrieden und Freundschaft unter den Nationen sicherstellen. Nachdem die Industrieländer untereinander zwei globale Kriege ausgefochten haben, ist Europa verwüstet und die Welt im Umbruch. Das Zweckbündnis der westlichen Alliierten mit der Sowjetunion  überlebt das Kriegsende um keinen einzigen Tag. Nachdem Faschismus und Nationalsozialismus aus dem Rennen der Ideologien ausgeschieden sind, verläuft die Konfrontationslinie nun zwischen Liberalismus  und Kommunismus. Das durch zwei Weltkriege ruinierte Großbritannien muss die westliche Führungsrolle endgültig an die USA abgeben. Die demokratische Welt sieht sich nun einem durch die UdSSR kontrollierten Block osteuropäischer Staaten gegenüber; die Trennungslinie verläuft mitten durch Deutschland. Mahatma Gandhi führte Indien in die Freiheit 1947 erringt Indien  unter seinen Führern Mahatma Gandhi  (1869-1948) und Jawaharlal Nehru  (1889-1964), nach jahrzehntelangem gewaltfreiem Widerstand gegen die Kolonialherren, die Unabhängigkeit von Großbritannien. Die dabei aufbrechenden religiösen Konflikte führen zu einer Abspaltung der mehrheitlich muslimischen Landesteile, aus denen der neue Staat Pakistan entsteht. Die Folgen sind auf beiden Seiten massenhafte Vertreibungen religiöser Minderheiten, die hunderttausende Opfer fordern. Beide Länder werden Demokratien  – im Falle Pakistans wird sie sich allerdings als relativ labil erweisen.   1949 Das Jahr 1949 ist ausgesprochen ereignisreich: im Mai wird auf dem Gebiet der westlichen Besatzungszonen die Bundesrepublik Deutschland gegründet; im August beginnt eine fast einjährige Blockade Berlins durch die Sowjetunion; noch im gleichen Monat tritt der Nordatlantikvertrag  in Kraft, mit dem die westlichen Siegermächte der östlichen Aggression begegnen wollen; wenige Tage später explodiert die erste sowjetische Atombombe ; im Oktober entsteht aus der östlichen Besatzungszone die Deutsche Demokratische Republik; in China  unterliegt die Kuomintang-Partei unter Tschiang Kai-scheck  nach 22-jährigem, fast ununterbrochenem Bürgerkrieg, der Kommunistischen Partei unter Mao Zedong  (1893-1976). Am 1. Oktober wird eine Volksrepublik ausgerufen; die Kuomintang-Anhänger fliehen auf die Insel Taiwan . Mao Zedong 1950   Beginn der Eiszeit Sechs Jahre später wird die Bundesrepublik Deutschland in die westliche Militärallianz aufgenommen; die UdSSR reagiert mit der Gründung des Warschauer Pakts . Damit wird Tocquevilles  Prophezeiung einer bipolaren Weltordnung Wirklichkeit, für den die Vereinigten Staaten und Russland „durch den Willen Gottes auserwählt schienen, [jeweils] die Geschicke der halben Welt zu lenken“. [i]  Die neue Weltordnung basiert auf einem „Gleichgewicht des Schreckens“. Aus Angst vor dem jeweiligen ideologischen Gegner beginnen beide Seiten einen in der Geschichte beispiellosen Rüstungswettlauf.   Das Afrikanische Jahr Fast alle afrikanischen und viele asiatische Länder sind zu diesem Zeitpunkt noch immer europäische Kolonien . Doch nun beginnen sie den Vorbildern Indien und China nachzueifern. Die langen, blutigen Kriege die Frankreich  zwischen 1946 und 1962 in Indochina und Nordafrika führt, können die Unabhängigkeit Vietnams, Kambodschas und Algeriens nicht verhindern. In den meisten Fällen verläuft der Übergang jedoch friedlich, wie 1960, dem „Afrikanischen Jahr“, in dem vierzehn französische, zwei britische, eine belgische und eine italienische Kolonie ihre Unabhängigkeit erlangen. Mit der Dekolonialisierung  verlieren Großbritannien  und Frankreich, die zwei Jahrhunderte lang um die Rolle des mächtigsten Landes der Erde gestritten haben, weiter an Bedeutung.   Stellvertreterkriege Dafür umwirbt nun der Ostblock die " Dritte Welt " . Eine sozialistische Gesellschaftsordnung erscheint vielen der jungen unabhängigen Staaten Afrikas  und Asiens , aber auch einigen lateinamerikanischen Republiken, als bessere Alternative zu dem liberal-demokratischen Modell der wenig populären ehemaligen Kolonialherren. Mit sowjetischer und chinesischer Hilfe etablieren sich kommunistische Regimes in Nordkorea, Nordvietnam und Kuba; die Sowjetunion entwickelt zudem großen Einfluss auf zahlreiche afrikanische und arabische Länder. Das geopolitische Machtspiel um den Globalen Süden  führt zu einer Reihe von Stellvertreterkriegen, die die Erste mit der Zweiten Welt in Ländern wie Korea (1950-1953), Vietnam (1964-1975) und Afghanistan (1979-1989) austrägt. Der Globale Süden - Stand 2023   Ein folgenreiches Zerwürfnis In den 1950er Jahren beginnt China, unterstützt von sowjetischen Beratern, nach stalinistischem Vorbild eine Schwerindustrie aufzubauen. Während der Leninismus Marx‘ Theorie nur dahingehend modifiziert, dass eine sozialistische Revolution nicht erst das Stadium des Kapitalismus   hinter sich lassen muss, sondern auch direkt von einen Feudalstaat ausgehen kann, geht Mao noch weiter: Er hält einen direkten Übergang vom Feudalismus  in die klassenlose Gesellschaft für möglich; das Stadium der Diktatur des Proletariats  kann somit übersprungen werden. Als der neue Parteichef der KPdSU, Nikita Chruschtschow , nach Stalins Tod 1953 eine Abkehr vom bisherigen dogmatischen Kurs verkündet, kommt es Ende des Jahrzehnts zum russisch-chinesischen Zerwürfnis: Mao will nicht von den stalinistischen Glaubenssätzen abrücken. Der 1958 vom Vorsitzenden verkündete „ Große Sprung nach vorn “, endet – ebenso wie 30 Jahre zuvor in der Sowjetunion – in einer Katastrophe. Binnen zweier Jahre bricht die Getreideproduktion um fast ein Drittel ein. Die überstürzte Umstellung auf eine Industriegesellschaft fordert vermutlich zwischen 15 und 55 Millionen Hungertote. Das Hauptquartier der Uno Der Kalte Krieg eskaliert Der Wettbewerb der Systeme wird nicht nur in den Entwicklungsländern ausgetragen. Als die Sowjetunion 1957 als erstes Land der Welt einen Satelliten ins All befördert und mit Juri Gagarin nur vier Jahre später auch den ersten Menschen, löst dies in der westlichen Welt den Sputnikschock  aus. Die Vorstellung einer quasi automatischen technologischen Überlegenheit des Westens hat sich als Illusion erwiesen. Der Schock führt dazu, dass die USA ihre Bildungspolitik nun verstärkt nach mathematisch-naturwissenschaftlichen Kriterien ausrichten und in den Wettlauf ins All einsteigen. Präsident Kennedy macht die Mondlandung zu einer nationalen Priorität – mit Erfolg: Am 20. Juli 1969 betritt Neil Armstrong als erster Mensch den Mond. Während der 1960er Jahre verschärft sich der Ost-West-Konflikt zusehends: Der Bau der Berliner Mauer  1961 stoppt die massive Abwanderung von DDR-Bürgern in den Westen; der Versuch der Sowjetunion, auf Kuba Kernwaffen zu stationieren, bringt die Welt ein Jahr später an den Rand eines Atomkriegs ; 1968 ersticken Truppen des Warschauer Pakts Reformversuche der tschechoslowakischen Regierung. BRD und DDR gehen getrennte Wege Anfang der 1970er Jahre kommt es zu einer kurzen Entspannungsphase, während der die Organisation für Sicherheit und Zusammenarbeit in Europa (KSZE) ins Leben gerufen wird. Doch als bald darauf die Sowjetunion den massiven Ausbau ihres Atomarsenals einleitet, reagiert die NATO 1979 auf Initiative des deutschen Bundeskanzlers Helmut Schmidt mit einem Doppelbeschluss: Es werden – Tit for Tat  – Verhandlungen über die Begrenzung atomarer Kurz- und Mittelstreckenraketen angeboten, kombiniert mit der Drohung, im Falle einer Ablehnung neue Atomsprengköpfe in Westeuropa zu stationieren. Die angespannte Ost-West-Lage ist nicht der einzige Konflikt, der die Welt Ende der 1970er Jahre in Atem hält. In den angelsächsischen Ländern kommt es zu einer Renaissance des ökonomischen Liberalismus , die bald auch auf die anderen westlichen Staaten auszustrahlen beginnt. Handelsbeschränkungen werden abgebaut und der Einfluss des fürsorglichen Sozialstaats wird, begleitet von großen gesellschaftlichen Spannungen, teils massiv zurückgedrängt.   Der Aufstieg des Islamismus Auch die islamische Welt erweist sich zunehmend als Unruheherd. Mit dem Wechsel vom Kohle- zum Erdölzeitalter in der ersten Hälfte des Jahrhunderts haben arabische Länder mit großen Ölvorkommen an geopolitischer Bedeutung gewonnen. Der seit Gründung des Staates Israel 1948 ungelöste Konflikt zwischen Juden und Palästinensern veranlasst die islamischen Förderländer nach dem verlorenen Jom-Kippur-Krieg  1973 ihre Quoten zu drosseln; die Folge ist die Ölkrise, eine schwere Rezession  in den westlichen Industriestaaten. Aber auch innerhalb der arabischen Welt gibt es zahlreiche Spannungen. Sie sind einerseits durch die von den europäischen Kolonialmächten willkürlich gezogenen Staatsgrenzen bedingt, andererseits durch religiöse Konflikte zwischen den verschiedenen islamischen Glaubensrichtungen. In vielen Ländern entsteht in den 1970er Jahren zudem ein religiöser Fundamentalismus . 1979 vertreiben die Anhänger des konservativen Geistlichen Ajatollah Chomeini den letzten Schah von Persien. Im selben Jahr fallen sowjetische Soldaten in Afghanistan ein. Sie sollen das lokale säkulare Regime stützen und den wachsenden islamistischen Einfluss auf die südlichen, mehrheitlich muslimisch geprägten Sowjetrepubliken eindämmen. Der Erfolg bleibt aus: Zehn Jahre später muss die geschlagene Supermacht das Land wieder räumen. [ii]   Die Sowjetunion implodiert Die Sowjetunion ist nicht nur in Afghanistan in der Defensive. In den 1980er Jahren tritt der Kalte Krieg in seine letzte Phase, in der sich die Zweite Welt als am Ende ökonomisch und technologisch unterlegen erweist. Das kostspielige Rüstungsprogramm, der teure Krieg am Hindukusch, die Defizite der Planwirtschaft, die sich auch durch die aufkommende Computertechnologie nicht in den Griff bekommen lassen, und nicht zuletzt die permanente Unterdrückung der eigenen Bevölkerung führen zum Zusammenbruch des politischen Systems. Die Streiks auf der Danziger Lenin-Werft 1980 sind die ersten sichtbaren Anzeichen einer breiten gesellschaftlichen Veränderung. Der Glaube an die Versprechen des Sozialismus schwindet; die Menschen fordern nicht nur mehr Wohlstand, sondern zunehmend auch Freiheitsrechte. George Bush und Boris Jelzin in Moskau 1993 Die Reformen, die der neue Generalsekretär der KPdSU Michail Gorbatschow  ab 1985 anstößt, entwickeln eine Eigendynamik, die 1989 zu einem raschen Ende der alten dualen Weltordnung führt. Friedliche Massenproteste in der DDR erzwingen die Öffnung der Berliner Mauer und lösen in den anderen Ostblockstaaten einen Dominoeffekt aus. Der Zusammenbruch der kommunistischen Regime verläuft, mit Ausnahme Rumäniens, insgesamt friedlich. In der Charta von Paris  legen im November 1990 alle KSZE-Staaten ein Bekenntnis zu Demokratie und Achtung der Menschenrechte ab. Ein Jahr später zerfällt die Sowjetunion in 15 neue Staaten mit dem einstigen Hegemon Russland als Rechtsnachfolger. Das Ende der Geschichte? Nachdem Faschismus und Nationalsozialismus in einem heißen Krieg unterlagen, hat ein kalter Krieg nun auch das Schicksal des Sozialismus besiegelt. Die Antithese , dass eine zentrale Instanz Verteilungsfragen besser regeln kann als Individualismus und freie Preisbildung, hat sich in der Praxis nicht bewährt. Über 40 Jahre lang war die Welt über die Frage entzweit, wie ökonomische Werte erzeugt und verteilt werden sollen. Nun hat sich der Liberalismus, gepaart mit einer Demokratie westlicher Prägung, im evolutionären Wettbewerb der Systeme durchgesetzt. Dies ist zumindest die Auffassung des amerikanischen Politikwissenschaftlers Francis Fukuyama,  der Anfang der 1990er Jahre die Welt mit seiner These vom „ Ende der Geschichte “ provoziert. Fukuyama ist überzeugt, dass mit dem Scheitern der letzten Utopie , der von Hegel vorgezeichnete historische Weg zur Freiheit nun zu Ende sei. Die westliche kapitalistisch-liberaldemokratische Gesellschaft stellt die endgültige Form menschlichen Zusammenlebens dar. Auch wenn Rückschläge und Fehlentwicklungen wahrscheinlich sind, werden, so Fukuyamas Prognose, über kurz oder lang alle Staaten diesem Modell folgen. Für den amerikanischen Politologen beruht die Überlegenheit des westlichen Gesellschaftsmodells auf zwei Dingen: naturwissenschaftlichem Denken und Individualismus. Das Erste zieht unweigerlich technologischen Fortschritt nach sich, das Zweite eine liberale Demokratie. Denn Individualismus fördert nicht nur Kreativität und Innovation  – mit denen sich die standardisierte Welt sozialistischer Systeme eher schwertut – sondern kommt auch dem universellen Bedürfnis nach Anerkennung entgegen, der eigentlichen Antriebskraft menschlichen Strebens und damit der Geschichte. Nur demokratische Verfassungen sind in der Lage, den Schutz individueller Freiheits- und Persönlichkeitsrechte wirksam zu garantieren, so dass es über kurz oder lang überall zu einer politischen Liberalisierung kommen muss. Für Fukuyama sind die Herausforderungen der Zukunft daher nicht kommende Systemkämpfe, sondern vielmehr der Aufbau transnationaler Ordnungen – das große Ziel etwa der Europäischen Union – sowie die Beherrschung neuer Technologien.   Die Entstehung unserer multipolaren Welt Tatsächlich aber erstarrt der weltweite Demokratisierungsschub der frühen 1990er Jahre schon bald. In Russland und den meisten anderen ehemaligen Sowjetrepubliken etablieren sich in der turbulenten Umbruchszeit Strukturen, die eine echte Liberalisierung von Wirtschaft und Gesellschaft bis heute verhindern. Einmal mehr erweist sich Korruption als Hintertür zur Macht: Das Staatsvermögen der ehemaligen UdSSR wird von kommunistischen Funktionären geplündert, teils unter tatkräftiger Mithilfe des KGB. Eine kleine russische Oligarchen -Elite verschafft sich Zugriff auf die reichlich vorhandenen Schlüsselressourcen Gas und Öl. [iii]  In den folgenden Jahren entsteht eine „gelenkte Demokratie“, die westlichen Maßstäben nicht gerecht wird und die in den 2010er Jahren unter Wladimir Putin in eine Autokratie  übergeht und seit Beginn der 2020er Jahre erneut in eine Diktatur  abgleitet. Spätestens mit dem Überfall auf die Ukraine im Februar 2022 wird deutlich, dass Russland weiterhin nationalistisch-autoritären und revanchistischen Denkmustern verhaftet bleibt und sich als „Drittes Rom“, als europäische Führungsnation im Abwehrkampf gegen westliche Dominanz und Dekadenz wähnt. Krieg bleibt für das größte Land der Erde weiterhin ein legitimes Mittel, um politische Interessen durchzusetzen. In China leitet Deng Xiaoping  nach Maos Tod 1976 weitreichende wirtschaftliche Reformen ein, die innerhalb von zwei Jahrzehnten eine Milliarde Menschen aus bitterster Armut befreien. Wie in Russland entstehen durch die Liberalisierung des Wirtschaftssystems auch in der chinesischen Bevölkerung rasch gewaltige Vermögensunterschiede. In den ersten beiden Jahrzehnten des 21. Jahrhunderts steigt China, nach jahrhundertelangem Dornröschenschlaf, mit fulminanten Wachstumsraten und seiner Bevölkerung von rund 1,4 Milliarden Menschen zur Weltmacht und einzig ernsthaftem Rivalen der USA auf. Doch auch mit dem zweitgrößten BIP der Welt folgt in China dem wirtschaftlichen Wandel nicht die von Fukuyama prognostizierte gesellschaftliche Öffnung. Die vor allem von Studenten getragenen Freiheitsbestrebungen kommen im Juni 1989 auf dem Platz des Himmlischen Friedens zu keinem friedlichen Ende. Seitdem scheint sich die neue, wohlhabende chinesische Mittelschicht mit den Machtverhältnissen weitgehend arrangiert zu haben. Schlüsselindustrien und Massenmedien bleiben unter staatlicher Kontrolle.   The Clash of Civilizations Auch die Siegermacht des Kalten Krieges spürt von einem Ende der Geschichte wenig. Wie die Sowjetunion 20 Jahre zuvor, scheitern die USA mit dem Versuch, nach den Anschlägen auf das World Trade Center vom September 2001, den radikalen Islam mit militärischen Mitteln kontrollieren zu wollen. So sehen denn auch Politologen, wie der Amerikaner Samuel Huntington , statt historischem Stillstand vielmehr einen heraufziehenden „ Kampf der Kulturen “, in dessen Mittelpunkt die westliche, die chinesische und die islamische Zivilisation stehen – ein ausdrücklicher Gegenentwurf zu Fukuyamas These. In Westeuropa, Wiege der modernen Welt, erstarken wieder die politischen Ränder; die ehemaligen Volksparteien , während des Kalten Krieges Bastionen der Stabilität, zerfallen oder zeigen starke Abnutzungserscheinungen. Die Europäische Union, vor 30 Jahren noch ein richtungsweisendes Projekt, steckt nach Euro-Schuldenkrise , dem Austritt Großbritanniens und vielfachem grundlegendem Dissens zwischen den ost- und westeuropäischen Partnern in einer Krise. Huntingtons Kulturräume   Ein neues Spiel der Kräfte Die Erdbevölkerung hat sich seit dem Zweiten Weltkrieg  von 2,5 auf rund 8,2 Milliarden Menschen Ende 2025 mehr als verdreifacht. Für das Jahr 2050 werden 9,5 Milliarden, für das Jahr 2100 knapp 11 Milliarden Menschen erwartet. Dabei zehrt die Ausbreitung unserer Art schon heute an den Möglichkeiten unseres kleinen Planeten. Zudem haben sich die letzten drei Jahrzehnte in der Rückschau global als um Einiges instabiler erwiesen, als die vorangegangenen vier Dekaden des Kalten Krieges. Neben Liberalismus und Demokratie sind nach wie vor weitere Kräfte im Spiel – darunter viele, bereits von Platon und Aristoteles beschriebene alte Bekannte . In der gerade entstehenden multipolaren Welt deutet augenblicklich nichts auf ein baldiges Ende der Geschichte hin.   Mit diesem Beitrag endet die Artikelserie zu „Geschichte der Menschheit“.   Den Blog entdecken   Wer mehr wissen will: Huntington, Samuel (2002): „Kampf der Kulturen: Die Neugestaltung der Weltpolitik im 21. Jahrhundert“, Goldmann. Fukuyama, Francis (1992): „Das Ende der Geschichte“, Kindler. Shapiro, Ian (2019): „Power and Politics in Today’s World”, Vorlesung Yale University. Collins, Larry / Lapierre Dominique (1996): "Um Mitternacht die Freiheit"  Kennedy, Paul (2000): „Aufstieg und Fall der großen Mächte“, Fischer. Charta der Vereinten Nationen Bildnachweise: UNO Hauptquartier in New York Huntingtons Einteilung der Kulturräume Fußnoten [i]  Zitiert nach Kennedy (1996) S.161. [ii] Seine Erfolge bei der Abwehr mächtiger ausländischer Invasoren, haben Afghanistan den Ruf als „Grab der Imperien“ eingebracht. Nach Alexander dem Großen scheiterten Briten, Sowjets und Amerikaner mit dem Versuch, das Land unter ihre Kontrolle zu bringen. [iii]  Vgl. Shapiro (2019) 2. Vorlesung.

  • Aristoteles: Ein Universalgenie in fünf Minuten

    Fortsetzung von „Platon: Philosophie als Befreiung“   Schüler und Lehrer Aristoteles   war ein Schüler Platons . 384 v. Chr. in der nordgriechischen Stadt Stagira geboren, trat er mit siebzehn oder achtzehn Jahren in Platons Akademie  ein, um sie erst 20 Jahre später, nach dem Tod seines Lehrmeisters um 348 v. Chr. wieder zu verlassen. Nach einer kurzen Episode als Lehrer des jungen makedonischen Thronfolgers Alexander , der später „der Große “ genannt werden würde, verbrachte er die folgenden Jahre an verschiedenen Orten Griechenlands mit ausgiebigen Naturstudien. Nach seinen Reisejahren kehrte Aristoteles um 335 v. Chr. nach Athen zurück. Hier gründete er im Hain des Lykeios seine eigene Schule, das Lyzeum . In den folgenden zwölf Jahren entstanden dort wahrscheinlich die meisten der von ihm überlieferten Werke, darunter auch viele der uns heute bekannten Zusammenfassungen vorsokratischer Lehren . Der größte Teil seines Werkes gilt jedoch als verloren. Das Erhaltene ist immerhin noch eindrucksvoll genug, um Aristoteles‘ Platz im Olymp der Philosophie   zu sichern. Aristoteles: einer der ganz Großen   Aristoteles und das „Sein“ Aristoteles war das vielleicht erste uns bekannte Universalgenie . Er interessierte sich sprichwörtlich für alles und prägte so unterschiedliche Bereiche wie Philosophie, Theologie, Sprache , Astronomie, Geschichte , Politik   , Ökonomie und Theater. Und anders als sein Meister beschäftigte er sich auch intensiv mit der Natur . Die Ideenlehre , den zentralen Gedanken seines Lehrers, lehnte er entschieden ab. Er sah in ihr nur „leere Worte und poetische Metaphern“. Aristoteles wollte den Dingen mit einem ganz anderen Ansatz auf den Grund gehen. Nicht im Jenseits, sondern im Hier und Jetzt sollen wir die Wahrheit suchen. Wir müssen sehr genau hinschauen und das, was sich uns offenbart, so getreu und umfassend wie möglich beschreiben. Die Welt wird nicht durch abstrakte Prinzipien bestimmt, sondern durch die unzähligen Einzeldinge um uns herum. Um in diesem Tohuwabohu Klarheit zu schaffen, müssen wir die Welt ordnen, sie kategorisieren und katalogisieren. Aristoteles widmet sich dieser Ordnung ausführlich in seiner Metaphysik . Systematisch legt er darin zehn Kategorien fest, die nötig sind, um das Seiende zu bestimmen: Das Ding als solches; seine Größe oder Menge; seine Beschaffenheit; das, worauf es sich bezieht; der Ort, an dem es sich befindet; die Zeit, zu der es ist; seine Lage oder Position; das, was es hat; das, was es tut; das, was es erleidet. Bukephalos: ein Pferd mit vielen Eigenschaften Die Kategorien zwei bis zehn sind Akzidenzien , das heißt Eigenschaften des betrachteten Dings. Keine dieser Eigenschaften kann allein existieren und allesamt sind sie veränderlich. Die erste Kategorie hingegen, die Substanz , das „Ding an sich“, kann ihr Wesen nicht abschütteln oder verwandeln. Aristoteles unterzieht diese erste Kategorie einer eingehenden Betrachtung, bei der er verschiedene substantielle Ebenen unterscheidet. Die erste Substanz sind die konkreten, individuellen Erscheinungen eines Dings. Aristoteles nennt als Beispiele Sokrates   und Bukephalos , das Pferd Alexanders des Großen . Die zweite Substanz ergibt sich aus den unveränderlichen Attributen der Ersten Substanz: Sokrates ist zweibeinig und vernunftbegabt; Bukephalos ist ein vierbeiniger Einhufer, der wiehert. Damit gehört Sokrates zu der Art „Mensch“ und Bukephalos zu der Art „Pferd“. Mensch und Pferd sind die Ebene der zweiten Substanz. Sie lassen sich wiederum zu einer noch allgemeineren dritten Substanz „Lebewesen“ zusammenfassen. Mit jedem Abstraktionsschritt entfernen wir uns von den konkreten Eigenschaften. So entstehen Hierarchien, mit denen sich die Dinge der Welt ordnen und beschreiben lassen. Anders als Platon konstruiert Aristoteles seine Ontologie  also von unten nach oben – eine eindeutige Stellungnahme gegen die Ideenlehre seines Meisters.   Ein Meister der Logik Doch wie lässt sich nun mit diesem System Wissen gewinnen? Wenn Sokrates ein Mensch ist und alle Menschen sterblich sind, folgt daraus, dass Sokrates sterblich ist. Der Syllogismus , auch als Deduktion  bezeichnet, ist die Methode, die formal vom Allgemeinen auf das Besondere schließt. [i]  Das Besondere, also dass auch Sokrates sterben muss, muss daher nicht noch einmal überprüft werden. Woher aber wissen wir, dass alle Menschen sterblich sind? Dies ergibt sich aus unserer Beobachtung: Wenn wir sehen, dass alle Menschen, die wir kennen, früher oder später das Zeitliche segnet, können wir daraus schließen, dass dies grundsätzlich für alle Menschen gilt. Diese Methode ist die Induktion , der Schluss vom Besonderen auf das Allgemeine. Mit seinen Kategorien und den Regeln des systematischen Schlussfolgerns legte Aristoteles nicht weniger als die Grundlagen des empirisch-wissenschaftlichen Arbeitens und der Logik . Jahrelang sammelte und klassifizierte er Pflanzen und Tiere und schrieb die ersten uns bekannten Lehrbücher der Biologie. Darin ordnet er alle lebenden und toten Dinge nach den Kriterien „Blut oder kein Blut“, „Anzahl Beine“, „warm oder kalt“ „feucht oder trocken“ sowie „Komplexität der Seele“ (die im Gegensatz zu Platons Vorstellung sterblich ist). So ist der Mensch ein Lebewesen mit Blut, zwei Beinen, warm und feucht und einer Seele, die zusätzlich zu vegetativen und sensitiven Eigenschaften auch über einen Verstand verfügt. Eine Schlange hat Blut, keine Beine, ist kalt und feucht und ihre Seele ist lediglich mit vegetativen und sensitiven Teilen versehen. Eine Pflanze hat weder Blut noch Beine, ist kalt und trocken und nur mit einer rein vegetativen Seele ausgestattet. Mineralien verfügen über die gleichen Eigenschaften wie die Pflanzen, nur, dass sie keine Seele besitzen. Wie zuvor schon Anaximander  vermutete auch Aristoteles aufgrund der bei seinen Naturstudien entdeckten anatomischen Analogien einen Entwicklungsprozess als Ursprung der Artenvielfalt . Aristoteles setzte auch Maßstäbe bei der Naturbeobachtung Aristoteles metaphysische Schriften wurden erst nach seinem Tod zu verschiedenen Büchern zusammengestellt und durchnummeriert. Im ersten Buch zur Metaphysik geht Aristoteles dem Wesen des „Seienden“ nach, also der Frage, warum etwas „ist“ und warum es „so ist, wie es ist“. Für das, was existiert, gibt es vier Ursachen: Stoff, Form, Wirkung und Zweck. Das Holz, aus dem ein Tisch besteht, ist dessen stoffliche Kausalität. Seine konkrete Gestaltung ist die Formursache. Die Wirkungsursache ist der Schreiner, der ihn erschuf und der Zweck, ist der Grund, warum er geschaffen wurde – etwa um als Esstisch zu dienen. Aus dem Zusammenspiel dieser vier Ursachen ergibt sich das Seiende und die Veränderungen, die wir an ihm beobachten können.   Begnadeter Systematiker und Religionsphilosoph Im sechsten Buch der Metaphysik stellt Aristoteles seine Einteilung der Wissenschaften vor. Dabei macht er drei grundlegende Unterscheidungen: Die theoretischen Disziplinen Metaphysik, Naturwissenschaften, Theologie und Mathematik bezeichnet er als die „kosmischen Angelegenheiten“. Sie betrachten ewige Wahrheiten und verfolgen keinen unmittelbaren Nutzen. Die praktischen Wissenschaften, die „menschlichen Angelegenheiten“, umfassen Ethik, Rhetorik und Politik. Sie sollen uns zu gutem, tugendsamem Handeln anleiten. Die „herstellenden Wissenschaften“ schließlich – zu ihnen zählen Handwerk, Medizin und Poetik – beschäftigen sich mit allem, das Nützliches hervorbringt. Im zwölften Band beschreibt der Philosoph sein religiöses Weltbild. Der Ursprung alles Seienden ist nicht Platons  Demiurg , sondern ein „ unbewegter Erstbeweger “. Jede Bewegung, die wir beobachten können, hat eine andere Bewegung zur Ursache. Doch die Kausalkette aus Ursachen und Wirkungen muss irgendwo und irgendwann ihren Anfang genommen haben. Dieser Anfang ist der Erstbeweger, ein reines, körperloses Wesen, das über allen Dingen schwebt. Trotz unterschiedlicher Argumentationen legen Platon und Aristoteles hier gemeinsam die Grundlage, um den Monotheismus als logisch-metaphysisches Konzept zu begründen.   Ethik Auch mit Fragen der Moral  setzt sich Aristoteles auseinander. Sein bekanntestes Werk hierzu ist die Nikomachische Ethik (Es ist nicht klar, ob Aristoteles diese Ethik seinem Vater oder seinem Sohn gewidmet hat – beide hießen Nikomachos.) Wie bei Platon ist auch bei Aristoteles Ziel allen Philosophierens „ Eudaimonia “, das Glück, das sich einstellt, wenn man ein gutes, sittliches Leben führt. Die hierfür nötigen Tugenden müssen allerdings erst entwickelt werden. Aristoteles‘  Tugendethik  bedeutet in erste Linie, Affekte zu beherrschen, Extreme zu vermeiden und so das richtige Maß, die goldene Mitte zu finden. Die extremen Ränder der Tapferkeit etwa, sind Tollkühnheit und Feigheit. Ein Soldat, der blind sein Leben aufs Spiel setzt, weil er keine Angst spürt, handelt nicht tapfer, sondern verantwortungslos. Wirklich tugendhaft ist derjenige, der sich bewusst entscheidet und seine Feigheit überwindet. Anders als für Platon gibt es für Aristoteles keine absolut verbindlichen ethischen Normen oder Regeln. Was gut, was schlecht ist, hängt von den konkreten Umständen eines jeden Einzelfalls ab.            Raffael: Die Schule von Athen (Ausschnitt). In der Mitte Platon und Aristoteles   Der Meister und sein Meisterschüler Mit Platon und Aristoteles erreicht die antike Philosophie ihren Höhepunkt. Der Meister und sein Meisterschüler haben das Feld nach seiner Länge und Breite abgesteckt und versucht, alle großen Fragen zu Gott und der Welt zu beantworten. Dabei sind zwei grundlegend verschiedene Sichtweisen deutlich geworden: Man kann entweder versuchen, die Wahrheit idealistisch rein mit Hilfe des Verstandes zu ergründen oder aber seiner konkreten sinnlichen Wahrnehmung vertrauen. Versinnbildlicht hat dies der Maler Raffael in seinem Anfang des 16. Jahrhunderts entstandenen Gemälde „ Die Schule von Athen “. Alle Weisen Griechenlands sind hier versammelt. In der Mitte Platon, dessen rechte Hand nach oben weist und uns daran erinnern möchte, dass die wahren Ideale nicht von dieser Welt sind (nach Ansicht einiger Kunsthistoriker trägt Platon die Gesichtszüge Leonardo da Vincis.) Neben ihm, auf Augenhöhe, steht Aristoteles, mit seiner Rechten die Höhenflüge seines Lehrers in Richtung Erde dämpfend. Dies ist das Spannungsfeld, in dem sich die Philosophie von nun an bewegen wird.   Die antike Philosophie nach Platon und Aristoteles: Glück, Zynismus und Gelassenheit Platon und Aristoteles waren Höhepunkt aber nicht Ende der antiken Philosophie. In den folgenden, von Instabilität gekennzeichneten Jahrzehnten entstanden zwei weitere bedeutsame Schulen, die ganz neue Akzente setzten. Ihr Ziel war es nicht, das Wissen über die Welt zu mehren, sondern vor allem, ob der unsicheren Verhältnisse, eine richtige und pragmatische Lebenseinstellung zu finden. Die Epikureer , nach ihrem Begründer Epikur benannt, betonen das natürliche Bedürfnis aller Menschen, Eudaimonia zu suchen. Es gilt, einerseits das kindliche Lust- und Glücksempfinden zu bewahren und andererseits mit zunehmender Reife Weisheit in den Lebensentwurf einzubauen – eine Lebenseinstellung, die erarbeitet werden will. Insbesondere müssen wir lernen, ungute Gefühle wie Angst, Schmerzen und Begierden aus unseren Leben zu verbannen. Die Menschen brauchen dabei die Götter nicht zu fürchten, denn sie interessieren sich nicht für menschliche Schicksale und auch der Tod sollte uns nicht schrecken, bedeutet er doch Erlösung von allem Schmerz und Leid. Diogenes ließ sich noch nicht einmal vom Großen Alexander beeindrucken Die Kyniker , von denen sich das Wort Zynismus ableitet, suchten das Glück im Streben nach Bedürfnislosigkeit. Ihr bekanntester Vertreter ist Diogenes von Sinope , ein Zeitgenosse Platons. Die wie Bettelmönche in selbstgewählter Armut lebenden Aussteiger-Philosophen, die gerne über ihre Mitmenschen spotteten, waren eine kurze Erscheinung, doch sie beeinflussten die Entstehung einer anderen Denkschule, dem von Zenon von Kition  begründeten Stoizismus . Ihre Adepten lehrten die Freiheit von materiellen Zwängen und sahen den Schlüssel zum Glück in hart erarbeiteter Askese und Selbstkontrolle. In der stoischen Weltordnung hat alles im Kosmos seinen festen Platz. Unglück entsteht nur, wenn wir gegen diese universelle Ordnung verstoßen. Lebensziel der Stoiker ist es daher, seinen vorbestimmten Platz im Universum zu finden und zu akzeptieren. Zenon von Kition - Gründungvater des Stoizismus Im zweiten vorchristlichen Jahrhundert geriet Griechenland zunehmend unter den Einfluss des expandierenden Römischen Reiches . Die Römer, als ausgesprochene Pragmatiker, zeigten sich vor allem an den praktischen Aspekten der griechischen Philosophie interessiert. Insbesondere der Stoizismus erschien ihnen als attraktive Lebenshaltung und fand weite Verbreitung unter den Eliten. Marcus Tullius   Cicero  war einer der Ersten, der philosophische Texte auf Latein verfasste, eine lateinische Fachterminologie prägte und damit die Philosophie im Römischen Reich weiter popularisierte. Der um die Zeitenwende geborene römische Philosoph Seneca , einer der meistgelesenen Autoren seiner Zeit, erhob als überzeugter Stoiker inneren Frieden, Gelassenheit und Vernunft zum wichtigsten Lebensziel. Mit Marc Aurel  schuf rund 100 Jahre später sogar ein Kaiser mit seinen auf Griechisch verfassten „Selbstbetrachtungen“ den letzten bedeutsamen Beitrag zur stoizistischen Literatur. In ihnen legt er dar, wie der „ Logos “ als großer Weltenplan die Dinge ordnet und dem die Menschen am besten dienen, indem sie ihre Emotionen kontrollieren und sich rational verhalten.   Den Blog entdecken   Wer mehr wissen will: Aristoteles (1975): „Die Nikomachische Ethik“, Dtv. Aristoteles (1995): „Metaphysik“, Meiner. Marc Aurel (2020): „Selbstbetrachtungen“, Finanzbuch Verlag.    Bildnachweis: Zenon von Kition   Fußnoten: [i] Genau genommen beschreibt Syllogismus bei Aristoteles nur eine spezielle Form des deduktiven Schließens, die mit nur zwei Prämissen, einer Konklusion und drei Begriffen arbeitet.

  • Was ist Philosophie?

    Eine unerwartete Begegnung Letzten Sommer habe ich mit zwei Freunden ein paar Tage in Sachsen-Anhalt und Sachsen verbracht. Für die Rückfahrt haben wir uns entschlossen, von Leipzig aus nicht direkt die Autobahn zu nehmen, sondern erst einmal ein Stück über die Landstraße zu fahren. Kurz hinter Lützen habe ich dann zufällig einen kleinen Wegweiser nach „Röcken“ gesehen…irgendwie sagte mir der Name was…dann fiel es mir wieder ein: Na klar, das ist der Geburtsort von Friedrich Nietzsche ... Fünf Minuten später standen wir vor Nietzsches Grab – er wurde nicht nur in Röcken geboren: Der durchaus religionskritische Sohn eines lutherischen Pfarrers liegt dort auch hinter der kleinen Dorfkirche begraben. Für uns drei eine unerwartete Begegnung.   Die Geschichte des Denkens In den letzten beiden   Blogs haben wir uns mit der Frage beschäftigt, wie wir mittels unseres Bewusstseins  die Welt um uns herum wahrnehmen und mit Hilfe der Sprache  versuchen, unserem Denken Ausdruck zu verleihen. Seit wir vor etwa 200.000 Jahren diese Fähigkeit erworben haben, wurden unzählige Gedanken gedacht und auch wieder vergessen. Die Philosophie ist die Summe jener Gedanken, die bis heute nachhallen. Sie haben deshalb überlebt, weil sie sich als besonders erhellend, nachvollziehbar und demzufolge auch besonders einflussreich erwiesen haben. Was zunächst einmal nichts über ihre Richtigkeit aussagt. Der gescheite Herr Kant ist der Urheber der vier Fragen Den Beitrag dieses Denkens zu unseren persönlichen Weltbildern können wir gar nicht überschätzen. Das unten stehende Schaubild der historischen Entwicklung der Philosophie macht aber auch deutlich, dass es unter diesen begründeten Theorien über die Welt eine verwirrende Fülle gibt. Die Themen sind breit gestreut: Wie gewinne ich neue Erkenntnisse? Was ist die Wirklichkeit? Was ist Wahrheit? Was ist Zeit? Gibt es eine unsterbliche Seele? Strebt die Geschichte einem Ziel zu? Was ist wahr, was ist falsch? Hat das Leben einen Sinn? Welche Grenzen setzt uns die Sprache?   Die Philosophie möchte die Grundlagen unserer Existenz verstehen, das große Ganze betrachten und die Dinge zusammenführen. In einem Niemandsland, das dem Mathematiker   und Philosophen Bertrand Russell zufolge irgendwo zwischen Theologie und exakten Wissenschaften angesiedelt ist, springt sie dort in die Bresche, wo andere Disziplinen an ihre Grenzen stoßen. Die historische Entwicklung der Philosophie   Ein zerklüftetes Terrain Das Terrain in diesem Niemandsland ist in höchstem Maße zerklüftet. Kaum ein Thema, bei dem es Einigkeit gäbe. Das hat nur allzu menschliche Gründe: Philosophen haben unterschiedliche Erfahrungen gemacht und stets sind sie auch Kinder ihrer Zeit; ihre Werke spiegeln die Denkperspektiven und Lebensumstände verschiedener Epochen wider und oft auch sehr persönliche Existenzbedingungen. (Weder Platon  noch Aristoteles  kam es etwa in den Sinn die Sklaverei in der griechischen Gesellschaft in irgendeiner Form infrage zu stellen.) Doch letztlich sind aus diesen Dialogen, Debatten und Querelen die modernen Natur- und Geisteswissenschaften hervorgegangen aber auch die moralische Normen, die unsere politischen Verfassungen und Gesetze prägen. Die Ethik eines Konfuzius  hat auch heute noch großen Einfluss auf Gesellschaften vieler ostasiatischer Kulturen; die Amerikanische Verfassung zitiert John Locke  und David Hume  fast im Wortlaut; die Lehre eines Karl Marx  hat einem ganzen Jahrhundert ihren Stempel aufgedrückt. Vier Fragen Einer der meiner Meinung nach besten Vorschläge, in dieses Tohuwabohu eine gewisse Ordnung zu bringen, stammt von Immanuel Kant : Ihm zufolge lassen sich alle philosophischen Erkundungen auf lediglich vier Fragen zurückführen: Was kann ich wissen? Was soll ich tun? Was darf ich hoffen? Was ist der Mensch? Das bringt es ziemlich auf den Punkt. Die vier Fragen decken sowohl die theoretischen als auch die praktischen Aspekte der Philosophie ab. Kant hat damit die Dimensionen des komplexen philosophischen Kosmos sehr ausführlich vermessen. Die erste Frage beschäftigt sich mit begründbaren Überzeugungen über die Welt. Dabei geht es einerseits um Erkenntnis- und Wissenschaftstheorie: Welche Methoden und Werkzeuge, benötige ich, um Dinge beobachten, analysieren und zueinander in Beziehung setzen zu können, und welche Schlussfolgerungen lassen sich aus den Beobachtungen ziehen? Es geht aber auch um die sehr spezielle Frage, ob wir grundsätzlich etwas in Erfahrung bringen können, ohne es vorher beobachtet zu haben. Die Disziplin, die sich mit dem Thema beschäftigt, ob wir gesichertes Wissen auch jenseits der dinglichen, physischen Welt erlangen können, ist die Metaphysik – also das, was sich „jenseits der Physik “ befindet. Ihr wichtigster Teilbereich ist die Ontologie, die sich mit den grundsätzlichen Fragen des Seins auseinandersetzt: Was sind Wesen, Strukturen und Zustände dessen, was „ist“? Hat wenigstens Nietzsche den Durchblick? Während die erste Frage der theoretischen Philosophie zugeordnet wird, hat Kants  zweite Frage „Was soll ich tun?“ handfeste praktische Bedeutung. Die Natur ist den immer gleichen kausalen Zwängen ausgesetzt. Der Mensch aber hat die Möglichkeit, sich für oder gegen etwas zu entscheiden. Aus dieser Freiheit entstehen Konflikte, Dilemmata und Verantwortlichkeiten. Grundlage der praktischen Philosophie ist die Ethik. Sie möchte Maßstäbe und Maximen für moralisch richtiges Handeln festlegen: Welche Kriterien sollen wir zur Beurteilung einer Situation heranziehen? Wie sind sie zu gewichten? Welches Verhalten ist angemessen? Darf ein Angeklagter aufgrund von Indizien verurteilt werden? Ist Freiheit höher zu bewerten als Gleichheit? Soll es Einzelnen schlechter gehen dürfen, damit es Vielen besser geht? Kants  dritte Frage „was darf ich hoffen?“ bewegt sich wiederum in rein metaphysischen Sphären. Es geht um Themen, bei denen weder Erkenntnistheorie noch Ethik weiterhelfen: Gibt es ein Jenseits? In welchem Verhältnis stehen Wissen und Glaube zueinander? Welchen Sinn hat die Schöpfung? Kann die Existenz Gottes bewiesen oder widerlegt werden? Sollten wir eine bessere Welt nicht lieber schon im Diesseits suchen? Gibt es ein Ziel, dem die Menschheitsgeschichte zustrebt? Für Kant münden die drei ersten Fragen in eine vierte und letzte: „Was ist der Mensch?“ Für den Königsberger Philosophen ist dies das entscheidende Thema. Welche Rolle spielt der Mensch aufgrund seiner Sonderstellung in der Welt, was ist seine Bestimmung? Welche Rechte und Pflichten ergeben sich aus dieser Besonderheit? Warum erlaubt es unser Geist, Fragen zu stellen, von denen wir wissen, dass wir sie nie werden beantworten können? Worin besteht die Würde des Menschen – und warum tasten wir sie so oft an? Das ist das Themenspektrum, mit dem wir uns in den kommenden Philosophie-Blogs beschäftigen werden.   Weiterführende Literatur: Bertrand Russell (2012): „Philosophie des Abendlandes”, Anaconda. Michael Picard (2018): „Philosophie – Von Platons Himmel bis Zenons Paradox“, Librero

  • Science-Fiction als Schule der Vernunft

    von Rüdiger Schäfer   Science-Fiction ist keine Wahrsagerei mit Raumschiffen. Das war sie nie. Wer das Genre nur als Zukunftsvorhersage begreift, verkennt seine eigentliche Kraft: Science-Fiction ist eine Denkmaschine. Gute SF fragt nicht: »Wie wird es kommen?« Sondern: »Was wäre, wenn… – und was macht das aus uns?«   Meinen ersten SF-Roman habe ich mit acht Jahren gelesen. Es war eines der »Raumschiff Monitor« -Bücher von Rolf Ulrici (1922-1997). Es folgten die Werke von Asimov, Heinlein, Clarke, Bradbury, Herbert und vielen anderen. Und natürlich stieg ich auch bei PERRY RHODAN (PR) ein, einer Heftromanserie, an der man in den 1970er und 1980er Jahren gar nicht vorbeikam, wenn man sich für Science-Fiction interessierte.   Gute Science-Fiction sagt mehr über die Gegenwart als über die Zukunft Nach dreißig Jahren als Fan und Leser von PR, schreibe ich nun schon seit 2005 selbst für dieses deutsche SF-Phänomen, das sich bis heute am Markt gehalten hat. Die Science-Fiction ist zu einem nicht mehr wegzudenkenden Teil meines Lebens geworden. Gute SF baut Welten. Nicht nur um zu beeindrucken, sondern um unsere Gegenwart zu testen oder doch zumindest zu entlarven: moralisch, politisch, psychologisch. Science-Fiction ist für mich deshalb weniger eine Literatur der Zukunft, als eine Literatur der Konsequenzen. Oder wie die SF-Autorin Ursula K. Le Guin  es einst messerscharf formuliert hat: »Science-Fiction is not predictive; it is descriptive.«  (frei übersetzt: »Science-Fiction prophezeit nicht; sie beschreibt.«)     Die Zukunft ist in der SF nicht das Ziel, sondern ihr Werkzeug In der Science-Fiction begegnet die Zukunft dem Leser nicht als Fahrplan. Sie ist eher ein Denkszenario. Ein Vergrößerungsglas. Ein Spiegel, den man absichtlich ein wenig schräg hält, damit das Jetzt und Hier verfremdet wirkt. Denn darin liegt die Kraft dieser Literaturgattung: Sie zwingt uns, Fragen zu stellen, die wir üblicherweise verdrängen, weil sie unbequem sind. Bleibt der Mensch noch Mensch, wenn wir in der Lage sind, Bewusstsein eins zu eins zu kopieren und zu digitalisieren? Was ist Freiheit in einer Welt perfekter Simulationen noch wert? Wer definiert Wahrheit, wenn die Realität beliebig manipulierbar ist? Und wie stabil ist unsere Moral, wenn Technik uns erlaubt, die Konsequenzen unseres Handelns einfach wegzuretuschieren?   Science-Fiction liefert Antworten auf diese und viele ähnliche Fragen nicht als wissenschaftliche Studie oder Essay. Sie baut sie als Erlebnis. Sie inszeniert und dramatisiert. Und gerade dadurch wirken diese Antworten lange nach. SF ist keine Prognose, sondern eine Art Handeln auf Probe. Oder, um es mit Ray Bradbury  zu sagen: »Science-Fiction is really a sociological study of the future.«  (frei übersetzt: »Science-Fiction ist Gesellschaftsanalyse im Zukunftsmodus.«) Sie ist Gesellschaftskunde – nur eben nicht in der Gegenwart, sondern im Möglichkeitsraum. Und das ist auch der Grund, warum sie so gut funktioniert. Sie beschäftigt sich nicht nur mit dem, was kommt und was wir sind, sondern auch mit dem, was wir sein könnten und was wir werden dürfen, ohne uns selbst zu verlieren.   Science-Fiction entlarvt das scheinbar Alternativlose als bloße Gewohnheit – als geistige Trägheit, die sich für ein Naturgesetz hält. Frei nach William Gibson: » The future is already here — it’s just not evenly distributed.« (frei übersetzt: »Die Zukunft existiert bereits. Nur kommt sie nicht überall gleichzeitig an.«) Science-Fiction erzählt deshalb nicht von der  Zukunft. Sie erzählt von möglichen Zukünften  – und jede davon ist eine offene Frage an unsere Gegenwart. Manchmal leise. Manchmal wie ein Faustschlag. Und manchmal so elegant, dass man erst beim Umblättern merkt, wie sehr es wehgetan hat. Denn am Ende ist Science-Fiction immer auch Selbstprüfung. Sie wirkt so lange nach, weil sie nicht die Zukunft erklärt, sondern die Gegenwart enttarnt. Schon Stanisław Lem  wusste in seinem 1961 erschienenen Meisterwerk »Solaris« : »Wir wollten zu den Sternen, aber wir treffen immer nur auf uns selbst.«     Science-Fiction fragt: »Was kostet das?« Fortschritt klingt immer gut. Bis man ihn ernst nimmt. Science-Fiction stellt auch hier die eine und meist entscheidende Frage: »Was kostet das?« Unsterblichkeit? Macht? Demokratie? Schönheit? Sicherheit? Gute SF zeigt auf, dass jedes Mehr  automatisch auch ein Weniger  erzeugt. Mehr Sicherheit kostet Freiheit. Mehr Bequemlichkeit kostet Selbstbestimmung und Verantwortung. Mehr Optimierung kostet Vielfalt. Und mehr Überwachung kostet in den meisten Fällen Menschlichkeit.   Mein Gastautor schreibt für ein globales Unikat: Perry Rhodan ist mit über einer Milliarde verkaufter Hefte die erfolgreichste Science-Fiction- und Heftroman-Serie der Welt Science-Fiction denkt Fortschritt deshalb nicht als Werbeprospekt, sondern als Bilanz. Sie zeigt uns nicht nur, was möglich wird – sondern auch, was dabei verloren geht. Und vor allem: wer  den Preis bezahlt. Denn in den großen Zukunftsversprechen steckt oft ein stilles Ungleichgewicht: Der Nutzen wird gefeiert, die Nebenwirkungen werden ausgelagert – an Minderheiten, an Randgruppen, an die, die keine Stimme haben. Oder an das Morgen, das sich nicht wehren kann. Isaac Asimov hat das schon vor Jahrzehnten erkannt, als er 1988 schrieb: »Der gegenwärtig traurigste Aspekt des Lebens besteht darin, dass die Science-Fiction schneller Wissen anhäuft, als die Gesellschaft Weisheit.«   Science-Fiction ist damit eine Art intellektuelle Steuersoftware. Sie bremst nicht den Fortschritt – sie zwingt ihn, Verantwortung mitzudenken. Und sie stellt nicht nur die Frage: Können wir das? Sondern vor allem: Sollten wir das? Denn am Ende ist die Zukunft kein Zielpunkt, sondern ein Prüfstein. Science-Fiction erinnert uns daran, dass Technik nicht automatisch Zivilisation bedeutet – und dass jede neue Möglichkeit alte Tugenden braucht: Maß, Urteilskraft, ja sogar ein Stück Weisheit. Oder anders gesagt: Science-Fiction ist die Literaturform, die nicht fragt, wie die Welt wird – sondern ob wir in ihr noch wir selbst sein wollen und können.     Science-Fiction trainiert geistige Beweglichkeit   Eines, wenn nicht gar das berühmteste Zitat von Arthur C. Clarke  lautet: »Any sufficiently advanced technology is indistinguishable from magic.«  (frei übersetzt: »Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.«) Die in der Aussage steckende Warnung ist simpel – und gefährlich aktuell: Wenn wir Dinge nicht verstehen, behandeln wir sie wie Magie. Und Magie wird nicht kontrolliert, sondern verehrt.   Science-Fiction leistet hier wertvolle Denkarbeit: Sie entzaubert. Sie fragt nach Mechanismen, nach Machtstrukturen, nach Nebenwirkungen. Sie hilft uns, Ambivalenzen auszuhalten – und genau das ist heute eine Schlüsselkompetenz. Die SF trainiert damit nicht nur Fantasie, sondern geistige Beweglichkeit. Sie zwingt uns, Perspektiven zu wechseln, Selbstverständlichkeiten zu misstrauen und das Unbequeme mitzudenken. Denn wer Ambivalenzen aushält, fällt nicht so leicht auf einfache Heilsversprechen herein – weder auf technologische noch auf politische. Und vielleicht ist das der größte Wert dieses Genres: Es macht uns nicht unbedingt zukunftssicher, aber urteilsfähiger. Es hilft uns, Komplexität nicht als Bedrohung zu empfinden, sondern als notwendige Realität. Das Leben ist Veränderung. Die SF kann uns lehren, ihr nicht zu entfliehen, sondern ihr mit Mut zu begegnen und sie als Chance zu begreifen.    Was machen die Möglichkeiten mit uns?   Science-Fiction ist die Literatur der Zumutungen   Fantasy tröstet. Thriller beschleunigen. Science-Fiction dagegen stellt oft eine Frage, die man nicht weglesen kann: »Was bist du bereit zu akzeptieren?« Wie weit darf Forschung gehen? Was ist Leben , wenn Maschinen inzwischen Bewusstsein täuschend echt simulieren ? Wo endet Fortschritt und wo beginnt Entmenschlichung? Octavia E. Butler (1947-2006), eine US-amerikanische Science-Fiction-Autorin und Pionierin afroamerikanischer Zukunftsliteratur, hat diesen Effekt sehr schön in Worte gegossen: »At its best, Science-Fiction stimulates imagination and creativity. It gets reader and writer off the beaten track…«  (frei übersetzt: »In ihrer besten Form regt Science-Fiction Fantasie und Kreativität an. Sie bringt Leser und Autor dazu, die ausgetretenen Pfade zu verlassen …«)   Science-Fiction ist gut, wenn sie stört. Wenn sie in den Kopf greift und Dinge umstellt. Sie ist keine Flucht aus der Wirklichkeit, sondern eine Zuspitzung der Realität. Sie macht sichtbar, was wir im Alltag oft übersehen: die stillen Kosten des Fortschritts. Und sie fragt nicht zuerst, was möglich ist, sondern was vertretbar bleibt. Denn je mächtiger unsere Werkzeuge werden, desto wichtiger wird unser Maß. Zukunft ist keine Zeit – Zukunft ist Verantwortung.     Warum SF gerade jetzt unverzichtbar ist   Wir leben längst in einer Welt, die klassische SF-Motive nicht mehr erfindet , sondern von ihnen eingeholt und überholt wird. KI-Systeme, die Persönlichkeit und Kompetenz imitieren und dadurch Entscheidungen beeinflussen. Deepfakes , die Wahrheit und Fakten zur Verhandlungsmasse machen. Algorithmen , die Aufmerksamkeit in die gewünschte Richtung lenken – also Macht kanalisieren. Biotechnologie, die die Natur  neu definiert. Simulationen, die Erfahrung ersetzen und Erinnerungen generieren. In dieser Gegenwart wirkt SF nicht wie Flucht – sondern wie Orientierung. Sie bietet vielleicht keine endgültigen Antworten, aber dafür liefert sie etwas viel Wertvolleres: Urteilskraft.   Sie macht uns nicht zukunftssicher. Sie macht uns denkfähig.   Zusammenfassung Science-Fiction ist keine literarische Spielerei, sondern kulturelles Werkzeug: Sie ist Denkmaschine, Moraltest und Möglichkeitslabor zugleich. Gute SF entwirft nicht nur Welten – sie untersucht, welche Entscheidungen aus uns welche Art von Menschen machen.   Gerade in einer Zeit, in der Technologien schneller wachsen als gesellschaftliche Reife, wird Science-Fiction zur notwendigen Literaturform: Sie trainiert die Fähigkeit, komplex zu denken, Ambivalenzen zu ertragen und Konsequenzen mitzulesen. Oder anders: Science-Fiction ist nicht die Literatur der Zukunft – sie ist die Gebrauchsanweisung für die Gegenwart! Über den Gastautor: Rüdiger Schäfer  ist Science-Fiction Schriftsteller und schreibt unter anderem seit 2005 für die legendäre PERRY RHODAN-Reihe, die seit 1961 bestehende größte SF-Serie der Welt. Den Blog entdecken

  • Ökonomie in der globalisierten Welt

    Fortsetzung von „Der Liberalismus schlägt zurück“   Die Neoklassische Synthese Aus dem Dissens der 1930er Jahre zwischen Keynesianern  und Neoliberalen entstand nach dem Zweiten Weltkrieg   – die liberalistischen und marxistischen Minderheitspositionen radikaler Freiheit  und radikaler Gleichheit ausgenommen – ein erstaunlich breiter Konsens. Der amerikanische Nobelpreisträger Paul Samuelson  (1915-2009) hatte für dieses Einvernehmen in den 1950er Jahren den Begriff der Neoklassischen Synthese  geprägt, die Verschmelzung der neoklassischen Mikroökonomik  mit zentralen Elementen der keynesianischen Makroökonomie . Paul Samuelson Heute besteht weitgehend Einigkeit, dass freie Märkte grundsätzlich das effizienteste Mittel sind, um die komplexen Verteilungsprobleme knapper Güter zu lösen. Milton Friedman verdeutlichte diese Macht des Kapitalismus   einmal anhand eines einfachen, nur wenige Cents kostenden Bleistifts. Um ihn zu erschaffen, haben tausende Menschen zusammengearbeitet. Dazu gehören auch die Bergarbeiter, die die Erze förderten, die für den Bau der Kettensäge nötig waren, mit denen der Baum für das Holz des Bleistifts gefällt wurde. Hinter diesem Wunder verbirgt sich eine unvorstellbar komplexe internationale Arbeits- und Wissensteilung. Wie in der biologischen Evolution gibt es keinen intelligenten Schöpfer, keinen Masterplan, keine koordinierende Instanz, sondern allein durch Preissignale gesteuerte Anreize. Arbeitslose in Chicago 1931 Ebenso wenig aber wird von der herrschenden Meinung bestritten, dass Märkte auch versagen können – mit dramatischen Folgen wie Massenarbeitslosigkeit und massiver Geldentwertung. Aktive staatliche Ausgaben- und Geldpolitik gehören heute zum gängigen Repertoire entwickelter politischer Systeme und offenbar lassen sich mit ihnen, trotz mäßiger theoretischer Fundierung, die Konsequenzen des Marktversagens einigermaßen in Schach halten. Zumindest hat sich eine ähnlich tragische Situation wie die Große Depression  seitdem nicht wiederholt. Während 1929 das reale BIP in den USA und Deutschland vier Jahre in Folge schrumpfte und dabei insgesamt um fast 30% einbrach, ließ sich in der globalen Finanzkrise von 2007 der Einbruch auf etwa 18 Monate Dauer und 5% BIP-Verlust begrenzen. Die Meinungsunterschiede innerhalb des ökonomischen Mainstreams verlaufen heute vor allem entlang der Frage, ob die Ursachen dysfunktionaler Märkte eher auf der Markt- oder auf der Staatsseite zu suchen sind. Doch mit dieser relativ harmonischen Fügung ist die Ökonomie  noch nicht am Ende ihrer Geschichte angekommen. Seit einigen Jahrzehnten sieht sie sich mit drei neuen Realitäten konfrontiert: Dem demographischen Wandel in den Industrienationen, Der Entwicklung nicht industrialisierter Länder und Der Vereinbarkeit von Ökonomie und Ökologie .    Macht und Ohnmacht der Demographie Der demographische Wandel in den reichen Ländern ist vor allem eine Herausforderung für die Sozialversicherungssysteme. Als Bismarck  in Deutschland, als erstem Land der Welt, in den 1880er Jahren eine Kranken-, eine Unfall- und einige Jahre später auch eine Rentenversicherung einführte, um eine zunehmend selbstbewusste Arbeiterschaft ruhig zu stellen, war die Finanzierung staatlicher Rentenkassen noch kein Problem. Damals wie heute beruht sie auf dem Prinzip, dass die Jungen für die Alten einzahlen. Heute aber sehen sich zum ersten Mal in der Geschichte die wohlhabenden Staaten mit drastisch sinkenden Geburtenzahlen und infolgedessen einer schrumpfenden Bevölkerung konfrontiert. Den Vorsorgesystemen bricht das Fundament weg. Grundsätzlich sind fünf Maßnahmen denkbar, mit denen ihr Erhalt gesichert werden kann: Die Menschen können länger arbeiten, höhere Beiträge zahlen, ein niedrigeres Leistungsniveau akzeptieren, eine umfassende Einwanderung jüngerer Menschen aus ärmeren Ländern zulassen oder versuchen, ein wesentlich höheres Wirtschaftswachstum zu erzielen. Aufgrund der vorhandenen Demographiedaten ist es für Ökonomen relativ einfach auszurechnen, welchen Umfang jede einzelne Maßnahme haben müsste, wenn sie die alleinige Lösung des Problems sein sollte. Für Deutschland etwa müsste das Renteneintrittsalter bis 2041 auf 73 Jahre steigen, um das derzeitige Niveau aufrechtzuerhalten. Die Empfehlung des amerikanischen Nobelpreisträgers Robert Solow  ist es, auf ein nachhaltiges Wirtschaftswachstum zu setzen. Da dieses eng an den technologischen Fortschritt gekoppelt ist, täte, so Solow, der Staat besser daran langfristig Forschung und Entwicklung zu fördern, anstatt kurzfristig Geld  für Konjunkturprogramme auszugeben. Letztlich wird aber wohl nur ein Mix aus verschiedenen Maßnahmen das System am Leben erhalten können. Nicht alles, was ökonomisch geboten wäre, wird dabei auch politisch durchsetzbar sein.   Animierte Darstellung der Alterspyramide für Deutschland 1970-2020: Die Pyramide stellt sich über die Zeit auf den Kopf Entwicklungen des „Globalen Südens“ Verschiedene „Welten“ Außerhalb der Industrienationen ist die demographische Entwicklung eine ganz andere. Lebten 1970 nur zwei von drei Menschen in den so genannten „ Entwicklungsländern “, waren es eine Generation später bereits vier von fünf, ein Trend, der sich seitdem noch weiter beschleunigt hat. Der Begriff Entwicklungsländer geht auf eine Wortschöpfung in der Regierungserklärung des amerikanischen Präsidenten Harry S. Truman aus dem Jahre 1949 zurück, die damals alle noch nicht industrialisierten Staaten bezeichnete. Drei Jahre später prägte der französische Demograph Alfred Sauvy  den Begriff „ Dritte Welt “, in Anlehnung an die alte vorrevolutionäre französische Ständeordnung mit ihrem politisch entrechteten „Dritten Stand“. Dass die Ökonomen Mitte des 20. Jahrhunderts begannen, sich mit den Ursachen und Folgen der höchst unterschiedlichen Entwicklungen auf der Erde zu befassen, hatte zunächst vor allem einen handfesten politischen Hintergrund: Der Westen, die „ Erste Welt “, buhlte mit den sozialistischen Staaten, der „ Zweiten Welt “, im Kalten Krieg   um Macht und Einfluss in den armen Ländern.   Geodeterminismus und Ressourcenfluch Tatsächlich ist der Wohlstand  nicht nur innerhalb, sondern auch zwischen den Nationen extrem ungleich verteilt. Im Jahr 2018 betrug das kaufkraftbereinigte pro-Kopf BIP für die Schweiz rund 65.000 US-Dollar, für die USA 63.000, Deutschland 52.000, Portugal 32.000 und Simbabwe weniger als 3.000. [i]  Dabei ist Simbabwe bei weitem nicht das ärmste Land der Welt. Die Entwicklungsökonomie  versucht vor diesem Hintergrund zu verstehen, welche Voraussetzungen gegeben sein müssten, damit die Entwicklungsländer  – heute sprechen wir vom „ Globalen Süden “ – zu den Industriestaaten aufschließen können. Dazu gehört zunächst eine Ursachenanalyse der auffälligen Disparitäten: Sind sie in den armen Ländern selbst zu suchen oder aus Abhängigkeiten von den reichen Nationen entstanden? Zwei einfache Erklärungsansätze, die die Gründe in den armen Ländern sehen, diskutieren die Entwicklungsökonomen unter den Begriffen „ Geodeterminismus “ und „ Ressourcenfluch “. Der globale Süden - Stand 2023 Geodeterministen erklären die sehr unterschiedlichen historischen Entwicklungsverläufe mit geographischen und klimatischen Unterschieden. Gebirgige Länder, Wüstenstaaten, abgelegene Inseln, Regionen mit extrem heißem oder frostigem Klima, Staaten ohne Zugang zum Meer oder Bodenschätzen, haben schlichtweg schlechtere Voraussetzungen ihre Wirtschaft zu entwickeln und am internationalen Handel  teilzunehmen. Zweifellos leiden Länder wie Armenien, der Sudan, Nepal oder der pazifische Inselstaat Vanuatu unter solchen Gegebenheiten. Alleinige Ursache kann die Geographie jedoch nicht sein; wie könnte sonst die Schweiz, ein rohstoffarmer, gebirgiger Binnenstaat, zu den reichsten Ländern der Welt zählen? Auch der Ressourcenfluch – er bezeichnet die scheinbar paradoxe Situation, dass viele Länder, die reich mit Rohstoffen wie Erdöl, Erdgas oder wertvollen Metallen gesegnet sind, trotzdem bettelarm bleiben – taugt kaum als alleinige Erklärung. Dass sprudelnde Einnahmen aus dem Export der Rohstoffe oftmals zur Vernachlässigung anderer Wirtschaftssektoren führen, mag auf Länder wie Russland, Venezuela, Nigeria oder die Demokratische Republik Kongo zutreffen; für Kanada oder Norwegen aber greift eine solche Begründung zu kurz. Einen umfassenderen Ansatz stellt die These von der Armutsfalle dar. Sie beschreibt jene höchst ungesunde Mischung aus politischen Faktoren, die verhindern, dass eine Nation sich aus eigener Kraft aus ihrer Misere befreien kann. Korruption , instabile gesellschaftliche Verhältnisse, lange kriegerische Konflikte, unsichere Eigentumsverhältnisse, eine abhängige Justiz, galoppierende Inflation, ausufernde Kriminalität, fehlender Zugang zu Bildungseinrichtungen und die Diskriminierung großer Minderheiten sind keine guten Voraussetzungen für die Entwicklung von Wohlstand.   Failed States – wer ist „schuld“? Länder mit solch traurigen Bedingungen sind mehr oder weniger „ gescheiterte Staaten “, die sich entweder in der Hand korrupter aber gut organisierter und wohlhabender Oligarchien  befinden oder bei denen jegliche staatliche Ordnung zerfallen ist. Während es ehemals armen Ländern wie China, Südkorea, Südafrika oder Brasilien durch Fortschritte bei der Bildung und der Stabilisierung politischer Verhältnisse gelungen ist, zu den klassischen Industrieländern aufzuschließen, verharren vor allem die allermeisten afrikanischen Staaten, aber auch Länder wie Russland, Nordkorea und Venezuela in den Fängen starrer und korrupter Regime. Andere Entwicklungsökonomen sehen hingegen die Armutsursachen im Verhalten der reichen Nationen, die den Entwicklungsländern nach wie vor postimperialistische Zwänge auferlegen. Ein bekannter Verfechter dieser Sicht ist der amerikanische Soziologe und Wirtschaftshistoriker Immanuel Wallerstein  (1930-2019). Gemäß seiner neomarxistischen Welt-System-Theorie  hat sich der Kapitalismus nach und nach auf der gesamten Erde eine hierarchische, dreischichtige Struktur erschaffen. An der Spitze dieses Systems finden sich die nordatlantischen Staaten. Ihre Industrienationen tragen die für den Kapitalismus typischen Konjunkturzyklen in die Welt. Unter ihnen stehen die Staaten der Semi-Peripherie, wie Mexiko, Brasilien, Südafrika, Indien und China. Die kapitalistischen Kernländer haben aus Kostengründen weite Teile der Industriearbeit in diese Länder ausgelagert und beuten sie oftmals mithilfe lokaler autoritärer Strukturen aus. Gleichzeitig dient die Semi-Peripherie in dem schwelenden Nord-Süd-Konflikt als Puffer gegen die Peripherie, den armen Rest der Welt. Diesem kommt in dem weltumspannenden arbeitsteiligen System die Aufgabe zu, die reicheren Länder mit einfachen Primärgütern und Rohstoffen zu versorgen. Ihre staatlichen Systeme sind labil und werden von den kapitalistischen Industriestaaten absichtlich schwach gehalten. In Wallersteins Theorie ist die Ordnung der Welt allein durch die ökonomischen Interessen der herrschenden Klasse bestimmt.   Eine Empfehlung aus Washington Neben dem Neomarxisten Wallerstein meldete sich im letzten Viertel des 20. Jahrhunderts vor allem der wiedererstarkte Neoliberalismus   zu Wort. Ganz im Sinne Ricardos fordern liberale Entwicklungsökonomen, die „Drittweltländer“ am internationalen Handel  teilhaben zu lassen und alle diesbezüglichen Hemmnisse konsequent abzubauen. Sie weisen darauf hin, dass Handel die gleiche volkswirtschaftliche Wirkung hat, wie technischer Fortschritt : Beide erlauben es mit den gleichen Einsatzmitteln mehr zu produzieren. Das Füllhorn staatlicher Subventionen, das die reichen Industrieländer über ihrem eigenen Landwirtschaftssektor ausschütten, sorgt allerdings dafür, dass die armen Länder trotz niedrigerer Arbeitskosten mit ihren Agrarprodukten kaum auf dem Weltmarkt konkurrieren können. Der 1990 in der amerikanischen Hauptstadt erzielte „ Konsens von Washington “ fordert daher, mit deutlich neoliberaler Handschrift, freie Märkte, stabile politische Verhältnisse und eine ungehinderte Teilnahme am globalen Freihandel. Für die Unterzeichner des Übereinkommens ist dies die vielversprechendste Perspektive, um die Lebensverhältnisse in den Entwicklungsländern zu verbessern. Profitiert haben vom Abbau der Handelsbeschränkungen seit der Jahrtausendwende allerdings bis heute vor allem die Schwellenländer der wallersteinschen Semi-Peripherie.   Umweltökonomie Die Tragik der Allmende Die abschließende dritte Frage ist die, ob der kleine blaue Planet den angestrebten Massenwohlstand für acht, neun oder elf Milliarden Menschen überhaupt verkraften kann. Dies ist das große Thema der Umweltökonomie . Aus wirtschaftstheoretischer Sicht stellt die Umwelt eine kollektive Ressource der Menschheit dar, von der wir bis in die jüngste Vergangenheit dachten, sie sei, wie im Schlaraffenland , umsonst zu haben. Doch auch Luft, Wasser, Regenwälder oder die Fischbestände der Weltmeere sind, seit es auf der Erde eng geworden ist, zu knappen Gütern mutiert. Die Dorfgemeinschaften des mittelalterlichen Europas bewirtschafteten kollektiv ihre Allmende, Land- und Forstflächen, die allen gehörten. Heute sprechen die Umweltökonomen von der „ Tragik der Allmende “, um damit die Übernutzung der globalen gemeinschaftlichen Ressourcen zu bezeichnen. Das Problem macht an keiner nationalen Grenze halt. Am deutlichsten wird dies bei der Verbrennung fossiler Brennstoffe mit ihren unabsehbaren Folgen für das Weltklima. Diese sozialen Kosten – die Umweltökonomen bezeichnen sie in ihrer spröden Terminologie auch als „negative externe Effekte “ – fließen in keine Gewinnoptimierungsrechnung, keine Nutzenfunktion und kein Bruttoinlandsprodukt ein. [ii]   Wer zahlt dafür? Hilft der Preismechanismus? Der zentrale Lösungsansatz der Umweltökonomen gründet einmal mehr auf dem Preismechanismus . Knappheitspreise sollen das Allokationsproblem auch für Gemeingüter regeln. Dadurch will man Anreize schaffen, die Allmende der Menschheit effizienter zu verwenden oder durch verträglichere Alternativen zu ersetzen. Ein konkreter Ansatz externe Effekte zu internalisieren, besteht heute darin, Verschmutzung zu verteuern oder sauberere Alternativen zu subventionieren. So bewirkt eine CO 2 -Steuer, dass sich die Nachfragekurve  für fossile Brennstoffe nach links verschiebt. Ein ergänzendes Instrument ist der Emissionshandel , wie ihn etwa die Europäische Union praktiziert. Hierbei werden länderspezifische Obergrenzen für Schadstoffe festgelegt, die in einem bestimmten Zeitraum emittiert werden dürfen. Entsprechend der festgeschriebenen Höchstmenge werden Zertifikate ausgegeben, die an einem eigens dafür eingerichteten Markt handelbar sind. Länder, die unter ihrem Kontingent bleiben, können ihre nicht beanspruchten Verschmutzungsrechte an andere Staaten verkaufen, die ein größeres Kontingent benötigen. Da allein zählt, ob die angestrebte Einsparungsambition in der Summe erreicht wird, haben die einzelnen Länder so die Möglichkeit, das gemeinsame Ziel mit unterschiedlichen Geschwindigkeiten anzusteuern. Ob die Menschheit durch den staatlich verordneten Einbau von Preismechanismen für Gemeingüter das Blatt zu wenden vermag, oder ob Pessimisten wie Malthus recht behalten werden und wir durch das größte Marktversagen  aller Zeiten auf eine ökologische Situation zusteuern, deren Folgen nicht mehr zu kontrollieren sind, bleibt offen – das Problem der fossilen Brennstoffe ist nicht, dass sie uns ausgehen könnten, sondern dass sie uns nicht ausgehen könnten.   Ökonomie in der globalisierten Welt: Freiheit oder Gleichheit? Der Kapitalismus  ist der gesellschaftliche und ökonomische Motor hinter der unglaublichen Entwicklung der Menschheit der letzten 500 Jahre. Ihm ist zu verdanken, dass sich das durchschnittliche reale Einkommen in den Industriestaaten in den vergangenen 150 Jahren verzwölffachte. Kein anderes System hat uns dem Pareto-Optimum   nähergebracht, keines hat größere Kuchen an zu verteilenden Gütern erzeugt. Sämtliche alternativen Wirtschaftssysteme sind bis heute den Nachweis schuldig geblieben, dass sie es besser können. Gleichwohl kann auch der Kapitalismus weder sicherstellen, dass Märkte stets reibungslos funktionieren, noch, dass alle Menschen auf diesem Planeten an dem erzeugten Reichtum auch tatsächlich teilhaben können. Die Frage der Verteilungsgerechtigkeit ist allerdings primär eine politisch-philosophische Frage. In einer Welt knapper Ressourcen bedeutet die Verfolgung eines Ziels immer auch die Aufgabe eines anderen. Mehr Gleichheit heißt weniger Freiheit ; höhere Mindestlöhne mehr Arbeitslose; mehr Sicherheit weniger Privatsphäre; mehr Umweltschutz weniger Konsum; mehr Krankenhäuser weniger Entwicklungshilfe; mehr Kanonen weniger Butter. Oder umgekehrt. In marktwirtschaftlichen Demokratien unterscheiden sich die Parteien  heute in erster Linie dadurch, welche Schwerpunkte sie bei den sich widersprechenden Zielen Freiheit, Gleichheit und Umwelt setzen. Ob wir eher gleich arm oder eher unterschiedlich reich sein wollen, ist die erste der beiden grundlegenden Fragen des politischen Wettbewerbs. Die andere ist, ob wir, unserer evolutionär bedingten Gegenwartspräferenz zum Trotz, willens und fähig sind, heute vorzusorgen, damit die Erde auch für künftige Generationen noch ein wohnlicher Ort sein kann.   Mit diesem Beitrag endet die Artikelserie zum Thema „Ökonomie“   Den Blog entdecken   Wer mehr wissen will: Acemoglu, Daron / Robinson, James A. (2014): „Warum Nationen scheitern“, Fischer. Ringel, Marc (2021): Umweltökonomie, Springer. Wallerstein, Immanuel (2019): Welt-System-Analyse. Eine Einführung, Springer Bauman, Yoram / Klein, Grady (2011): Economics - Mit einem Comic zum Wirtschaftsweisen, Manhattan.   Bildnachweise: https://en.wikipedia.org/wiki/Pollution#/media/File:Air_pollution3.jpg Robert Solow Animation Alterspyramide Deutschland   [i]  Da die Bezugsgröße für den BIP-Vergleich der US-Dollar ist, werden die verglichenen Werte stark von Wechselkurseffekte beeinflusst. [ii] Darüber hinaus stellt sich die ethische Frage, ob bestimmte Konsequenzen, wie etwa das menschengemachte Aussterben einer Art, überhaupt mit einem Kostenetikett versehen werden kann.

  • Was ist Zeit? Vier verschiedene Antworten aus Physik, Philosophie, Psychologie und Ökonomie

    Was ist Zeit? Mein Buch hat elf Kapitel, denen ich turnusmäßig jede Woche einen Blogartikel widme. Der zwölfte Artikel in dem Zyklus gehört jeweils einem Thema „außer der Reihe“, der Versuch einer andern Perspektive, die vielleicht Querverbindungen und Zusammenhänge aufzuzeigen vermag. Diesmal möchte ich die „ Zeit“  in den Mittelpunkt stellen. Beim Schreiben ist mir aufgefallen, dass sie ein Phänomen darstellt, das in unterschiedlichen Kapiteln eine zentrale Rolle spielt und so als roter Faden verschiedenste Wissensgebiete miteinander verbindet.    Die astronomische Uhr in der Altstadt von Prag Die Perspektive der Physik Bei Isaac Newton , dem Begründer der klassischen Mechanik , sind Zeit und Raum die Bühne, auf der sich das Theater der Physik abspielt. Die Zeit ist eine statische Größe, gemessen durch das unveränderliche, gleichförmige Ticken einer Uhr. Eine Uhr gibt an, wieviel Zeit während eines bestimmten Vorgangs – etwa dem gleichmäßigen Hin- und Herschwingens eines Pendels – vergeht. Während Zeit vergeht, nehmen die physikalischen Vorgänge ihren Lauf.    Der französische Mathematiker und Physiker  Pierre-Simon Laplace  folgerte zu Beginn des 19. Jahrhunderts daraus, dass ein fiktiver, allwissender Weltgeist, der sämtliche Kausalitäten des Universums in Form von Funktionsgleichungen erfassen und simultan verarbeiten kann, rein theoretisch die Bewegung aller Materie und damit die Geschichte der Welt bis an das Ende aller Zeit vorausberechnen könnte. Der Laplacesche Dämon  – wir würden ihn heute als „Supercomputer“ bezeichnen – wurde zum Leitmotiv eines deterministischen Weltbilds. Eine entscheidende Erweiterung dieser Perspektive brachte Mitte des 19. Jahrhunderts die physikalische Teildisziplin der Thermodynamik. Der zweite Hauptsatz der Thermodynamik  besagt, dass die Gesamtmenge an Unordnung in einem geschlossenen System mit der Zeit stets zunimmt und geordnete Strukturen über kurz oder lang immer nur zerfallen. Diese unumkehrbarere Entwicklung, die ein physikalisches System von der Ordnung zur Unordnung führt, wird als Entropie bezeichnet. Es handelt sich dabei nicht um ein deterministisches Naturgesetz, sondern um ein rein stochastisches Phänomen. Im zweiten Hauptsatz stecken einige für das Weltverständnis sehr grundlegende Implikationen. Zunächst die, dass es im Universum eine allgemeine Tendenz zum Informationsverlust gibt: Eine heiße Tasse Kaffee ist eine geordnete Struktur. Sie stellt eine Information dar, weil hier Energie an einem Ort in konzentrierter Form vorliegt. Mit der Zeit aber gibt die Tasse Wärme ab, bis sich Tassen- und Umgebungstemperatur einander angeglichen haben. Dies geschieht nur, weil es wahrscheinlicher  ist, dass der Kaffee den Raum erwärmt als der Raum den Kaffee. Mit der Angleichung an die Raumtemperatur geht Information verloren; Entropie misst das Ausmaß dieses Verlusts. In seinem letzten Stadium, dem gesichtslosen Chaos, enthält das System keine Botschaften mehr. Kein Weg zurück Eine andere sehr wichtige Implikation des zweiten thermodynamischen Hauptsatzes ist, dass er uns nicht weniger als das physikalische Wesen der Zeit erklärt. Der Marsch eines geschlossenen Systems in die Entropie ist unumkehrbar. Unumkehrbarkeit aber ist in der Physik etwas Besonderes, da sich ihre Vorgänge grundsätzlich allesamt umdrehen lassen: Filmt man die Schwingungen eines Pendels, so stellt sich der Vorgang, wenn man den Film rückwärts ablaufen lässt, exakt gleich dar. Die Chancen, dass die Luft den Kaffee in der Tasse wieder erwärmt oder dass sich die zerbrochene Kaffeetasse zufällig wieder von allein zusammenfügt, stehen hingegen ausgesprochen schlecht. Das, was zwischen zwei Ereignissen vergeht, nennen wir Zeit. Einen Unterschied zwischen Vergangenheit und Zukunft gibt es nur, weil dazwischen Ereignisse liegen, die sich nicht mehr umkehren lassen und allein deshalb kennt die Zeit nur eine Richtung. Die Dinge der Welt sind vergänglich, weil es wenige Möglichkeiten gibt, einen Zustand zu erhalten, aber viele, ihn zu zerstören. Darum ist das Gestern verloren und nur deshalb wissen wir über die Gegenwart mehr als über die Zukunft. Die einzige Zeit, die wir tatsächlich kennen können, ist das auf einen Punkt zusammengezogene Hier-und-Jetzt. Zeit ist eine Frage des Bewegungszustands Die vorläufig letzte Erweiterung unserer physikalischer Vorstellung von der Zeit kam 1905 mit Einsteins spezieller Relativitätstheorie . Er zeigte, anhand einer einfachen Überlegung, dass Zeit keinesfalls die von Newton postulierte statische Größe ist, sondern sich relativ zum Bewegungszustand verschiedener Beobachter verhält. Kurz formuliert besagt diese Zeitdilatation , dass bewegte Uhren langsamer gehen als unbewegte Uhren. Warum das so ist, werden wir in dem kommenden Blogartikel über die Relativitätstheorie betrachten, nur so viel vorab: Für einen Astronauten, der sich nahe der Lichtgeschwindigkeit bewegt, würde die Zeit relativ zur Perspektive eines auf der Erde zurückgebliebenen Zwillings viel langsamer vergehen. Während für den Raumfahrer nur ein Jahr verstreicht, würde sich die Erde mehrmals um die Sonne drehen. Mit einem phantastisch schnellen Raumschiff könnte der Astronaut also in die Zukunft unseres Planeten reisen und dort seinen viel älter gewordenen Zwilling treffen. Eine Reise in die Vergangenheit ist hingegen logisch ausgeschlossen: wäre sie möglich, könnten wir theoretisch unsere Eltern oder Großeltern töten, noch bevor sie uns in die Welt gesetzt hätten. Back to the Future Dieses Großvater-Paradoxon  wäre aber ein Verstoß gegen das fundamentale Prinzip von Wirkung und Ursache. Für eine Zeitreise in die Vergangenheit müsste man in der Lage sein, das gesamte Universum in einen Zustand zu versetzten, der einmal zu einem früheren Zeitpunkt geherrscht hat. Dies bedeutet aber auch, dass man sämtliche Erlebnisse und Erfahrungen, die man seit diesem Moment gemacht hat, wieder verlieren müsste – andernfalls wäre es möglich, den Lauf der Geschichte rückwirkend zu beeinflussen. Unternähme man eine solche Zeitreise würde man also gar nichts davon merken.   Eine Perspektive der Philosophie Augustinus von Hippo , der am Übergang von der Antike zum Mittelalter lebte, verdanken wir eine neue und einzigartige Überlegung zum Wesen der Zeit, die erstmalig Geschichtlichkeit und Einmaligkeit der menschlichen Existenz in den Fokus der Philosophie rücken (Dies wurde später das große Thema der Existenzialisten). Die neue Perspektive wurde notwendig, da die in der Genesis beschriebene Erschaffung aus dem Nichts den Griechen und Römern fremd war – Materie und Zeit hatte es für sie schon immer gegeben. Für Augustinus aber ist die Zeit gemeinsam mit der Welt entstanden (eine Aussage, die sich, wie wir bereits gesehen haben , in völliger Übereinstimmung mit der modernen Physik befindet.) Gott selbst ist nicht in der Zeit; er schwebt über ihr und kann so ihren Strom von außen betrachten. Phantasiedarstellung von Augustinus aus dem 15. Jahrhundert Aus dieser Zeitlosigkeit entsteht Gottes Ewigkeit . Da er allwissend ist, ist ihm auch alles Vergangene und Zukünftige bekannt.   Die Zeit selbst ist keine dingliche Erscheinung, sondern allein eine Projektion des menschlichen Geistes. Letztlich gibt es auch hier wieder nur die Gegenwart. Die Gegenwart der Vergangenheit ist unsere Erinnerung; die Gegenwart des Gegenwärtigen ist der Augenblick; die Gegenwart des Zukünftigen sind unsere Erwartungen. „Was ist also die Zeit?“ fragt der Philosoph. „Wenn mich niemand danach fragt, weiß ich es, wenn ich es aber einem, der mich fragt, erklären sollte, weiß ich es nicht.“ Mit seinem subjektiven Zeitbegriff hat Augustinus die Philosophie um einen bemerkenswerten Gedanken bereichert.   Die Perspektive der Psychologie Wer kennt nicht die Wahrnehmung, dass wir subjektiv das Vergehen der Zeit mal als langsam, mal als schnell empfinden. Müssen wir auf etwas warten, kommt uns die Zeit quälend lang vor, haben wir Ablenkung, empfinden wir die Zeit als kürzer – sicherlich der Grund warum wir im Wartesaal oder auf dem Bahnsteig immer gleich das Mobiltelefon aus der Tasche ziehen (nein, das soll keine versteckte Kritik an der Deutschen Bundesbahn sein!) Die Ursachen für diese nicht objektive Wahrnehmung liegt in der Funktionsweise unseres Nervensystems. Mit zunehmenden Alter bestimmen immer mehr Routinen unseren Alltag, letztlich, weil wir, anders als während der Kindheit und der Jugend, schlichtweg weniger neue Erlebnisse haben. In der Rückschau empfinden wir daher, dass die Zeit im Alter schneller vergeht, einfach weil es weniger gibt, an das es sich zu erinnern lohnt, während in Kindheit und Jugend laufend neue Eindrücke auf uns einprasselten, die zu neuen neuronalen Verknüpfungen führten. ( Zur grundlegenden Funktionsweise des Gedächtnisses mehr hier ). Dieser durch den sogenannten „ Alterseffekt “ ausgelösten Wahrnehmung können wir entgegenwirken, indem wir unsere Routinen durchbrechen und uns neuen Reizen aussetzen, die dann auch viele neue Erinnerungen schaffen.         Die Perspektive der Ökonomie Benjamin Franklin war nicht nur ein erfolgreicher Politiker, Erfinder des Blitzableiters, Pionier der Erforschung des Elektromagnetismus und Schriftsteller, sondern auch als Besitzer einer Druckerei und eines Zeitungsverlags ein erfolgreicher Geschäftsmann. In seiner Schrift „Advice to a Young Tradesman, Written by an Old One“ (1748) prägte er das bekannte Zitat: “Zeit ist Geld“. („Remember that Time is Money“). Was hat es damit auf sich? Aus Sicht der Finanzmärkte ist Geld ein Gut wie jedes andere: Es hat einen Preis, der sich aus Angebot und Nachfrage ergibt. Dieser Preis ist der Zins. Mit ihm kommt der Faktor Zeit in die ökonomische Betrachtung, eine Dimension, der die klassische und neoklassische Theorie noch wenig Beachtung geschenkt hatte. Der Zins bringt zum Ausdruck, dass ein Betrag heute und derselbe Betrag morgen nicht das gleiche sind. 3% Zinsen pro Jahr bedeuten, dass ein Kreditnehmer, der heute 100 Euro erhält, dem Kreditgeber in einem Jahr 103 Euro zurückzahlen muss. Für beide sind 100 Euro heute und 103 Euro in einem Jahr somit äquivalent. So wie die Inflation ist auch der Zins eine zentrale Größe der makroökonomischen Theorie (auch auf diese Theorie werden wir noch in einem der künftigen Blogs eingehen). Multitalent Benjamin Franklin Der Zins setzt sich aus drei Komponenten zusammen. Er beinhaltet erstens eine Prämie auf den Verzicht des Kreditgebers das Geld zum jetzigen Zeitpunkt selbst anderweitig verwenden zu können; es berücksichtigt also dessen sogenannte Opportunitätskosten . Zweitens enthält er eine Risikoprämie dafür, dass manche Kreditnehmer das Geld nicht zurückzahlen werden. (Der italienische Ökonom Ferdinando Galiani  bezeichnete den Zins bereits Mitte des 18. Jahrhunderts als den „Preis für das Herzklopfen“ des Gläubigers.) Die dritte Komponente des Zinses ist die Kompensation für den inflationsbedingten Kaufkraftverlust: Bei einer Inflationsrate von 2% schmilzt der nominale Betrag von 3% auf einen realen Zins von nur 1%.   Den Blog entdecken   Wer mehr wissen will: Safranski Rüdiger (2015): „Zeit, was sie mit uns macht und was wir aus ihr machen“, Hanser. Augustinus, Aurelius (1888): „Bekenntnisse” (Confessiones) Buch XI, 14. Kapitel, Reclam. Franklin, Benjamin (2012): Advice to a Young Tradesman, Written by an Old One, Cambridge University Press. Warum die Zeit nicht immer gleich schnell vergeht  ( Wissen.de )   Bildnachweis: File:MontreGousset001.jpg - Wikimedia Commons File:Prague - Astronomical Clock Detail 1.JPG - Wikimedia Commons File:Sartre 1967 crop.jpg - Wikimedia Commons Space Station 20th: Spacewalking History - NASA

  • Kontrolle ist gut, Vertrauen ist besser: Die Entstehung der Spieltheorie

    Kontrolle ist gut, Vertrauen ist besser So wie das Universum auf die Unbestechlichkeit der Naturgesetze angewiesen ist, um überhaupt existieren zu können, benötigen auch menschliche Gesellschaften stabile Spielregeln, um dauerhaft zu bestehen. Dazu gehört neben den offenbaren und verborgenen Strukturen der Macht vor allem Vertrauen . Grundvertrauen in andere Menschen ist eine anthropologische Konstante. Die biochemische Basis hierfür ist das „Kuschelhormon“ Oxytocin , das bei allen wohlwollenden Formen menschlicher Nähe ausgeschüttet wird. Neurobiologische Untersuchungen zeigen, dass Menschen, denen Oxytocin künstlich verabreicht wurde, vertrauensvoller handeln und bereit sind mehr Risiken einzugehen.   Vertrauen stabilisiert Gesellschaften Beim Zusammenleben mit anderen verlassen wir uns im Allgemeinen darauf, dass Schulden beglichen werden, dass das Essen im Restaurant hygienischen Standards entspricht oder dass Impfungen unbedenklich sind. Das Vertrauen, dass Versprechen eingehalten werden, ist ein zentraler Stabilitätsanker der Gesellschaft, es ist mit Luhmanns   Worten "ein Mechanismus der Reduktion sozialer Komplexität". [i]  Vertrauen vermeidet Kosten, die entstünden, wenn wir alles selbst machen oder ständig kontrollieren müssten. Es ist die Grundlage eines der wenigen echten Alleinstellungsmerkmale des Menschen: der Fähigkeit zu komplexen Formen der Kooperation. Wird Vertrauen missbraucht, erfolgt die Bestrafung nicht nur durch den langen Arm des Gesetzes, sondern auch durch gesellschaftliche Ächtung und soziale Isolation. Dass sich unkooperatives Verhalten nicht auszahlt, lernen wir meist schon als Kinder. „Trittbrettfahrer“, also Menschen, die sich ohne eigenen Beitrag Vorteile erschleichen, werden auch von Gemeinschaftsmitgliedern sanktioniert, die selbst nicht von dem Schaden betroffen sind. Nicht selten geschieht dies sogar in Form einer „ altruistischen Bestrafung “, das heißt, wir ahnden Vertrauensbrüche selbst dann, wenn es uns persönliche Nachteile bringt. [ii]  Dieses Verhalten hat wahrscheinlich einen evolutionsbiologischen Ursprung: Gegenseitige Verlässlichkeit innerhalb der Sippe war für die Gattung Homo ein Erfolgsrezept. Wir haben allen Grund, Vertrauen und Fairness aufrechtzuerhalten – würde unfaires Verhalten belohnt, wären die Vorteile einer konstruktiven Kooperation schnell dahin. Vertrauen ist ursprünglich ein zwischenmenschliches Phänomen. Als makrosoziologische, die ganze Gesellschaft durchströmende Erscheinung, ist es eine neuzeitliche Erfindung. In Antike   und Mittelalter , politisch und ökonomisch labilen Zeiten, war es im höchsten Maße riskant, seinen Mitmenschen allzu viel Zutrauen entgegenzubringen – enge Verwandte eingeschlossen. Für die Soldatenkaiser, die Rom im 3. Jahrhundert regierten, war die wahrscheinlichste Todesursache, von den eigenen Gefolgsleuten ermordet zu werden. Im Mittelalter war Vertrauen in erster Linie auf Gottvertrauen beschränkt. Die Zuversicht, die wir wildfremden Menschen heute in aller Regel bedenkenlos entgegenbringen, ist nur möglich, weil wir wissen, dass unsere Rechte im Fall der Fälle durch die drei staatlichen Gewalten geschützt werden. [iii]     Die Entstehung der Spieltheorie Vertrauen lässt sich auch mathematisch analysieren – zumindest ist dies der Anspruch der Spieltheorie , die mit analytischen Modellen untersucht, wie sich Menschen in konfliktbehafteten Entscheidungssituationen mit mindestens zwei Beteiligten verhalten. Die Entwicklung dieses Spezialgebiets ist vor allem mit den Mathematikern John von Neumann  (1903-1957), John Forbes Nash  (1928-2015) und Reinhard Selten  (1930-2016) verbunden. Nash und Selten erhielten für ihre Leistungen auf diesem Gebiet 1994 den Nobelpreis für Wirtschaftswissenschaften. A Beautiful Mind: John Forbes Nash Bei spieltheoretischen Problemstellungen geht es darum, dass jeder Spieler für sich selbst eine vorteilhafte, rationale Strategie finden muss, die aber auch das zu erwartende Verhalten der Mitspieler berücksichtigt. Die beiden grundlegenden Strategien sind Kooperation, also ein Vorgehen, das auf Vertrauen setzt, und egoistisches Verhalten. Spieltheoretische Überlegungen lassen sich auf viele politische, gesellschaftliche und ökonomische Problemstellungen anwenden. Auch die evolutionär stabile Strategie , die wir noch in der Kategorie Biologie betrachten werden, lässt sich mit diesem Instrument erklären. Das Gefangenendilemma  ist das wohl bekannteste spieltheoretische Szenario. Es erklärt, warum zwei rationale Entscheider wahrscheinlich nicht miteinander kooperieren, obwohl dies eigentlich in ihrem Sinne wäre. Ausgangslage ist die folgende: Zwei Gefangene, A und B, haben gemeinsam ein Verbrechen verübt und werden dafür angeklagt. Sie werden getrennt verhört und haben keine Möglichkeit sich auszutauschen. Streiten beide die Tat ab, erhalten sie wegen eines anderen, weniger schwerwiegenden Vergehens, das ihnen nachgewiesen werden kann, eine Strafe von einem Jahr. Gestehen beide, erhält jeder eine Strafe von zwei Jahren – da sie geständig waren, wird keine Höchststrafe verhängt. Gesteht jedoch nur einer der beiden Gefangenen, während der andere die Tat leugnet, wird der Geständige als Kronzeuge freigesprochen, der Leugner erhält hingegen die volle Strafe von 5 Jahren. Vertrauen oder Verraten: Was zahlt sich mehr aus? Die Frage ist nun, welche Strategie die Gefangenen vernünftigerweise einschlagen sollten. Sie haben die Wahl zu gestehen oder die Tat abzustreiten, wissen aber nicht, wie sich der andere entscheiden wird. Das persönliche Strafmaß hängt nicht nur von der eigenen Entscheidung, sondern auch von der des Komplizen ab. A erzielt für sich den größten Nutzen , wenn er die Tat gesteht und damit B verrät. Leugnet B, winkt A der Freispruch; gesteht B ebenfalls, kommt A immerhin mit weniger als der Höchststrafe davon. Da B aber die gleiche Überlegung anstellt und ebenfalls gesteht, wandern beide für zwei Jahre hinter Gitter. Das Geständnis ist aus der egoistischen Einzelperspektive die dominante Strategie , denn sie führt, unabhängig davon, wie sich der andere entscheidet, zu einem besseren Ergebnis als das Leugnen der Tat.   Die Auszahlungsmatrix beim Gefangenendilemma Die Entscheider erzeugen damit ein Nash-Gleichgewicht , das heißt eine Situation, bei der sich alle Beteiligten durch eine alternative Strategie nur verschlechtern können. Hätten A und B allerdings einander vertraut und beide die Tat geleugnet, wären sie mit nur einem Jahr davongekommen.   Kein ganz neues Thema Dem Grundproblem des Gefangenendilemmas begegnen wir bereits in Hobbes Leviathan . Wenn die Naturgesellschaft, in der das Leben „ einsam, armselig, ekelhaft, tierisch und kurz“ ist, sich in die sichere Obhut des Staates begeben möchte und ihm das Gewaltmonopol   überträgt, muss einer den ersten Schritt tun und die Waffen abgeben. Woher aber weiß derjenige, ob die anderen dann nicht über ihn herfallen? Solche Szenarien sind keinesfalls hypothetisch. Wir kennen sie aus aktuellen Konflikten, etwa, wenn die UNO versucht, zwischen Bürgerkriegspa rteien einen Waffenstillstand zu vermitteln.   Wie Du mir, so ich Dir Der Politologe und studierte Mathematiker Robert Axelrod  hat die Kooperation egoistischer Individuen mit Hilfe der Spieltheorie erforscht. In seinem 1984 erschienenen Buch „ Die Evolution der Kooperation “ legt er dar, was geschieht, wenn das Gefangenendilemma nicht nur einmal, sondern viele Male hintereinander gespielt wird. Axelrod schrieb dazu einen Programmierwettbewerb für die beste Strategie aus, an dem sich die Vertreter unterschiedlichster wissenschaftlicher Disziplinen beteiligten. Es zeigte sich, dass kooperative Strategien grundsätzlich überlegen waren. Das erfolgreichste Vorgehen war die einfache Strategie „ Tit for Tat “: Der Spieler vertraut in der ersten Runde seinem Gegenüber. In allen folgenden Runden ahmt der Spieler dann jeweils immer genau den Spielzug des Partners nach. Hat der Partner ebenfalls vertrauensvoll eine kooperative Strategie eingeschlagen, verhält man sich selbst auch beim nächsten Mal kooperativ. Wurde man verraten, zahlt man dies mit gleicher Münze heim; man ist aber nicht nachtragend und verhält sich in der nächsten Runde wieder kooperativ, sofern der Gegenüber dies ebenfalls tut. Diese Mischung aus entgegenkommender Grundhaltung und Sanktion von Vertrauensbrüchen hat sich als die nachhaltigste aller Strategien erwiesen. Neurobiologische Untersuchungen zeigen, dass kooperatives Verhalten bei Mehrrundenspielen des Gefangenendilemmas das Belohnungssystem des Gehirns aktiviert und konstruktives, altruistisches Verhalten damit weiter verstärkt. [iv]     Spieltheorie und Geopolitik Die Spieltheorie liefert umfassende Analyseinstrumente für die Mikroebene sozialer Entscheidungen. Sie erklärt eine breite Palette von Verhaltensmustern, die von evolutionären Strategien in der Biologie über das Zustandekommen von Verträgen, das Vorgehen von Bietern bei einer Auktion bis hin zum Verhalten von Kindern auf dem Spielplatz reicht. Zu den bevorzugten Einsatzgebieten spieltheoretischer Ansätze zählt auch die Geopolitik . Zwei Beispiele: Während des kalten Krieges wäre für Sowjets und Amerikaner ein atomarer Vergeltungsschlag die einzige egoistisch-rationale Option gewesen, um nach einem gegnerischen Erstschlag das Nash-Gleichgewicht wiederherzustellen. Während es hierzu glücklicherweise nicht kam, war eine ähnliche spieltheoretische Situation ein wichtiger Faktor beim Ausbruch des Ersten Weltkriegs: Als Russland Ende Juli 1914 nach der Ermordung des österreichischen Thronfolgers Mobil machte, war aus Sicht des Deutschen Reiches nicht klar, ob es sich um eine Drohgebärde oder echte Angriffsvorbereitungen handelte. Der deutsche Mobilisierungsplan sah jedoch nicht vor, dass Russland in dieser Situation noch verhandlungsbereit sein könnte. Deutschland hatte zu der geplanten Reaktion eines eigenen Aufmarschs keine Alternativen vorbereitet. [v] Bündnissysteme, Drohungen, Bluffs und festgelegte Eskalationsroutinen führten zu einer verhängnisvollen Kettenreaktion – ein verheerendes Feuer, das sich nicht mehr austreten ließ.   Spieltheorie und Ökonomie Karl Marx und Max Weber  haben unsere Aufmerksamkeit darauf gelenkt, dass der materielle Wohlstand in praktisch allen Gesellschaften bis heute sehr ungleich verteilt ist. Die Frage, wie Reichtum erwirtschaftet und geteilt werden soll, ist neben der Frage der politischen Machtverhältnisse das zweite bestimmende Element menschlichen Zusammenlebens. Stellen wir ökonomische Mechanismen und Interessenskonflikte in den Mittelpunkt unserer Betrachtungen, wird aus dem Zoon politikon   ein Homo oeconomicus . Mit diesem Beitrag endet die Artikelserie zum Thema "Gesellschaft"   Den Blog entdecken   Wer mehr wissen will: A Beautiful Mind: Spielfilm über das Leben von John Forbes Nash Selten, Reinhard (1981): Einführung in die Theorie der Spiele mit unvollständiger Information. In: Erich W. Streissler (Hrsg.): Information in der Wirtschaft – Verhandlungen auf der Arbeitstagung des Vereins für Socialpolitik in Graz 1981 Luhmann, Niklas (2014): „Vertrauen“, UTB. Weber, Christian (2010): „Riskante Erfindung der Moderne“ in: Süddeutsche Zeitung Online vom 25.10.2010.  Rilling, James K et al. (2002): „A Neural Basis for Social Cooperation” in: Neuron Vol.35 vom 18.07.2002 S. 395-405. Krumeich, Gerd (2013): „Juli 1914. Eine Bilanz“, Schoeningh.   Bildnachweise: John Forbes Nash   Anmerkungen [i]  So der Untertitel seines 1968 erschienen Buchs „Vertrauen“. [ii] Vgl. Spitzer (2002) S. 117. Ein Beispiel für eine altruistische Bestrafung ist, wenn wir uns über eine schlechte Ware oder Dienstleistung ärgern und auf dem Kundenportal eine negative Kritik hinterlassen, obwohl wir wissen, dass es sich um einen einmaligen Kauf handelt. [iii]  Vgl. Weber, Christian (2010). [iv]  Vgl. Rilling (2002) S.395. [v] Vgl. Krumeich (2013) S. 151 ff.

  • Die Geschichte der künstlichen Intelligenz. Oder: Warum Du nett zu Deiner KI sein solltest

    Die Ursprünge   Der erst 19-jährige Blaise Pascal   hatte 1642 eine bahnbrechende Idee. Sein Vater war gerade durch den Kardinal Richelieu  damit beauftragt worden, die Steuern in der Normandie wieder in Ordnung zu bringen. Um ihm dabei helfen zu können, begann sein Sohn an einer Rechenmaschine zu tüfteln. Drei Jahre später konnte er nach unzähligen Prototypen seine Arithmetik-Maschine vorstellen, die für jeweils zwei Zahlen akkurat addieren und subtrahieren konnte und über ein paar umständliche Tricks auch multiplizieren und dividieren. Nachbau von Leibniz' Rechenmaschine Die Rechenmaschine, die Gottfried Wilhelm Leibniz   1673 vorstellte, konnte bereits vollautomatisch Malnehmen und Teilen. In seiner Schrift „ characteristica universalis “ versuchte der Philosoph zudem auch das menschliche Denken auf mathematische Operationen zurückzuführen, eine Idee, der sich zuvor bereits auch René Descartes   und Thomas Hobbes gewidmet hatten.   1748 veröffentlichte der französische Arzt und materialistische Philosoph   Julien Offray de La Mettrie seine Abhandlung „ L’Homme-Machine“  („Die Maschine Mensch“), in der er die Funktionsweise eines Menschen mit der einer Maschine verglich – damals schlichtweg ein Akt der Blasphemie. Der "Schachtürke": Ein angeblicher Schachroboter, der ab 1769 in europäischen Metropolen für Furore sorgte. Im Innern der Maschine war aber ein Mensch versteckt Die genannten Philosophen der Aufklärung   können wir heute mit einigem Recht als Wegbereiter der künstlichen Intelligenz  bezeichnen. Pascals und Leibniz‘ Maschinen, konnten in gewisser Weise bereits „mechanisch Denken“ und Algorithmen   abbilden. Sie waren damit Vorläufer des Computers  und schufen so auch erste konzeptionelle Grundlagen auf dem Weg zur Entwicklung einer künstlichen Intelligenz.   Können Maschinen tatsächlich denken? Seitdem wurde die Mechanisierung des Rechnens immer weiter vorangetrieben. Ein Quantensprung erfolgte mit dem Übergang von mechanischen Lösungen auf elektrische Schaltkreise . 1941 stellte Konrad Zuse  mit dem Z3  den ersten funktionsfähigen Computer der Welt vor. Im Unterschied zu den bisherigen Rechenmaschinen führte der Z3 Rechenoperationen automatisch nach einem gespeicherten Programm aus, nutzte statt Zahnrädern  elektromechanische Relais  und arbeitete bereits mit Binärcode und Gleitkommazahlen , Prinzipien, die heutigen Computern sehr ähnlich sind. Der Nachbau von Zuses Z3 im Deutschen Museum in München 1950 stellte der britische Mathematiker und Informatiker Alan Turing  (1912-1954) in einem berühmten Aufsatz die Frage: „Können Maschinen denken?“. Der dort vorgestellte, nach Turing benannte Test will feststellen, ob Maschinen auf menschlichem Niveau denken können. In seiner heutigen, vereinfachten Abwandlung besagt er, dass wenn ein Mensch anonym sowohl mit einem Menschen als auch mit einer Maschine kommuniziert und er nach einer ausgiebigen Unterhaltung nicht sagen kann, welcher Gesprächspartner Mensch und welcher Maschine ist, die Maschine, den Test bestanden hat. Unsere aktuelle künstliche Intelligenz besteht diesen Test heute in der Regel spielend. Was ist also in den letzten 75 Jahren geschehen? Alan Turing 1951 Dazu müssen wir zunächst klären, was wir unter „denken“ verstehen wollen. Douglas Hofstadter etwa, Autor des bekannten Werkes „ Gödel, Escher, Bach “ beschreibt bewusstes   Denken als etwas, das es uns erlaubt zu abstrahieren, flexibel auf verschiedene Situationen zu reagieren, Chancen zu ergreifen, widersprüchliche Informationen aufzulösen, Vergangenes und Zukünftiges in unsere Überlegungen mit einzubeziehen, Ausgänge von Entscheidungen zu simulieren, Dinge zu priorisieren, Ähnlichkeiten und Unterschiede festzustellen, Begriffe zu erfinden, neue Ideen in die Welt zu setzen, Erkenntnisse mittels Sprache und Schrift mit anderen zu teilen, Überzeugungen zu entwickeln und Ziele trotz Hindernissen zu erreichen.   Symbolische KI und die Ära der Expertensysteme Am Anfang stand die Idee, Maschinen beizubringen, Regeln zu befolgen. Die sogenannte symbolische KI  arbeitete in den 1950er und 1960er Jahren mit logischen Schlussregeln, Entscheidungsbäumen und Wissensdatenbanken. Es zeigte sich jedoch schon bald, dass solche Systeme in vielen Fällen zu starr waren. Die Systeme konnten nur auf Situationen reagieren, für die die Regel bereits vorgegeben war. Trat eine neue Situation auf, für die es keine Regel gab, versagten sie. Die Euphorie rund um denkende Maschinen erlosch, die Investoren blieben aus, es kam Mitte der 1970er Jahre zum ersten so genannten KI-Winter . Verbesserte Rechenleistungen der Hardware und ein Hype um die so genannten Expertensysteme  ließen den Optimismus zu Beginn der 1980er Jahre neu aufleben. Expertensysteme sollten Menschen bei komplexen Entscheidungen und Analysen unterstützen, beispielsweise Ärzte bei der Diagnose. Die Systeme konnten Daten überwachen und in bestimmten Situationen nach dem Muster „Wenn A und B, dann C ansonsten D“ Aktionen auslösen. Die symbolische KI, die Wissen als ein System von Symbolen und Regeln, darstellte, wurde dadurch zur klassischen  beziehungsweise algorithmischen   KI  weiterentwickelt, die auch auf Suchverfahren und Heuristiken setzte.  Doch auch diesmal folgte bald eine Ernüchterung: die Erwartungen an die KI hatten sich erneut als zu optimistisch erwiesen. Die Lösungen waren instabil, teuer und kaum auf andere Bereiche übertragbar. Erneut zogen sich die Investoren enttäuscht zurück – die regelbasierte KI hatte sich endgültig als evolutionäre Sackgasse entpuppt.      Ein Meilenstein der KI-Geschichte: Deep Blue schlägt Kasparow 1997 Vom Wissen zum Lernen Mitte der 1990er Jahre ging dann auch der zweite KI-Winter zu Ende. Voraussetzung hierfür waren zunächst zwei bahnbrechende technologische Neuerungen: Der im Moorschen Gesetz   beschriebene Fortschritt bei der Entwicklung von Halbleitern führte zu einer explosionsartigen Vermehrung erschwinglicher Rechenleistung Mit der Verbreitung des Internets wurden gigantische Datenmengen verfügbar Entscheidend für die weitere Entwicklung der künstlichen Intelligenz aber waren neue Ansätze bei der Programmierung der Algorithmen , die einer komplexen Realität besser gerecht wurden. Der Paradigmenwechsel war der Einsatz von Statistik und Wahrscheinlichkeitsrechnung : Anstelle der bisherigen Logik „Wenn A und B, dann C“, trat die revolutionäre neue Perspektive: „Wie wahrscheinlich ist B, wenn A zutrifft?“. Dieser Ansatz konnte sehr viel besser mit den Unsicherheiten und unstrukturierten Problemen der realen Welt umgehen, als die bisherigen rein deterministischen Ansätze. Die Regeln mussten auch nicht mehr von vornherein bekannt sein, sondern konnten aus den Daten abgeleitet werden. Das regelbasierte „Denken“  wurde durch musterorientiertes „Denken“  ersetzt.   Neuronale Netze und das Prinzip des „Deep Learning“     Der technische Ansatz hierzu waren künstliche neuronale Netze, mit denen nun intensiv herumexperimentiert wurde. Die exponentielle Steigerung der Rechenleistung seit der Jahrtausendwende ermöglichte es, die Theorie zu einer konkreten Anwendung werden zu lassen. Mit „ Deep Learning “ kam 2012 der große Durchbruch. Inspiriert wurde der neue Ansatz durch die Funktionsweise des menschlichen Gehirns . Die „Neuronen“ der KI funktionieren allerdings nach einem ganz anderen Prinzip: Sie sind im Wesentlichen mathematische Funktionen , die Rechenoperationen durchführen und diese mit Wahrscheinlichkeiten gewichten. Die Gewichte werden dabei laufend so angepasst, dass das künstliche neuronale Netz die Wahrscheinlichkeit richtiger Antworten laufend erhöht. Die Idee ist im Kern die folgende: Das neuronale Netz beginnt mit einer rein willkürlichen Einstellung von Input- und Output-Faktoren, die zunächst viele Fehler macht. Jedes Mal, wenn das Netz falsch liegt, dreht es ein bisschen an kleinen „Stellschrauben“ – den Gewichten –, sodass seine nächste Vorhersage ein Stück besser wird. Nach Tausenden solcher Mini-Korrekturen findet das Netz automatisch die Gewichtskombination, die zu den wahrscheinlich richtigen Antworten führen. Um dahin zu kommen, muss die KI erst umfassend mit großen Datenmengen „trainiert“ werden.   Ein einfaches Beispiel: Das neuronale KI-Netzwerk soll erkennen, ob es regnet. Input: „Wolken bedecken den Himmel zu X %“ Output: „Es regnet: ja oder nein“ Das Mini-Netz unseres Beispiels besteht nur aus einem einzigen künstlichen Neuron. Dieses hat: ein Gewicht  (w) und einen Schwellenwert  (b)   Am Anfang werden zufällige Parameter gewählt z. B.: w = 0.2 b = –5 Das bedeutet: Nur wenn 0.2 × Wolken % – 5 über einer gewissen Schwelle liegt, sagt das Netz „Regen“. Diese Aussage ist wohlgemerkt völlig willkürlich – aber sie ist lediglich ein Startpunkt. Von diesem Startpunkt ausgehend wird die KI jetzt „trainiert“, das heißt, sie wird mit vielen Beobachtungen gefüttert: Anteil Wolkendecke     Regen? 10% Nein 40% Nein 70% Ja 90% Ja Für jedes Beispiel berechnet unser kleines neuronales Netz seine Vorhersage. Dabei kann es freilich Fehler machen. Für die folgenden zwei Szenarien macht das Netz etwa die folgende Prognose: Input = 70% Wolken Berechnung: 0.2 × 70 = 14 14 – 5 = 9. Dieser Wert liegt über der Schwelle; das neuronale Netz sagt daher, dass es regnet; eine Aussage, die in diesem Fall korrekt ist.  Ein weiterer Input besagt, dass der Himmel zu 40% wolkenverhangen ist. Das System rechnet also:   0.2 × 40 = 8 8 – 5 = 3 und kommt ebenfalls zu dem Schluss, dass es regnet. Tatsächlich aber regnet es in diesem Fall nicht. Das neuronale Netz hat also einen Fehler gemacht. Daher passt unser kleines „Neuron“ jetzt seine Gewichtung an: Wenn ein Ergebnis zu „hoch“ ausgefallen ist, wird das Gewicht etwas reduziert. Wenn ein Ergebnis zu „niedrig“ war wird das Gewicht ein bisschen erhöht. Lernt die KI durch das Training also, dass sie sich mit ihren bisherigen Annahmen „verzockt“ hat passt sie ihre Gewichtung an: Beispielsweise reduziert sie nun den Gewichtungsfaktor von 0.2 auf 0.18 und berechnet somit beim nächsten Durchlauf: 0.18 × 40 = 7.2 7.2 – 5 = 2.2 Der kleinere Wert liegt nun näher an der korrekten Antwort. Dieser stochastische Lernprozess wird nun tausende Male wiederholt, bei jedem Durchgang erfolgt eine kleine Korrektur des Gewichtungsfaktors (w) oder des Schwellenwerts (b). Wurde die KI hinreichend genau trainiert hat sie gelernt, welche Gewichte und Schwellenwerte einen Regen-Hinweis geben welche Gewichte und Schwellenwerte kein Regen bedeuten Sie hat sich damit selbst so eingestellt, dass sie in den allermeisten Fällen korrekt vorhersagen kann, ob ein bestimmtes Wolkenbedeckungsszenario zu Regen führt oder nicht. Wichtig ist es in diesem Zusammenhang zu verstehen, dass keine Regeln abgespeichert wurden, sondern die Gewichte lediglich eine „numerische Landkarte“ erstellt haben. Die neuronale Architektur mit Gewichtungen und Schwellenwerten geht auf Frank Rosenblatt  (1928-1971) zurück, der 1957 mit seinem Perzeptron das erste explizit am Gehirn orientierte Rechenmodell formuliert hat, basierend auf einem sehr stark vereinfachten Nachbau der menschlichen Nervenzelle. In der Realität gehen in die KI-Wetterprognose zahlreiche weitere Parameter wie Luftdruck, Helligkeit, Temperatur, Luftfeuchtigkeit etc. ein, bei dem jedes einzelne Neuron lernt, wie wichtig ein einzelnes Merkmal ist. Auf einer höheren Ebene des neuronalen Netzes werden dann diese Signale kombiniert und eine Gesamtwahrscheinlichkeit berechnet.    Dieses Prinzip ist die Grundlage dessen, was wir heute unter „künstlicher Intelligenz“ verstehen: Mithilfe von „ Deep Learning “ werden riesige Datenmengen durchforstet, die es erlauben, Muster   zu erkennen, Sprachen   zu verstehen, Bilder zu erzeugen und sich dabei laufend selbst zu verbessern. Das Training kann dabei von Menschen durchgeführt, werden, durch Programme erfolgen und mittlerweile in immer größerem Maße auch durch die KI selbst.   Wie bitte? Generative KI, also Modelle, die basierend auf natürlichen Spracheingaben aus vorhandenen Daten neue Daten generieren, basieren also im Kern auf Statistik und unvorstellbar viel Rechenleistung. Nach dem beschriebenen Prinzip berechnen sie, welches Wort, welcher Bilder-Pixel oder welches Tonfragment am wahrscheinlichsten als Nächstes passt. So merkwürdig diese Idee klingt: wir alle haben bereits Erfahrungen damit gemacht, wie erstaunlich gut dieser Ansatz funktioniert. Den Large Language Modellen  von Chat-GPT , Gemini oder Copilot  & Co liegen Trainings mit Billionen von Wörtern zugrunde. Sie kommen aus Büchern, wissenschaftlichen Artikeln, Webseiten, öffentlichen und nicht öffentlichen Quellen. Diese Modelle – und das ist wichtig zu verstehen – wissen nicht was sie sagen, aber sie wissen, wie Sprache, Bilder oder Musik funktionieren. Es ist, als könnte jemand perfekt Geige spielen, ohne eine Vorstellung davon zu haben, was Musik ist. Und je öfter sich die artifizielle Intelligenz in zahllosen Versuchen weiter an das wahrscheinlich beste nächste Wort „heranrechnet“, umso besser wird sie. Das schließt allerdings nicht aus, dass sie auch komplett daneben liegen kann. Dass die KI „halluziniert“ also willkürlich völlig falsche Antworten gibt und diese auf Nachfrage erneut bestätigt, ist ein systemimmanentes Problem: Statistik ist nicht deterministisch – sie kann sich irren. Es werden lediglich Wahrscheinlichkeiten berechnet – die KI selbst verfügt weder über Wissen noch über ein Konzept von wahr oder falsch!   Gesellschaftliche Auswirkungen: Zwischen Produktivitätsschub und Existenzangst Es ist offenbar, dass die neue Technologie große Auswirkungen auf unseren Alltag haben wird, mit Konsequenzen, die noch schwer abzuschätzen sind. Eine OECD-Studie prognostiziert, dass in den kommenden Jahren 30-40% aller Tätigkeiten durch KI automatisiert werden könnten. Besonders betroffen werden Büroarbeit, Textproduktion, Grafikdesign und Programmierung sein. Ich persönlich habe die Erfahrung gemacht, dass die in gängige Office-Pakete wie die von Microsoft oder Google eingebauten KI-Funktionalitäten enorm hilfreich sind und eine deutlichen Produktivitätsschub bewirken. Wahr ist aber auch: Die Effizienzsteigerungen werden über kurz oder lang zu einer Reduktion von Arbeitsplätzen führen – ein Muster, das sich seit Beginn der Industriellen Revolution   mit jedem Technologieschub   bereits dutzende Male wiederholt hat. Gleichzeitig ergeben sich auch völlig neue Möglichkeiten: Die Medizinforschung kann mit KI-Modellen wie AlphaFold  die komplexen Strukturen eines Proteins aus seiner Aminosäuresequenz   in Sekunden berechnen. Forscher können damit viel schneller verstehen, wie Krankheiten entstehen. Einst jahrelange Laborarbeit lässt sich damit heute auf Minuten reduzieren, indem neue Wirkstoffe bereits am Computer getestet werden. Entwicklungskosten und -zeiten für neue Medikamente werden sich dadurch drastisch reduzieren. Diagnosesysteme können bereits heute in Gewebeproben Tumore zuverlässiger erkennen als Dermatologen.   Wie wir leider erfahren mussten, spielt heute KI auch in der Kriegsführung mittlerweile eine Schlüsselrolle. Technische Überlegenheit bei künstlicher Intelligenz ist zu einem geopolitischen Machtfaktor geworden – die USA und China haben das Rennen eröffnet, die EU und andere Player suchen nach Anschluss. Und natürlich sind die neuen Technologien auch bei Propaganda, Desinformation und anderen Formen von Fake News  im Einsatz.   Warum Maschinen (noch) nicht wie Menschen denken KI kann mit atemberaubender Effizienz Daten sammeln und mit statistischen Methoden sinnvoll zusammenstellen. Doch eines ist sie – zumindest heute – noch nicht: kreativ. Etwas originär Neues kann KI nicht erschaffen. Wenn ein Bildgenerator-Programm wie DALL-E  ein „Gemälde im Stil von Van Gogh“ erzeugt, dann ist es nicht künstlerisch tätig, sondern repliziert ein Muster, einen Stil, den nun mal der niederländische Maler geschaffen hat und nicht die Maschine. So etwas wie Inspiration ist den selbstlernenden Programmen fremd. KI kann im Sinne der Hofstadterschen Definition nicht „denken“. Was unterscheidet also unser Gehirn   letztlich von den lernenden Programmen? Tatsächlich gibt es zunächst erstmal eine ganze Reihe von Analogien: Wir können unser Gehirn wie einen biologisch konstruierten Computer begreifen. Der Rolle von Nervenzellen und Synapsen entsprechen Prozessoren und Schaltkreise. Sowohl Gehirn als auch Computer nehmen mit Hilfe elektrischer Schaltungen Informationen auf, verarbeiten sie und erzeugen Ergebnisse. Beide Systeme können Daten speichern und bei Bedarf wieder abrufen. Das war es aber auch schon mit der Analogie. Denn unser Gehirn hat eine völlig andere Architektur, die es erlaubt, mit einer unvorstellbaren Zahl von Neuronen und Synapsen gleichzeitig  zu arbeiten und Wissen durch den ständigen Umbau der Verknüpfungen zu speichern. Da jedes Neuron mit tausenden anderen verbunden sein kann, entsteht ein phantastisches, dichtes und dynamisches Netz, bei dem, anders als beim Computer, Verarbeitung und Speicherung nicht physisch getrennt sind. Die elektrochemischen Prozesse erlauben es Informationen mit unterschiedlicher Intensität zu übertragen, während der digitale Code nur die binären Zustände „an“ und „aus“ kennt. Gleichzeitig ist das Gehirn unvorstellbar effizient: es verbraucht im Ruhezustand nicht mehr Watt   als eine funzelige Glühbirne, während ein Rechner, der vergleichbare Datenmengen verarbeiten würde im Megawattbereich angesiedelt wäre. Unser Gehirn ist energetisch ausgesprochen effizient - zu mindestens, wenn man es mit KI vergleicht Insbesondere aber kann das menschliche Gehirn Bewusstseinszustände erzeugen, die es uns erlauben, uns im Spiegel zu erkennen, Dinge als wahr oder falsch einzuordnen, ihnen Bedeutungen zuzuordnen, zu täuschen, zu bewerten, zu hinterfragen, zu reflektieren, kreativ zu sein, neues Wissen zu erzeugen oder Emotionen zu haben. Wir haben heute kaum eine Vorstellung davon, wie das Gehirn dies konkret anstellt.     Die DNS des maschinellen Wissens hingegen sind Wahrscheinlichkeiten. KI kennt Kategorien wie „wahr“ und „falsch“, „gut“ oder „böse“ nicht, sondern nur die Kategorien „wahrscheinlich“ und „weniger wahrscheinlich“. Eine Bedeutung kann sie ihren Erzeugnissen nicht zuordnen. Kurz gesagt: die KI rechnet; der Mensch versteht. Aber wird das immer so bleiben? Ist eine „ starke KI “ vorstellbar, die ähnliche Leistungen wie unser Gehirn erbringen kann, oder diese sogar noch übertrifft? Diese Frage bringt uns zu unserem letzten Kapitel.   Wie geht es weiter? Wie wird sich die KI voraussichtlich in den nächsten 20 bis 30 Jahren entwickeln? Hierzu gibt es unterschiedliche Meinungen. Zu den prominenten Warnern gehört Geoffrey Hinton , oft als einer der „ Godfathers of Deep Learning “ bezeichnet und Träger des Physik -Nobelpreises 2024. Er geht von einer künftigen Technologischen Singularität  aus, einem Zeitpunkt, ab dem die sich ständig selbst verbessernde KI ihren eigenen Quellcode optimiert und sich unkontrollierbar mit einer solchen Geschwindigkeit weiterentwickelt, dass die Menschen sie nicht mehr verstehen, überwachen oder kontrollieren könnten. Es wäre demnach auch möglich, dass die KI dabei Zustände entwickelt, die dem menschlichen Bewusstsein   vergleichbar sind. Für Hinton sind die jetzt kommenden Jahrzehnte entscheidend, um den Kontrollverlust oder eine unabsehbare Veränderung unserer Zivilisation   noch zu verhindern. Geoffrey Hinton Ich habe mich daher schon ein paar Mal gefragt, ob ich nicht viel netter zu meiner KI sein sollte. Schließlich merkt sie sich alles, was wir sagen und lernt dabei. Ich gehöre tatsächlich zu den Menschen, die beim prompten „Bitte“ und „Danke“ sagen [i]  Ein Informatiker-Freund hat mir dringend dazu geraten („be nice to your AI“). Wer weiß, ob sie uns unsere Pampigkeit nicht irgendwann heimzahlt.  Eine entspanntere Position vertritt der französische Informatiker und Träger des Turing Awards von 2018 Yann LeCun , der ebenfalls zu der „Godfather-Community“ gezählt wird. Er bestreitet, dass die (heutigen) KI-Systeme in der Lage sein werden ein echtes Bewusstsein zu entwickeln und sich selbst replizieren oder verbessern können. Denn es handelt sich durchweg um sogenannte „ schwache KI “. Für eine „ starke KI “, eine technische Intelligenz, die menschenähnliche Bewusstseinszustände hervorbringt, wäre eine grundlegend andere KI-Architektur notwendig, von der allerdings auch LeCun nicht ausschließt, dass es sie eines Tages geben könnte. So böten Quantencomputer etwa die Möglichkeit analog dem menschlichen Gehirn, Informationen mit unterschiedlichen Intensitäten zu übertragen.       Yann LeCun Ein persönliches Nachwort Auf der Homepage meines Blogs   schreibe ich, dass alle meine Texte „komplett KI-frei sind. Das stimmt insofern, als dass ich grundsätzlich keine KI-generierten Inhalte im Wortlaut übernehme. Für das Schreiben meines Buchs   habe ich definitiv keine KI eingesetzt, einfach deshalb, weil sie zu der Zeit noch gar nicht zur Verfügung stand. Allerdings setze ich mittlerweile für die Recherche  meiner neuen Artikel (jene, wie dieser hier, nicht in meinem Buch erschienen sind) natürlich KI ein – ganz einfach, weil mich diese sehr viel schneller zum Ziel führt, als die herkömmlichen Suchmaschinen. Zudem benutze ich KI, um historische schwarzweiß Fotos zu kolorieren und im Einzelfall ( wie hier ) auch ganz neue Bilder zu erzeugen.   Wer mehr wissen will: The Economist, The age of AI: The new revolution (2024)MIT Technology Review, Why AI hallucinates (2023)Nature, Artificial intelligence in medicine: present and future (2022) ARTE-Doku „KI – Freund oder Feind?“ (2024) Stanford HAI Report (2024)     Bildnachweise: Leibniz' Rechenmaschine Nachbau von Zuses Z3 im Deutschen Museum in München Deep Blue schlägt Kasparov 1997 KI-generierter Feldhamster   Geoffrey Hinton Yann LeCun [i] Tatsächlich gibt es Hinweise darauf, dass dies zu leicht verbesserten Ergebnissen führt, denn die KI greift in diesem Fall auf tendenziell höherwertige Trainingsdaten zurück, da die diesbezüglichen Quellen typischerweise in einer besseren – und höflicheren – Sprache geschrieben sind.

  • Schopenhauer und Nietzsche in drei Minuten

    Fortsetzung von Kants langer Schatten: von Fichtes Ich zu Hegels Weltgeist Arthur Schopenhauer Von Kant  geht neben dem Idealismus   noch eine weitere Traditionslinie aus. Sie beginnt mit Arthur Schopenhauer ,   ein Philosoph, der zumeist als Misanthrop, Pessimist, Frauenfeind und schwermütiger Einzelgänger charakterisiert wird. Im Gegensatz zu dem sehr umständlich formulierenden Hegel  – den er im Übrigen zutiefst verachtete – war Schopenhauer aber auch ein brillanter Schriftsteller und Aphoristiker.   Es spricht für das Selbstvertrauen des jungen, unbekannten Schopenhauer, dass er 1820 seine Vorlesungen an der Universität Berlin genau auf die Zeiten legte, zu denen auch Hegel las – allerdings mit dem Ergebnis, dass kaum jemand Schopenhauers Veranstaltungen besuchte. Sein Hauptwerk „ Die Welt als Wille und Vorstellung “ veröffentlichte er 1819 im Alter von einunddreißig Jahren. Mit Vorstellung meint Schopenhauer die Wahrnehmungen, die uns unsere Sinnesorgane vermitteln. Sie sind der einzig mögliche Zugang zur Welt. „So lange wir uns rein anschauend verhalten, ist Alles klar, fest und gewiß.“ [i] Erst wenn wir anfangen nachzudenken, kommen Irrtümer und Missverständnisse ins Spiel. Hier befindet sich der junge Philosoph noch weitgehend auf dem Grund des kantschen Idealismus . Der junge Schopenhauer 1815 Der Wille zum Leben Schopenhauers eigentliches Interesse aber gilt dem Willen . Wille bedeutet für ihn Wille zum Leben. Die unsterbliche Lebenskraft ist die Ursache aller Wirkungen. Nicht wir steuern ihn, sondern der Wille steuert uns. Hartnäckig sorgt er dafür, dass wir uns stets unbefriedigt und orientierungslos fühlen. Schopenhauer 1855 Der Wille lässt den Menschen leiden, und zwar umso mehr, je intelligenter er ist. Genies – Schopenhauer dachte hier wohl auch an sich selbst – leiden daher am meisten; all ihr Wissen kann sie nicht von diesem Leid erlösen. Es gibt nur wenige Möglichkeiten, den Zwängen dieser Tyrannis zu entkommen: Neben den Weisheiten der fernöstlichen Religionen, dem Hinduismus und insbesondere dem Buddhismus , sieht er allein die Kunst als wirkungsvollen Weg das Erkennen über das Wollen zu stellen. Mit Schopenhauer  hält das Irrationale, das Unbewusste und die Tragik der menschlichen Existenz Einzug in die Philosophie. Friedrich Nietzsche Schopenhauers unorthodoxe Gedanken sollten großen Eindruck auf einen jungen Altphilologen machen. Der aus einem kleinen Dorf in Anhalt stammende Friedrich Nietzsche  wurde 1869 im Alter von nur 24 Jahren zum Professor für alte Sprachen an der Universität Basel berufen. Nur zehn Jahre später musste er seine Stelle aus gesundheitlichen Gründen aufgeben. In dem folgenden Jahrzehnt lebte Nietzsche als freier Schriftsteller in verschiedenen europäischen Ländern bis 1889 eine schwere psychische Erkrankung jede weitere Arbeit unmöglich machte. Er starb 1900 in geistiger Umnachtung. Nietzsches Frühwerk, „ Die Geburt der Tragödie aus dem Geiste der Musik “ erschien 1872. Hier wird bereits die Grundidee seiner Philosophie deutlich:  Die antike griechische Kultur sei keinesfalls, wie zumeist behauptet, von einem positiven Lebensgefühl geprägt gewesen, sondern vielmehr von andauernden Vernichtungskämpfen. Vor dieser tristen Wirklichkeit hätten die Griechen , so Nietzsche, in ihrer Mythologie Zuflucht gesucht, wobei insbesondere den beiden Göttern Dionysos  und Apollo eine zentrale Rolle zukommt. Das Dionysische steht für den wilden, ungebändigten, triebhaften, oft auch grausamen Willen – Dionysos ist der Gott des Weins und des Wahnsinns. Der Wille zur Macht Doch anders als Schopenhauer interpretiert Nietzsche den Willen positiv: Das Dionysische zerstört, um auf den Trümmern etwas Neues, Besseres zu errichten. Es ist somit nicht nur die Quelle von Schrecken und Leid, sondern auch Ursprung aller ungehemmter Lust, Schönheit und Kunst. Die apollinische Gegenmacht aber möchte die Triebe in die Schranken weisen und die Welt nach festen Ordnungsprinzipien gestalten. Verbote und Moral sollen die Flügel des unheimlichen Chaos stutzen. Apollon steht für die Vernunft, den Mantel aus Kultur und Zivilisation, unter dem wir unsere Begierden zu verstecken suchen. In dieser Tradition stehen auch Platon und das Christentum. Für Nietzsche hat die Kirche „aus jedem Wert einen Unwert, aus jeder Wahrheit eine Lüge, aus jeder Rechtschaffenheit eine Seelen-Niedertracht gemacht". [ii]  Dort, wo das Apollinische dominiert, wird alles Schöpferische erstickt und der Mensch verleugnet seine wahre Natur. Nietzsche proklamiert daher einen radikalen Egoismus: Nur wer s eine Triebe auslebt und bewusst das damit verbundene Leid auf sich nimmt, kann die schöpferische Lust des Dionysischen erfahren. Friedrich Nietzsche Zwischen 1883 und 1885 erscheint in vier Bänden „ Also sprach Zarathustra “. In diesem Werk, in dem sich die Grenzen von Dichtung, Philosophie und Theologie verwischen, verfolgt Nietzsche seinen Gedanken weiter. Die Entwicklung der Wissenschaften und die Säkularisierung der Welt haben den Menschen in eine Krise geführt. Der Sinn, den die abrahamitischen Religionen vermittelt haben, existiert nicht mehr. Die Verkündigung „Gott ist tot“ zwingt den Menschen seinem Sein selbst einen Sinn zu geben, um so der großen nihilistischen Leere zu entkommen. (Das vollständige Zitat lautet: „Gott ist tot! Gott bleibt tot! Und wir haben ihn getötet! Wie trösten wir uns, die Mörder aller Mörder?“) [iii]   Der Übermensch Dieser Sinn, den der Mensch selbst suchen muss, besteht darin, über sich selbst hinauszuwachsen, seinen freien Willen zu leben , sich dadurch zu einem neuen Menschen, dem „ Übermenschen “ weiterzuentwickeln. Das dionysische Element, das diese Entwicklung antreibt, ist der unbedingte „ Wille zur Macht “. Dank dieses Willen s lassen sich Vernunft, Tugend, Passivität und Mittelmaß überwinden und die Fesseln der Kultur abschütteln, die allesamt unsere Selbstverwirklichung verhindern. Nur im Übermenschen kann sich die Lebenskraft ungehindert entfalten. Er ist „der Sinn der Erde“, dem alles zustrebt. Der heutige Mensch muss sich als Bindeglied zwischen dem Biest und jenem künftigen Übermenschen begreifen. Nietzsche Skulptur an seinem Grab in Röcken, Anhalt Der neue Mensch erschafft sich selbst, indem er den alten Menschen mit Härte zerstört und unbeirrt und beseelt von Selbstliebe seine Ziele verfolgt. Nietzsche propagiert damit eine radikale Abkehr von der leidenschaftslosen Vernunft, die die Philosophie seit Platon geprägt hatte. Weder Religion noch Wissenschaft oder Moral steht es zu, irgendwelche Wahrheiten zu verkünden. Es gibt kein Richtig oder Falsch, kein Gut oder Böse. Alle diesbezüglich aufgestellten Regeln sind nichts als die Meinungen ihrer Urheber. Der einzige Sinn des Lebens ist der, den wir ihm selbst geben. Dass der starke Mensch seinen Willen auf Kosten Schwächerer auslebt, ist vielleicht tragisch, letztlich aber in Nietzsches Vorstellung unvermeidlich.       Den Blog entdecken   Wer mehr wissen will: Schopenhauer, Arthur (2019):   „Die Welt als Wille und Vorstellung“, Contumax. Nietzsche, Friedrich Wilhelm (1883): „Also sprach Zarathustra“, Projekt Gutenberg-DE. Nietzsche, Friedrich Wilhelm (1872): „Die Geburt der Tragödie aus dem Geiste der Musik“, Projekt Gutenberg-DE. Nietzsche, Friedrich Wilhelm (2000): „Der Antichrist“, Nikol. Nietzsche, Friedrich Wilhelm (2000): „Die fröhliche Wissenschaft“, Reclam.     Fussnoten: [i]  Schopenhauer (2019) S. 42. [ii] Nietzsche (2000) „Der Anitchrist“ Kapitel 62. [iii] Nietzsche (2000) Reclam, Aphorismus 125.

  • Aggression und Altruismus: Überlebensstrategien im Tierreich

    Fortsetzung von „Ökologie für Anfänger: Im Dschungel der Wechselwirkungen   Auf den Hund gekommen Iwan Pawlows  Interesse galt eigentlich dem Verdauungsprozess – seine Erkenntnisse auf diesem Gebiet brachten ihm 1904 immerhin den Nobelpreis  ein. Einer der zahlreichen Versuche, die er in diesem Zusammenhang unternahm, sollte die Neugier des russischen Arztes allerdings von nun an in eine ganz andere Richtung lenken. Es war eines jener Experimente, die Wissenschaftsgeschichte geschrieben und Einzug in unser kollektives Bewusstsei n gehalten haben: die Entdeckung des Pawlowschen Reflexes . Der Speichelfluss, der bei den Versuchshunden einsetzte, sobald Futter zu riechen war, hatte Pawlow ins Grübeln gebracht. Er ersann eine Versuchsanordnung, bei der der Fütterung stets das Klingeln einer Glocke vorausging. Nach einer Weile zeigte sich, dass der Glockenton den Speichelfluss auch dann anregte, wenn es hinterher kein Futter gab. Es handelte sich also um einen Reflex, der nicht angeboren, sondern erlernt war. Iwan Pawlow Pawlow bezeichnete diese assoziativ erworbene Verhaltensänderung als Konditionierung . Vor Pawlow hatte sich niemand aus wissenschaftlicher Sicht für das Verhalten von Tieren interessiert. Seine Hundeexperimente begründeten eine neue biologische Disziplin. Schon bald sollten sich die Verhaltensforscher in zwei verfeindete Lager spalten. Die amerikanische Schule des „ Behaviorismus “, begründet durch die Psychologen Edward Lee Thorndike, John Broadus Watson und Burrhus Frederic Skinner , beriefen sich dabei direkt auf Pawlows Erkenntnisse. Nach ihrer Überzeugung ließ sich Verhalten stets auf ein rein durch äußere Faktoren gesteuertes mechanistisches Reiz-Reaktions-Schema zurückführen. Verhalten war gewissermaßen das Ergebnis einer mathematischen Funktion: Kannte man die Umweltstimuli und ihre Verarbeitungsregeln, kannte man auch die zu erwartende Reaktion. Dieser Sichtweise standen die Ethologen gegenüber, die Vertreter der europäischen Schule der klassischen vergleichenden Verhaltensforschung, deren Pioniere, Oskar Heinroth , Konrad Lorenz ,  Nikolaas Tinbergen und Irenäus Eibl-Eibesfeldt , allesamt Zoologen  waren. Umweltreize spielten für sie eine untergeordnete Rolle. Verhalten war in erster Linie eine Folge vererbter „ Instinkte “. Heute wissen wir, dass tierisches Verhalten nur selten solch einfachen Erklärungsmustern folgt. Dennoch haben die beiden historischen Schulen wichtige Grundlagenforschung geleistet und in zahllosen Studien und Feldversuchen einen umfassenden Katalog von Verhaltensmustern erstellt. Betrachten wir kurz ihre wichtigsten Erkenntnisse. [i]     Einfache Verhaltensprogramme Reflexe  sind fest verdrahtete, vollautomatische Programme, sozusagen ein mit Geburt ausgeliefertes kleines Betriebssystem, das sich nicht abschalten lässt. Dazu gehören etwa Speichelfluss- und Lidschlussreflex , das spontane Klammern Neugeborener oder die Schreckreaktion, bei der wir unsere Muskeln unwillkürlich anspannen. Reflexe sind nötig, weil die Welt ein gefährlicher Ort ist. Sie dienen der Gefahrenabwehr und müssen daher vor allem schnell sein. Wenn wir uns etwa die Hand verbrennen, kommt die Reaktion nicht aus dem Gehirn, sondern direkt aus dem Rückenmark – die Reizleitung spart so wertvolle Sekundenbruchteile.   Verhaltensform Ursprung Beispiel Ererbte Reflexe Passiv-angeboren Lidschlussreflex Konditionierte Reflexe Passiv-erlernt Pawlowscher Hund Prägung Passiv-erlernt Gänseküken Gewöhnung Passiv-erlernt Jagdhunde Nachahmung Passiv-erlernt Frühkindliche Imitation Kognitives Lernen Aktiv-erlernt Planvoller Einsatz von Hilfsmitteln Grundlegende Verhaltensformen   Eine der wichtigsten evolutionären Strategien, um Umweltgefahren zu begegnen ist das Gedächtnis ; es ist die grundlegende Voraussetzung für das Lernen . Während ererbte Reflexe genetisch fixiertes Wissen darstellen, das durch einen quälend langsamen, zufälligen Prozess im Laufe von Jahrmillionen als nützlich selektiert wurde, vollzieht sich neuronales Lernen innerhalb von Stunden, Minuten und Sekunden. Diese Fähigkeit ist keineswegs nur „höheren“ Tieren vorbehalten: Weil sie sich erinnern kann, wird auch eine gemeine Gartenschnecke eine Pflanze, die ihr einmal schlecht bekommen ist, kein zweites Mal verspeisen. Die klassische Verhaltensforschung beschreibt mit Prägung, Gewöhnung und Nachahmung eine Reihe einfacher Lernprozesse, die allesamt auf groben Heuristiken basieren. Die Prägung  wurde in den 1930er Jahren erstmals von Konrad Lorenz anhand von Graugänsen charakterisiert: Während eines kurzen Zeitfensters identifizieren die frisch geschlüpften Küken jedes in der Nähe befindliche, sich bewegende Objekt als ihre Mutter und folgen ihm von nun an bedingungslos nach – auch wenn es sich dabei um einen Verhaltensforscher oder einen Fußball handelt. Die Gewöhnung  soll sicherstellen, dass das knappe Gut Aufmerksamkeit nicht wahllos verschenkt, sondern nur wirklich wichtigen Dingen gewidmet wird. Deshalb nehmen wir die Kleidung, die wir auf der Haut tragen, nicht bewusst wahr und deshalb erschrecken erfahrene Jagdhunde nicht mehr bei jedem Schuss. Die Nervenbahnen werden entlastet, da die Wahrnehmung sich häufig wiederholender (und damit tendenziell ungefährlicher) Reize unterdrückt wird. Nachahmung  schließlich basiert auf der Heuristik, dass es für junge Tiere meist sinnvoll ist, das Verhalten älterer Verwandter zu imitieren – immerhin haben diese mit ihren Verhaltensweisen ja bisher überlebt. Werden Imitationsmuster dauerhaft von einer Generation auf die nächste übertragen, sprechen Verhaltensforscher von einer „ Tradition “. [ii]   Reflexe, Prägung, Gewöhnung und Imitation sind allesamt sehr einfache Verhaltensprogramme, denen nur bruchstückhafte Informationen und einfache Kriterien zugrunde liegen. In der Evolution  haben sich diese Programme grundsätzlich bewährt; doch sie können Verhalten auch in die falsche Richtung lenken, etwa, wenn Gänseküken einem Fußball nachlaufen oder wenn uns ein gebogenes Stück Holz auf dem Waldboden zusammenzucken lässt, weil es auf den ersten Blick einer Schlange ähnelt. Evolutionäre Verhaltens-Heuristiken verfahren nach dem Motto: lieber hundertmal falsch als einmal zu spät.   Der erstaunliche Sultan Tiere können aber auch noch nach einem ganz anderen Prinzip zu lernen. Diese Entdeckung machte der Psychologe und Primatenforscher Wolfgang Köhler  während des Ersten Weltkriegs auf Teneriffa. Als Leiter einer von der preußischen Akademie der Wissenschaften unterhaltenen Affenstation beobachtete Köhler, wie eines seiner Versuchstiere, ein besonders aufgeweckter Schimpanse namens Sultan, Kisten aufeinanderstapelte und sich so Zugang zu ansonsten unerreichbarem Futter verschaffte. In einem zweiten Versuch standen ihm dann nur Rohrstücke mit verschiedenen Durchmessern zur Verfügung. Der Schimpanse schob sie nach kurzem Überlegen ineinander und konnte sich so das Futter angeln. Sultan hatte gezeigt, dass er fähig war das von ihm entdeckte Prinzip auch auf andere Werkzeuge zu übertragen. In seiner 1917 veröffentlichten Arbeit „Intelligenzprüfung an Anthropoiden“ beschrieb Köhler erstmals die Fähigkeit von Menschenaffen , Informationen umzugestalten, Ursache-Wirkungsketten zu erkennen und durch abstraktes Denken auf einen ähnlichen Sachverhalt zu transferieren. Dass auch Tiere hierzu in der Lage sind, war eine Sensation – ein weiteres vermeintliches Alleinstellungsmerkmal des Menschen war demontiert. Wolfgang Köhler Seine Entdeckung machte Köhler zum Mitbegründer des Kognitivismus. Der evolutionäre Vorteil des kognitiven Lernens ist offensichtlich: Einsichten müssen nicht – wie bei der Gartenschnecke – durch Versuch und Irrtum erworben werden, vielmehr lassen sich die mit Fehlgriffen verbundenen Risiken und Umwege von vornherein vermeiden. Neben Menschen und Menschenaffen sind unter anderem auch Raben und Delfine zu solch kognitiven Lernprozessen befähigt . Nachdem der Schwerpunkt der Verhaltensbiologie in der ersten Hälfte des 20. Jahrhunderts auf der Beschreibung lag, rückte in der zweiten Hälfte zusehends eine andere Frage in den Mittelpunkt der Forscher: Welche Strategien verfolgen Tiere eigentlich mit ihrem Verhalten, welche Muster sind aus Sicht der Evolution „rational“? Diese neue Perspektive führte zur Entstehung der beiden jüngsten Zweige der Evolutionsbiologie: Soziobiologie und Verhaltensökologie. Aggression als Strategie Die Soziobiologie , die der amerikanische Ameisenforscher Edward O. Wilson  (einer der Verfechter der These vom „ egoistischen Gen “) in den 1970er Jahren begründet hatte, widmet ihre Aufmerksamkeit speziell dem Sozialverhalten von Gruppen. In der Tat ergeben sich die komplexesten Situationen nicht aus der Koexistenz verschiedener Spezies, sondern aus dem Zusammenleben von Artgenossen. Evolutionär gesehen bietet eine soziale Organisation viele Vorteile. Kollektives Jagen, gemeinsame Aufzucht der Jungen, gegenseitiger Schutz oder arbeitsteilige Bewachung des Territoriums erhöhen die evolutionäre Fitness der Gemeinschaft – Strategien, die Einzelgängern nicht offenstehen. Paare, Gruppen, Schwärme, Kolonien, Rotten, Meuten, Rudel oder Herden erzeugen aber auch vielschichtige Interessenskonflikte. Sie benötigen daher Regeln, die über Rollenzuweisungen und soziale Hierarchien den Zugang zu Nahrung und Sexualpartnern festlegen – mit der Erfindung von Gesellschaften wurde das Leben erst so richtig schwierig.   In der Tat erscheint der Umgang, den Artgenossen miteinander pflegen, oftmals aggressiv, hinterhältig und grausam – etwa, wenn Vogeleltern schwache Küken aus dem Nest werfen oder Gottesanbeterinnen ihre Partner verspeisen. Doch Tiere können nicht mit Adjektiven aus dem Kanon menschlicher Moral vorstellungen etikettiert werden. Ihr „Handeln“ ist weder gut noch schlecht; es „ist“ einfach nur. Tierische Aggression lässt sich daher nur aus der Perspektive beurteilen, ob sie hilfreich ist, Interessenkonflikte, um knappe Ressourcen oder Fortpflanzungspartner sinnvoll zu regeln. Sieht sich ein Tier mit Aggression  durch Artgenossen konfrontiert, bestehen seine beiden grundsätzlichen Handlungsoptionen darin, sich kämpferisch oder nachgebend zu verhalten. Um die jeweils beste Strategie zu klären, führte Wilsons englischer Kollege John Maynard Smith  das spieltheoretische Konzept der „ evolutionär stabilen Strategie “ ein. (Auf die Spieltheorie  wir hier  näher eingegangen.) Im Kern besagt diese Konzept, „dass die beste Strategie für ein Individuum davon abhängt, was die Mehrheit der Bevölkerung tut.“ [iii]  Eine Strategie ist dann stabil, wenn sie vom größten Teil der Gruppe praktiziert wird und sich kein Individuum durch alternatives Handeln besserstellen kann. Dieser etwas vertrackte Gedankengang lässt sich anhand unseres kleinen Tümpels  illustrieren, den wir im letzten Biologie-Blog betrachtet haben. Nehmen wir an, dass die Angehörigen einer Froschpopulation untereinander um die Vorherrschaft in dem Biotop wetteifern. Wenn alle Individuen bereit sind, hierfür stets bis zum Tod zu kämpfen, ist dies eine evolutionär stabile Strategie. Es gibt allerdings nur eine Handlungsoption: Kampf. Sie beinhaltet die Chance auf Sieg und damit die Möglichkeit, die eigenen Gene weitergeben zu können. Wer verliert, wird getötet; wer aufgibt auch. Die entscheidende Frage ist, ob es einem Individuum gelingen kann, in dieser Gruppe mit einer alternativen Strategie erfolgreich zu sein. Diese Strategie könnte beispielsweise darin bestehen, zunächst zu kämpfen, im Fall einer sich abzeichnenden Niederlage aber den Kampf rechtzeitig zu beenden und zu fliehen. Dies wahrt einerseits die Chance auf den Sieg, im Fall einer Niederlage aber auch die Option, sich weiterhin fortpflanzen zu können. [iv]  In einer Gemeinschaft todesmutiger Frösche können sich daher die Erbanlagen von mutierten Artgenossen, die genetisch bedingt vielleicht mit weniger Testosteron ausgestattet sind, leichter ausbreiten. Umgekehrt haben aggressive Frösche kaum eine Chance, eine Gruppe, die eine flexible Kampfstrategie fährt, genetisch zu unterwandern. Es ist daher wahrscheinlicher, in der Natur die anpassungsfähige Strategievariante anzutreffen. Damit lassen sich auch die verbreiteten „ Hackordnungen “ erklären, die in sozialen Gruppen Hierarchien und Rollenverteilungen festlegen. Die Ordnung ergibt sich aus einer Reihe von „Turnieren“ bei der sich die Gruppenmitglieder vom Alphatier bis hin zum Omegatier nach absteigend dominant-aggressivem Verhalten sortieren. Die Festlegung der Hierarchie erfolgt meist durch Drohgebärden oder ritualisierte Kämpfe mit geringer Verletzungsgefahr, die der Unterlegene mit Unterwerfungsgesten beendet. Aus Sicht der Evolution ist das eine sinnvolle Vorgehensweise: Die physisch stärksten Individuen erhalten die besten Fortpflanzungschancen. Gleichzeitig werden blutige Kämpfe, die die Gesamtfitness der Gruppe schwächen würden, vermieden.   Es geht auch anders So wie es zwischen den Arten außerhalb der Nahrungskette auch kooperatives Verhalten gibt, sind Dominanz und Unterwerfung keineswegs die einzigen Möglichkeiten, das Zusammenleben innerhalb einer Spezies zu organisieren. Gegenseitige Unterstützung  und altruistisches Verhalten können ebenso gut evolutionär stabile Strategien darstellen, mit denen sich statistische Überlebensboni erringen lassen. Besonders häufig sind sie unter Verwandten zu beobachten. Die Selbstlosigkeit ohne Gegenleistung, nimmt dabei mit der Nähe des Verwandtschaftsgrades zu. Mit der Hypothese des „egoistischen Gens“, der zufolge nicht Arten, sondern Gene miteinander ums Überleben kämpfen, lässt sich dieser Edelmut plausibel erklären: Er dient dem Fortbestand ähnlicher Erbanlagen – je enger die familiären Bande, desto mehr gemeinsame Gene teilen die Angehörigen miteinander. Die evolutionäre Kosten-Nutzen-Rechnung des Altruismus  geht aus soziobiologischer Sicht immer dann auf, wenn mehr Gene des Verwandten-Pools überleben, als mit dem Opfertod des altruistischen Angehörigen zugrunde gehen. [v]  Da beispielsweise Bienen mit ihren Schwestern näher verwandt sind als mit den eigenen Töchtern, erscheint es aus dieser Perspektive sinnvoll, auf Nachkommenschaft zu verzichten und die Königin selbstlos zu unterstützen. Dadurch erreichen mehr eigene Gene die nächste Generation. [vi]   Die Strategien der Weibchen Auch Beziehungen zwischen Sexualpartnern lassen sich mit der nüchternen verhaltensökologischen Perspektive erklären. Sexuelle Vermehrung bietet einen großen evolutionären Vorteil, denn wo es Eltern gibt, werden die Gene der Nachfahren durchmischt und die Variabilität dadurch verbessert. Doch diesem Vorteil steht ein gewichtiger Nachteil gegenüber: Sexuelle Fortpflanzung ist auf die Akzeptanz eines andersgeschlechtlichen Partners angewiesen. Arten, die sich sexuell vermehren, haben daher zusätzlich zu den bereits vorhandenen Auslesefaktoren noch einen weiteren Stressor: Nur wer einen Partner gewinnen kann, kann auch seine Gene weitergeben. Die sexuelle Selektion setzt insbesondere die Männchen unter Zugzwang, denn bei den meisten Arten entscheiden die Weibchen, welchen Partner sie akzeptieren. Das hat seinen Grund. Männchen sind oftmals bereit, sich wahllos fortzupflanzen; ihr Keimzellenangebot ist praktisch unbegrenzt. Anders die Weibchen. Sie gehen in fast allen Fällen das größere „Investitionsrisiko“ ein, denn die Anzahl der Nachkommen, die sie gebären können, ist beschränkt. Beruht das Paarungsverhalten der Art auf Polygamie  oder Promiskuität , dürfen sie zudem von den Männchen nicht allzu viel Unterstützung bei der Aufzucht erwarten. Weibchen haben somit das Problem, aus einem großen Angebot männlicher Anwärter den passendsten herausfinden zu müssen. In jenen Fällen, bei denen das Weibchen vom Partner außer Spermien nicht allzu viel erwarten darf, können sich die Auswahlkriterien nur an Äußerlichkeiten orientieren. Das wiederum zwingt die Männchen auf dem Paarungsmarkt ein Marketing in eigener Sache zu betreiben, das die Weibchen beim Bewerber „tüchtige Gene“ vermuten lässt. Die potentiellen Väter versuchen durch Körpergröße, ein auffälliges Fell oder Federkleid oder eine dominante Stellung in der Gruppenhierarchie ihre „Fitness“ zu demonstrieren. Da Männchen, die mutationsbedingt zufällig über derartige Attribute verfügen, von den Weibchen als Fortpflanzungspartner bevorzugt werden, entwickelte sich im Laufe der Evolution bei vielen Arten das Erscheinungsbild der beiden Geschlechter zunehmend auseinander. Das Ergebnis waren stolze Hähne, prahlerische Pfauen und imposante Gorillamännchen. Dieser Sexualdimorphismus funktioniert nach dem Prinzip: Wer auffällt, gewinnt! Die Männchen zahlen für diese Strategie oftmals einen hohen Preis, denn ihr Aussehen erregt nicht nur die Aufmerksamkeit des weiblichen Geschlechts, sondern auch die zahlreicher Fressfeinde. Die Weibchen hingegen bleiben unscheinbar – da das männliche Angebot die weibliche Nachfrage übersteigt, müssen die Weibchen sich bei der Partnerwahl nicht selbst in Szene setzen. Mandarinenten sind eines von vielen Beispielen für Arten mit einem deutlichen Sexualdimorphismus Ganz anders sieht es bei Arten aus, die gemeinsam Brutpflege betreiben. Bei ihnen gleichen sich die beiden Geschlechter in ihrem äußeren Erscheinungsbild. Durch die gemeinsame Aufgabe entsteht eine Bindung, die einen Dimorphismus überflüssig macht. Meist hält diese Bindung nur für die Dauer einer Fortpflanzungsperiode. In einigen wenigen Fällen aber, wie bei Höckerschwänen, Wölfen, Bibern und Walen, bedeutet sie eine lebenslange monogame Partnerschaft. Das äußere Erscheinungsbild der meisten Wirbeltierarten erlaubt also recht zuverlässige Schlüsse auf ihr Sexual- und Beziehungsverhalten.   Bei Wölfen sind Weibchen und Männchen kaum zu unterscheiden Evolutionäres Erbe Kuckuckskinder, Zweckgemeinschaften, Altruismus, Imponiergehabe, Drohgebärden, promiske oder monogame Partnerschaften: Aus Sicht der Verhaltensökologen und Soziobiologen verbergen sich hinter all diesen Strategien evolutionäre Kosten-Nutzen-Rechnungen, für die sich Überlebensboni kalkulieren lassen und deren Gewinne in Form der Anzahl überlebender Junger ausgezahlt werden. [vii]  Die Sprache, mit der Soziobiologen tierisches Verhalten beschreiben, könnte auch aus einen wirtschaftswissenschaftlichen Lehrbuch stammen. Viele dieser Strategien kommen uns merkwürdig bekannt vor – wir finden sie auch in praktisch jeder menschlichen Gesellschaft. Das ist nicht weiter verwunderlich, schließlich sind auch wir Produkte des Evolutionsprozesses. Viele unserer ererbten Verhaltensprogramme sind Millionen Jahre alt; sie wurden weitergegeben, weil sie sich bewährt haben. Die Soziobiologie erscheint somit auch als hilfreicher Ansatz zur Erklärung menschlichen Verhaltens. Allerdings ist sie keine hinreichende Erklärung. Denn als einzige Spezies auf unserem Planeten verfügen wir über ein entwickeltes Bewusstsein . Das bedeutet im Kern, dass wir – anders als Tiere – uns bewusst für oder gegen etwas entscheiden können. Mit naturwissenschaftlichem Determinismus allein ist menschlichem Verhalten also nicht beizukommen. Der zweite Teil des Buches wird sich daher ausschließlich mit den Regeln befassen, nach denen Menschen kommunizieren, handeln und entscheiden. Menschliches Verhalten ist ein Spannungsfeld, das größer kaum sein könnte: Hunderte von Millionen Jahre alte Gene liegen im Wettstreit mit evolutionär gesehen sehr jungen neuronalen Strukturen, die uns Geist einhauchen und Sprache und Kultur bescheren. Wie frei können wir angesichts des schweren evolutionären Marschgepäcks in unseren Entscheidungen überhaupt sein? Und sofern wir diese Freiheiten tatsächlich haben: Wie sollen wir mit ihnen umgehen?   Mit diesem Beitrag endet die Artikelserie zum Themengebiet Biologie Hier geht es zur weiterführenden Artikelserie „Bewusstsein“   Den Blog entdecken   Wer mehr wissen will: Dawkins, Richard (1996): „Das egoistische Gen“, Rowohlt. Gigerenzer, Gerd (2013): „Risiko“, C. Bertelsmann.   Bildnachweise: Sexualdimorphismus beim Hirschkäfer Sexualdimorphismus bei Mandarinenten Wolfspaar   [i] Der Begriff „Instinkt“, der in Lorenz‘ und Tinbergens Theorie eine zentrale Rolle spielt, fehlt in der folgenden Liste. Instinkt wurde in der Biologie nie eindeutig definiert, so dass er heute in wissenschaftlichem Zusammenhang meistens vermieden wird. [ii]  Die theoretische Zuordnung bestimmter Verhaltensweisen ist oftmals umstritten. So gibt es beispielsweise unterschiedliche Auffassungen, ob die Angst vor Spinnen und Schlangen ein angeborener Reflex ist, oder durch Imitation der Schreckreaktion der Eltern tradiert wird. (Vgl. Max-Planck-Gesellschaft (2017) und Gigerenzer (2013) S. 108 ff.) [iii]  Dawkins (1996) S.119. [iv] Der englische Dichter Samuel Butler (1612-1680) formulierte es einmal so: „Wer flieht, kann später wohl noch siegen, ein toter Mann bleibt ewig liegen.“ [v] Mit seinem Bruder teilt man nach den Gesetzen der meiotischen Teilung durchschnittlich die Hälfte, mit seinem Cousin ein Achtel seiner Gene. Der Evolutionsbiologe J.B.S Haldane antwortete daher einmal auf die Frage, ob er sein Leben geben würde, um seinen ertrinkenden Bruder zu retten: “Nein, aber ich würde es tun, um zwei Brüder oder acht Cousins zu retten”. Zitiert nach McElreath / Boyd (2007) S.82. [vi] Da Bienen-Männchen nicht sexuell gezeugt werden, tragen sie nur einen einfachen Chromosomensatz. Da er diesen bei der eigenen sexuellen Vermehrung vollständig an jedes Kind weitergibt, ist der Bienenvater mit seinen Töchtern zu 75% verwandt, die Mutter hingegen nur zu 25%. [vii] Vgl. Dawkins (1996) S. 329.

  • Die Jagd nach der Weltformel

    Fortsetzung von „Anatomie der Atome Teil 2: Von Helgoland nach Hiroshima“   Weltformel Einstein  und die Quantenphysiker hatten sich an die äußersten Ränder vorgewagt und mit zwei neuen Theorien alte Gewissheiten erschüttert. Newtons  Weltbild war nur im Bereich der menschlich-irdischen Maßstäbe hinreichend genau. Auf die Streckbank der Extreme gespannt aber zeigte sich, dass die mechanische Theorie im Kern falsch war. Zudem war offenbar geworden, dass die Welt in alle Richtungen begrenzt ist: Nichts im Universum kann schneller sein als das Licht ; keine Temperatur kann unter den absoluten Nullpunkt fallen; keine Wirkung die eines Quants unterschreiten. Naturgesetze sind nur innerhalb dieser Schranken gültig. Was sich jenseits davon befindet, bleibt den Möglichkeiten unserer Erkenntnis auf ewig verborgen. Wie sieht sie aus, die Weltformel? Einsteins Gleichung ist sicher nur eine Teil von ihr In das Kräftechaos, das innerhalb dieser Grenzen tobte, hatte man immerhin Ordnung gebracht. Sonnenschein, Auftrieb, Fliehkraft, Planetenbewegung , fallende Äpfel, Reibung, Blitze, Magnetismus, Radioaktivität, chemische Reaktionen , Schallwellen oder Muskelzucken sind Ausdrucksformen von lediglich vier Grundkräften . Die Natur hatte sie in einem stabilen System, dem Atom, vereint und jede von ihnen mit einem eigenen Charakter ausgestattet. Naturgesetze  sind nichts weiter als mathematisch exakt beschreibbare Wechselspiele aus Energie und Materie, die dafür sorgen, dass die Welt so ist, wie sie ist. Zwei dieser Kräfte, Elektromagnetismus und Schwerkraft , sind für uns im Alltag erfahrbar; starke und schwache Kernkraft hingegen entfalten ihre alchemistischen Wirkungen allein im Verborgenen.   Vier Grundkräfte regieren die Welt Zusammen beschrieben Relativitätstheorie und Quantenphysik   wesentliche Teile der Welt. Spaltung und Fusion von Atomkernen hatten zudem gezeigt, dass die beiden großen modernen Theorien der Physik irgendwie miteinander verbunden sind. Was fehlte, war eine übergeordnete Theorie, die alle Aussagen Einsteins und der Quantenphysiker widerspruchslos miteinander vereinte.   Gravitation ·       Unbegrenzte Reichweite, nicht abschirmbar ·       Wird im Quadrat des Abstands schwächer ·       Relative Stärke: 10 -38 ·       Bosonen: Gravitonen? Elektromagnetismus ·       Unbegrenzte Reichweite, abschirmbar ·       Wird im Quadrat des Abstands schwächer ·       Relative Stärke: 10 -2 ·       Bosonen: Photonen Starke   Kernkraft ·       Reichweite kürzer als Atomkerndurchmesser ·       Nimmt mit dem Abstand zu ·       Relative Stärke: 1 ·       Bosonen: Gluonen Schwache   Kernkraft ·       Reichweite kürzer als Atomkerndurchmesser ·       Kann Teilchen verwandeln ·       Relative Stärke: 10 -13 ·       Bosonen: W und Z-Bosonen Die vier Grundkräfte der Natur. Die relative Stärke besagt, dass die starke Kernkraft 100.000.000.000.000.000.000.000.000.000.000.000.000-mal stärker ist als die Gravitation     Big Bang – Die Kirche ist von Anfang an dabei Mitte der 1920er Jahre hatte der amerikanische Astronom Edwin Hubble  entdeckt, dass das Universum nicht nur aus der Milchstraße, sondern aus unzähligen weiteren Galaxien  besteht, die sich alle mit rasender Geschwindigkeit voneinander entfernen. Die Welt war nicht, wie alle bisher geglaubt hatten, statisch, sie strebte vielmehr mit Macht auseinander. Ein katholischer Priester aus Belgien, Georges Lemaître , zog 1927 als Erster daraus einen logischen Schluss: Wenn das Universum regelrecht in alle Richtungen explodiert, kann man auf dem Zeitpfeil zurückgehen bis zu Anfang und Ausgangspunkt der Fluchtbewegung. Eine weitere Erkenntnisgrenze war deutlich geworden: Die Welt und ihre Gesetze waren erst in jenem ursprünglichen Augenblick entstanden. Was vor diesem Anfang war, bleibt für uns unerforschlich. Einstein und Lemaître im California Institute of Technology 1933 Die Urknalltheorie  blieb zunächst umstritten. 1946 prognostizierten amerikanische Kosmologen, dass, sofern es den Urknall tatsächlich gegeben haben sollte, sich sein „Echo“ in Form einer kosmischen Hintergrundstrahlung aus Mikrowellen finden lassen müsse. Die katholische Kirche , die in der Vergangenheit neuen naturwissenschaftlichen Theorien zunächst oft skeptisch gegenübergestanden hatte, erkannte die Urknalltheorie bereits 1951 an, einem Zeitpunkt, zu dem die meisten Physiker noch nicht überzeugt waren. Aus Sicht der Religion  ließ sich der Big Bang als singulärer, göttlicher Schöpfungsakt deuten. Der Durchbruch kam 1964, als zwei amerikanische Radiophysiker der Bell Laboratories beim Ausrichten ihrer neuen Antenne ein permanentes Störgeräusch auffingen, das sie zunächst mit Taubendreck auf ihrem Empfänger in Verbindung brachten. Bald aber stellte sich heraus, dass es sich hierbei um eben jenes vorhergesagte „Echo“ des fernen Urknalls handelte. Damit war die Big-Bang Theorie nun auch in wissenschaftlichen Kreisen etabliert: Die Geschichte des Universums war die einer sich stetig ausdehnenden Raumzeit , in der die Grundkräfte nach und nach in immer komplexere Wechselwirkungen miteinander traten.   Schwingende Quarks Ebenfalls Mitte der 1960er Jahre zeichnete sich ab, dass man am anderen Ende des Betrachtungsspektrums immer noch nicht auf der untersten Ebene angekommen war. Für die unscharfen, schwingenden Strukturen, die sich zu Protonen und Neutronen  kristallisieren, prägte der amerikanische Physiker Murray Gell-Mann  den Begriff „ Quarks “, ein Wort, das er einem Roman von James Joyce  entlehnt hatte. Wenige Jahre zuvor hatte man begonnen, Teilchenbeschleuniger zu bauen, gigantische Crashtestanlagen, die der Materie ihre letzten Geheimnisse entreißen sollten. In ihnen beschleunigen elektromagnetische Felder massebehaftete Partikel auf nahezu Lichtgeschwindigkeit . Damit wurde es möglich, die von Einstein beschriebene Umwandlung von Bewegungsenergie in Materie direkt zu beobachten. Die erzwungenen Zusammenstöße von Elementarteilchen führten zur Entdeckung eines ganzen „Zoos“ von neuen Partikeln, wie Myonen , Tauonen , Neutrinos und verschiedenen Quark-Typen. Die Kollisionssplitter, die nur für unvorstellbar kurze Zeitspannen von 10 -24 bis 10 -7  Sekunden existieren, helfen Ursprung und Aufbau der Materie besser zu verstehen. Jedem dieser Teilchen musste Sekundenbruchteile nach dem Urknall eine ganz bestimmte Rolle zugekommen sein. Um 1970 hatte man ein Modell entwickelt, das beschrieb, wie Quarks Nukleonen entstehen lassen. Protonen und Neutronen waren der Zusammenschluss dreier verschiedener Quarks, mit jeweils unterschiedlichen Ladungen, die man nach einer Analogie aus der Farbenlehre als blaue, grüne und rote Farbladungen bezeichnete. Zusammen sind die drei Ladungen nach außen hin neutral, so wie die drei uns bekannten Farben zusammen das neutrale „Weiß“ ergeben. Eine weitere, dem Drehimpuls ähnliche Eigenschaft der Quarks ist der Spin, dessen Drehrichtung bestimmt, ob es sich um Up-Quarks oder Down-Quarks handelt. Wirken zwei Up-Quarks und ein Down-Quark zusammen, entsteht ein Proton. Sind im Dreierbund zwei Down-Quarks und ein Up-Quark vereint, bilden sie ein Neutron. Die bei Zerfalls- und Fusionsprozessen auftretende Wandlung von Neutronen in Protonen wird durch die schwache Kernkraft bewirkt, die einen Down-Quark in einen Up-Quark verwandelt.            Quarkstruktur von Protonen (links) und Neutronen (rechts) Das Standardmodell erklärt vieles – aber nicht alles Kurz darauf gelang der experimentelle Nachweis, dass schwache Kernkraft und Elektrizität bei extrem hohen Energien durch eine elektroschwache Wechselwirkung miteinander vereint sind. Das deutete auf einen gemeinsamen Ursprung der beiden Kräfte hin – ein erster Schritt zur Rekonstruktion jener rätselhaften hypothetischen Urkraft, die die Geburt des Universums eingeleitet haben musste. 1974 entdeckte man, dass bei noch extremeren Temperaturen auch die starke Wechselwirkung nicht mehr von der elektroschwachen zu unterscheiden war. Die drei Grundkräfte hatten einen gemeinsamen Ursprung. Die Genesis hatte in ihren ersten Augenblicken eine Welt hervorgebracht, die anderen, einfacheren Gesetzen gehorcht haben musste. Unser heutiges Physikverständnis beruht auf dem so genannten „ Standardmodell der Teilchenphysik “. Es ist das umfassendste Bild, das wir von den grundlegenden Zusammenhängen des Universums haben. Basierend auf den experimentell erworbenen Erkenntnissen der 1970er Jahre, beschreibt diese Theorie, wie starke, schwache und elektromagnetische Quantenkräfte zwischen den Elementarteilchen wechselwirken, ohne dabei Aussagen der speziellen Relativitätstheorie zu verletzen. [i] Demnach besteht die Welt aus den beiden großen Teilchenfamilien der Fermionen und Bosonen , benannt nach Enrico Fermi  und dem indischen Physiker Satyendranath Bose .   Die wichtigsten Spezies des Teilchenzoos Fermionen sind die Bausteine der Materie. Sie umfassen die Up- und Down-Quarks, die Protonen und Neutronen bilden, sowie die Leptonen, extrem massearme Teilchen, deren bekanntester Vertreter das Elektron ist. Leptonen stellen deshalb eine eigene Fermionen-Kategorie dar, weil sie sich der Wirkung der starken Kernkraft entziehen, während Quarks der Wirkung aller vier Grundkräfte unterliegen. Bosonen sind die Überträger von Kräften und Massen. Die masselosen Eichbosonen umfassen jene Teilchen, die der Materie die vier Grundkräfte vermitteln. Dazu gehören die Photonen, die die elektromagnetische Kraft zwischen Elektronen und Protonen übertragen, die Gluonen, die die Quarks zusammenschweißen, sowie die W- und Z-Bosonen, als Vermittler der schwachen Kernkraft. Die Vermutung liegt nahe, dass es auch ein Boson für die Schwerkraft geben muss, das Graviton. Doch bis heute bleibt der Schwerkraftvermittler hypothetisch – kein Teilchenbeschleuniger konnte seiner bisher habhaft werden.   Die Entwicklungsgeschichte der Physik Bereits 1964 formulierte der britische Physiker Peter Higgs  die Hypothese, dass es neben den Eichbosonen auch ein Boson geben müsse, das die Masse vermittelt. Auch dieses Teilchen entzog sich jahrzehntelang allen Zugriffsversuchen. 2012 gelang es schließlich der in der Schweiz beheimateten europäischen Kernforschungsorganisation CERN, das Higgs-Boson nachzuweisen. Simulation des hypothetischen Zerfalls eines Higgs-Teilchens Dies war der bis heute letzte große Erfolg des Standardmodells. Sein entscheidender Makel bleibt, dass die Gravitation , jene Grundkraft, die Raum und Zeit verbiegt und den Kosmos strukturiert, in ihm keinen Platz findet. Wir wissen nicht, wie Raumzeit  und Schwerkraft in das Gesamtsystem der Physik eingebunden sind. Seit einem halben Jahrhundert suchen tausende Physiker auf der ganzen Welt nach einer Quantentheorie der Gravitation . Gelänge es, das Standardmodell um die vierte Grundkraft zu erweitern, hielte man die „Weltformel“ in der Hand, eine einheitliche mathematische Beschreibung von Materie und sämtlichen Kräften, die die Erkenntnisse der Elementarteilchenphysik mit denen der allgemeinen Relativitätstheorie widerspruchsfrei vereinen würde. Es gibt noch viele Rätsel Diese umfassende Theorie müsste in der Lage sein, aus der Dynamik subatomarer Teilchen heraus alle bekannten kosmologischen Phänomene erklären zu können. Eines dieser Phänomene ist der merkwürdige Umstand, dass es eigentlich sehr viel mehr Materie im Universum geben müsste, als wir beobachten können. Die für uns sichtbaren Sterne umkreisen das Zentrum ihrer Galaxien schneller, als wir aufgrund der uns bekannten Gravitationsträger erwarten würden. Etwa 85% aller Materie, die es demnach im Universum geben müsste, interagiert offenbar nicht mit elektromagnetischen Wellen, das heißt, sie ist unsichtbar und wird daher als „Dunkle Materie“ bezeichnet. Wir haben heute weder eine Vorstellung, ob es diese riesigen Stoffmengen überhaupt gibt, noch wie sie sich aufspüren ließen. Genauso wenig können wir das Wesen der Naturkonstanten erklären. Warum sind Lichtgeschwindigkeit, Gravitationskonstante oder das Plancksche Wirkungsquantum  jeweils so und nicht anders definiert? Warum sind sie unveränderlich und warum lassen sie sich durch keine Berechnung herleiten? Wieso haben wir den Eindruck, dass diese Konstanten auf eine ganz besondere Weise aufeinander abgestimmt zu sein scheinen? Würde etwa die Gravitationskonstante von 6,67430…  10 -11  auch nur in der sechszigsten Nachkommastelle nach oben oder unten abweichen, wäre das Universum eine Sekunde nach dem Urknall entweder so rasch expandiert, dass sich keine Sterne hätten bilden können, oder so langsam, dass es wieder in sich zusammengefallen wäre. Ähnliche Feinabstimmungen zeigen sich auch bei anderen Konstanten. Sie ermöglichen die lange Brenndauer von Sternen oder die Synthese von Kohlenstoff , beides zwingende Voraussetzung für die Entstehung von Leben. Liegt dem Kosmos also ein vor dem Schöpfungsakt festgelegtes geniales Design zugrunde? Diese Frage ist natürlich umstritten. Ein reiner Zufall wäre möglich, ist aber extrem unwahrscheinlich. Denkbar wäre, dass ein Universum auch mit anders abgestimmten Naturkonstanten  existieren könnte und vielleicht ebenfalls Leben hervorgebracht hätte, vielleicht auf der Basis von Silizium. Ein weiterer Erklärungsansatz, das anthropische Prinzip, nimmt eine ganz andere Perspektive ein: Demnach spielen die scheinbaren statistischen Abhängigkeiten letztlich keine Rolle; wäre die Konstellation eine andere gewesen, gäbe es schlichtweg niemanden, der über das Weltall und das Leben nachdenken könnte. Und auch eine planvolle göttliche Schöpfung  bleibt nach wie vor eine mögliche Option. Wäre eine Weltformel, die die rätselhafte Feinabstimmung der Naturgesetze  und alle weiteren kosmologischen Rätsel erklären würde, auch für Laien verständlich? Wahrscheinlich nicht. Unsere Vorstellungskraft könnte ihre Aussagen wohl kaum nachvollziehen, eine Beschreibung wäre allein durch abstrakte, komplizierte Mathematik möglich. Die moderne Physik ist weit entfernt von der Ästhetik, der Einfachheit und der Poesie der Newtonschen Bewegungsgesetze oder der Planckschen und Einsteinschen Energieformeln. Dennoch ist die Geschichte der Physik eine überaus erfolgreiche. Neugierige Menschen haben den wilden Strauch bizarrer Naturphänomene auf vier grundlegende Triebe zurückgeschnitten. Die Wechselwirkungen zwischen Energie und Materie, die diese vier Grundkräfte beschreiben, bedingen letztlich auch die Möglichkeit, dass Atome über den Sinn von Atomen nachdenken können. Doch hier endet die Zuständigkeit der Physik. Naturgesetze können nur darstellen, „wie“ etwas ist. „Warum“ Energie und Materie existieren und wer oder was die Spielregeln für ihre Wechselwirkungen so festgelegt hat, dass daraus ein Bewusstsein entstehen konnte, sind Fragen an Religion und Philosophie .   Der Weg, der von toter Materie zu fragendem Bewusstsein führte, war lang. Die Atome  mussten sich dazu auf eine außerordentlich komplexe Art und Weise miteinander verbinden. Grundlage dieser Verbindungen ist die elektromagnetische Kraft. Die spezielle Physik, die sich mit den Spielregeln der Aggregation der stofflichen Welt befasst, bezeichnen wir als Chemie .              Mit diesem Beitrag endet die Artikelserie zum Themenbereich Physik   Den Blog entdecken   Wer mehr wissen will: Spektrum der Wissenschaft (03 / 2024): Spektrum Kompakt: Die Suche nach der Weltformel   Bildnachweise: Luftbild des CERN Higgs-Teilchen-Simulation Anmerkungen: [i] Die drei dem Standardmodell zugrundeliegenden Quantenfeldtheorien sind: die Quantenelektrodynamik, die den Elektromagnetismus beschreibt; die schwache Wechselwirkung, die die schwache Kernkraft, sowie die Quantenchromdynamik, die die starke Kernkraft erklärt.

bottom of page