top of page

Suchergebnisse

104 Ergebnisse gefunden mit einer leeren Suche

  • Kant für Einsteiger

    Fortsetzung von „Sinn, Verstand und letzte Gründe: Die Philosophie der Neuzeit bis Kant“   Ein unbekannter Gelehrter für Logik und Metaphysik Immanuel Kant wurde 1724 in Königsberg geboren und starb dort knapp 80 Jahre später, ohne sich jemals mehr als einige Meilen von seiner Geburtsstadt entfernt zu haben. Als der aus einfachen Verhältnissen stammende Ostpreuße (sein Vater war ein Sattler) in bereits fortgeschrittenem Alter 1770 zum Professor für Logik   und Metaphysik   der örtlichen Universität berufen wurde, deutete alles auf ein geruhsames, unauffälliges Professorenleben hin. Kant war überzeugt, dass jedem Menschen ein bestimmtes Potential an Lebensenergie zur Verfügung steht, das, wie eine Batterie, nach und nach verbraucht wird. Ein regelmäßiger, ruhiger Wandel schont die Kraftreserven. Jahrzehntelang stand er frühmorgens stets zur gleichen Zeit auf, nahm um ein Uhr die einzige Mahlzeit des Tages zu sich, unternahm am Nachmittag zur exakt gleichen Zeit einen Spaziergang, (nach dem angeblich die Einwohner von Königsberg ihre Uhren stellten), und ging am Abend immer um 22 Uhr zu Bett. Außer mit einer Theorie zur Entstehung der Planeten , die er 1755 unter dem Eindruck von Newtons Principia veröffentlicht hatte, war Kant akademisch bisher nicht weiter aufgefallen. [i]   Immanuel Kant 1724-1804: Versöhner von Empirismus und Rationalismus Hume löst bei Kant eine Krise aus Kurz nach seiner Ernennung waren dem in der kontinental-rationalistischen Tradition stehenden Kant die frühen Schriften David Humes   in die Hände geraten. Die drastischen Thesen des Schotten trafen den preußischen Philosophen wie einen Schlag. Später schrieb er, Hume habe ihn aus seinem „dogmatischen Schlummer“ erweckt. Der Schrecken saß tief: Hätte der Mann aus Edinburgh mit seiner Fundamentalkritik an Erkenntnistheorie  und Metaphysik  recht, wäre Kants Hauptfächern jegliche Grundlage entzogen. Der Professor stürzte sich in die Auseinandersetzung. Gut zehn Jahre lang isolierte er sich vom gesellschaftlichen Leben und begab sich auf eine mentale Reise, die ihn zu neuen erkenntnistheoretischen Horizonten führen sollte. Das Ergebnis erschien 1781. Die „Kritik der reinen Vernunft“ ist eines der bekanntesten (wenn auch nicht gerade einfach zu lesenden) Werke der Geschichte des Denkens . Kants Kritik – der Begriff bedeutet in diesem Zusammenhang so viel wie „Untersuchung“ – analysiert die  Frage, ob Erkenntnistheorie und Metaphysik vor der humeschen Fundamentalk ritik gerettet werden können. Letztlich geht es Kant darum, die beiden feindlichen Lager der Rationalisten und Empiristen miteinander zu versöhnen und zu ergründen, was für uns überhaupt erfahrbar ist. David Hume gab den Anstoß Humes Argumente sind f raglos stark: Der Verstand kann die Welt nicht erkennen, ohne dass die Sinne ihm hierfür das Material liefern. Doch Kants Zweifel am Empirismus   sind damit nicht vollständig ausgeräumt. Denn sinnliche Erfahrungen können ohne verstandesmäßige Bearbeitung keine Gewissheit bringen. Das schlagende Beispiel ist die kopernikanische Wende der Astronomie . Würden wir uns auf den Augenschein verlassen, spräche tatsächlich alles dafür, dass die Sonne  um die Erde kreist. Allein durch Nachdenken, durch den Gebrauch seines Verstandes, konnte Kopernikus zu der Einsicht gelangen, dass es sich auch umgekehrt verhalten könnte. Für Kant steht somit fest, dass beide Komponenten zur Erkenntnis beitragen: Unser Sinnesapparat ermöglicht Anschauungen und unser Verstand weist den Begriffen, die wir diesen Anschauungen geben, Bedeutungen zu. Allein die Synthese von Sinn und Verstand erlaubt es uns, Urteile zu fällen und so Erkenntnisse über die Welt zu erlangen.  Kant blieb stets im Bannkreis seiner Heimatstadt Wir verzerren immer die Realität Dabei müssen wir uns stets bewusst sein, dass die Dinge nicht so sind, wie sie uns erscheinen. In jeder Sinneswahrnehmung gibt es Elemente, die nicht in der Natur des Betrachtungsobjekts selbst liegen, sondern durch den Beobachter in den Gegenstand hineingetragen werden. Das Problem existiert allerdings nicht nur für die Empirie – die „Formen der Anschauung“ – sondern berührt auch unsere Denkprozesse – die „Formen des Urteils“. Sowohl durch die empiristische als auch durch die rationalistische Brille nehmen wir die Realität   also nur verzerrt wahr. In Allem, was wir betrachten, steckt ein Teil von uns, den wir aber fälschlicherweise für eine Eigenschaft des betrachteten Objekts halten. Unsere Erkenntnisorgane verändern die Gegenstände durch unsere Anschauung und erlauben es uns daher grundsätzlich nicht, die Welt so zu erkennen, wie sie tatsächlich ist. Da unser Bewusstsein mit der Realität nicht in Kontakt treten kann, können wir auch nicht unterscheiden, welche Eigenschaften den Dingen tatsächlich innewohnen und welche wir lediglich in sie hineinprojizieren. Kant stimmt Hume  zu, dass auch die Kausalitäten , die wir in den Naturgesetzen   zu finden meinen, solche Projektionen sind . Doch während Kausalitäten für Hume Vermutungen bleiben, ist Kant von ihrer Existenz überzeugt. Absolutes Wissen ist damit grundsätzlich möglich. An dieser Kritik arbeitete Kant rund zehn Jahre Seine neue Perspektive, die die Subjektivität menschlicher Weltbetrachtung in den Mittelpunkt stellt, bezeichnet Kant (nicht ganz unbescheiden) als „kopernikanische Wende der Philosophie“. Die Strukturen unserer Wahrnehmung bestimmen unser Erkenntnisvermögen, sie machen uns zum Schöpfer unserer eigenen Welt. Und diese Welt möchte Kant vermessen.   Ist die Metaphysik noch zu retten? Eine Frage liegt dem Professor für Metaphysik und Logik besonders am Herzen: Ist es grundsätzlich möglich, gesichertes Wissen auch „a priori“, also vor der Wahrnehmung zu erlangen? Wenn nicht, wäre die Metaphysik, wie von Hume behauptet, eine rein spekulative Angelegenheit und damit für die Philosophie unbrauchbar [ii] . Zur Analyse dieser Frage erstellt Kant ein einfaches Schema. Die erste Dimension „a priori“ und „a posteriori“ beschreibt Erkenntnis vor  und nach  empirischer Erfahrung. A priori-Wissen ist nicht an Bedingungen geknüpft, sondern immer gültig. A posteriori-Wissen ist bedingt und kontextabhängig. Die zweite Dimension des Schemas unterscheidet „analytisch“ und „synthetisch“. Analytische Betrachtungen zerlegen Wissen lediglich in ihre Bestandteile, liefern aber keine neuen Erkenntnisse; synthetisches Wissen hingegen erweitert den Erkenntnishorizont. Dimensionen der Erkenntnis nach Kant Analytisches a priori-Wissen ist beispielsweise die Feststellung „Die Kugel ist rund“. Wir benötigen keine empirische Überprüfung, um die Richtigkeit dieser Aussage zu bestätigen – schließlich ist es das Wesen einer Kugel, rund zu sein. Der Befund ist zwar immer wahr, erweitert mein Wissen aber nicht. Unstrittig ist zudem, dass die Erfahrung, der Einsatz meines Sinnesapparats, mein Wissen erweitert: Aus der Aussage „Die Kugel wiegt ein Kilogramm“ geht nicht zwingend hervor, dass dem auch so ist. Durch Wiegen lässt sich aber die Richtigkeit der Aussage überprüfen. Die dritte mögliche Konstellation, der Versuch, mittels Empirie analytisches Wissen zu gewinnen, ist unsinnig. Wir müssen nicht überprüfen, ob die Kugel rund ist. Wäre sie es nicht, wäre sie keine Kugel. Da empirische Erkenntnisse nichts Notwendiges enthalten, können sie immer nur a posteriori, also nach der Erfahrung, gewonnen werden.   Ist rein denkender Erkenntnisgewinn möglich? Die entscheidende Frage für Kant ist die letzte Möglichkeit: Kann erweiterndes Wissen rein durch den menschlichen Geist gewonnen werden? Von der Antwort hängt die Existenzberechtigung der Metaphysik als ernstzunehmende Wissenschaft ab. Kant beantwortet die Frage mit „ja“. Ein schlagendes Beispiel ist die Mathematik : 7 + 5 = 12. Die Richtigkeit dieser Aussage kann ohne Empirie bewiesen werden. Doch Kant ist überzeugt, dass sich synthetisches a priori-Wissen auch auf allgemeine Bereiche des Menschseins ausweiten lässt. D ie Transzendentale Ästhetik  – so bezeichnet Kant unser Vermögen, Wahrnehmungen in Raum und Zeit einordnen zu können – ist nicht von Erfahrung abhängig ( K ant verwendet den Begriff Ästhetik hier in seinem ursprünglichen Sinne als „sinnliche Wahrnehmung“).  Raum und Zeit, als Projektionen der äußeren und inneren Anschauung, sind keine Phänomene der Natur, deren Umgang wir erst erlernen müssten; ihr Verständnis ist uns vielmehr von Geburt an, also a priori, mitgegeben. Dies erst macht die Welt für uns vorstellbar. Der Erkenntnisprozess in Kants Transzendentalphilosophie Die Bewertung von Wahrnehmungen durch den Verstand ist für Kant nur deshalb möglich, weil in unserem Kopf Strukturen existieren, die die Dinge in Raum und Zeit einordnen, filtern und beurteilen. Das Instrument, mit dem dies geschieht sind Begriffe. Auch sie sind a priori-Wissen. Wir bewerten unsere Erfahrungen, indem wir ihnen Begriffe zuordnen. Kant fasst es so zusammen: „Gedanken ohne Inhalt sind leer, Anschauungen ohne Begriffe sind blind.“ [iv]   Die Strukturen, auf die der Verstand zugreift, um Empirisches und Rationales miteinander zu verbinden, bestimmen die „Bedingungen der Möglichkeit“. Das passende Raster hierfür findet Kant bei Aristoteles , der mehr als 2.000 Jahre zuvor in seiner Logik Quantität, Qualität, Relation und Modalität als Kategorien der Urteilsbeschreibung bereits aufgeführt hatte. Kant verfeinert dieses Konzept, indem er den vier Kategorien noch einmal jeweils drei Unterkategorien zuweist. So sind beispielsweise „Ursache und Wirkung“ eine Unterkategorie der Relation. In dieser zwölfteiligen Struktur – Kant bezeichnet sie als Transzendentale Logik – findet der Verstand die nötigen Begriffe, um seine Urteile zu bilden. Damit hatte Kant die Transzendentalphilosophie  geschaffen. Mit ihrer Hilfe lassen sich die empirischen und rationalistischen Bedingungen untersuchen, die uns zu neuen Erkenntnissen führen können. Zudem zeigt sie, dass Wissen a priori ohne spekulative Elemente erweitert werden kann, eine Erkenntnis, die die Metaphysik rettet und mit der sich die Grenzen der Erkenntnisfähigkeit ausloten lassen: Der realen Welt steht eine durch unser Bewusstsein erzeugte Welt der Erscheinungen gegenüber. Das seit Platon angestrebte Ideal, die reale Welt, das „ Ding an sich “, mit unseren Sinnen erkennen zu wollen, müssen wir aufgeben. [v]   Ein neues philosophisches Werkzeug Mit dem neuen Werkzeug der Transzendentalanalyse möchte Kant nun grundlegende Streitfragen der Philosophie untersuchen. Etwa die alte Antinomie   um die Existenz Gottes. Beide Aussagen, „Es gibt Gott“ und „Es gibt Gott nicht“ können richtig sein. Doch welche davon wahr ist, wird sich weder empirisch noch rationalistisch jemals überprüfen lassen. Alle historischen Versuche, die Existenz oder Nichtexistenz Gottes zu begründen, erweisen sich aus transzendentalphilosophischer Perspektive als unsinnig. Ein anderer klassischer Disput bringt den Königsberger Professor allerdings in Bedrängnis. Der These der Fr eiheitsantinomie „Die Welt ist nicht nur kausal bestimmt“ steht die Gegenthese: „Die Welt ist rein kausal“ gegenüber. Doch diese zweite Möglichkeit hätte eine furchtbare Implikation. Es gäbe dann keinen freien Willen   und damit wäre wiederum jegliche Ethik   sinnlos.   Dieser Vorstellung möchte Kant nicht folgen. Er verteidigt die Freiheit mit einer hypothetischen Annahme: In der für uns nicht erfahrbaren Welt des „Dings an sich“ existieren die Beschränkungen, die Sinn und Verstand uns auferlegen nicht. Dort gibt es weder Raum noch Zeit noch Begriffe oder Kausalität. Diese Welt ist das Reich der Freiheit. Für den Menschen bedeutet Freiheit, dass er die Wahl hat, sich bewusst moralischen Gesetzen zu unterwerfen – Gesetze, die die Vernunft gebietet und nicht die Natur. Der Mensch, der sich über seine Instinkte erhebt, ist Ursache, nicht Wirkung. Kant weiß, dass diese Behauptung angreifbar ist. Aber er benötigt dieses Postulat, um den freien Willen und damit die Ethik zu retten. Und darum sollten wir, so Kant, auch die Existenz Gottes annehmen. Ohne ihn hätten wir keinen Grund, das Gute auch zu wollen.   Wie soll der Mensch mit seiner Freiheit umgehen? Wie Platon   möchte auch Kant ein System erschaffen, das die Welt umfassend erklärt. Und so widmet er eine zweite kritische Schrift, die 1788 erschienene „Kritik der praktischen Vernunft“, der Frage, wie der Mensch mit seiner Freiheit umgehen soll. Die Aufgabe, vorbildliches Leben und Handeln in Einklang zu bringen, will Kant nicht mehr allein der Religion   überlassen. In der Antike   bedeutete Ethik in erster Linie „das Gute“ zu tun. Die schottischen Aufklärer David Hume und Adam Smith hatten eine Gefühlsethik   propagiert, nach der moralisches Handeln durch positive Vorbilder erlernt werden soll. Beides ist Kant nicht genug. Er sucht nach absoluten, rationalen und objektivierbaren Prinzipien, die a priori existieren. Die Handlungsanweisung, der Imperativ, darf weder subjektiv noch hypothetisch sein, noch soll er egoistischen Zielen dienen. Er muss für alle Menschen gleichermaßen und unter allen Bedingungen gelten, also kategorisch sein. Diese Bedingungen führen Kant zur Definition seines berühmten kategorischen Imperativs : „Handle so, dass die Maxime deines Willens jederzeit zugleich als Prinzip einer allgemeinen Gesetzgebung gelten könne.“ [vi] Dieses „Grundgesetz der praktischen Vernunft“ ist das vielleicht bekannteste Zitat des Königsberger Philosophen. Es stellt eine einfache, für alle leicht nachzuvollziehende Grundorientierung dar: Mein Verhalten ist dann richtig, wenn meine Moral   auch von allen anderen akzeptiert werden kann. Das geht über das Sprichwort „Was du nicht willst, das man dir tu, das füg auch keinem anderen zu“ hinaus. Denn diese in vielen Kulturkreisen bekannte „goldene Regel“ zielt allein auf Vermeidung. Kants Formulierung umfasst aber ebenso positives Verhalten – auch sich selbst gegenüber. Das Gute soll um seiner selbst willen getan werden. Oder wie Kant es formulierte: „Die Tugend [ist] nur darum so viel wert, weil sie so viel kostet, nicht weil sie etwas einbringt.“ [vii]   Moral, so Kant, bedarf keiner Erklärung durch Gott oder die Natur. Keine abstrakte Instanz muss uns sagen, was wir tun sollen – wir müssen es selbst wissen. Das moralische Gesetz ist absolut und daher nicht von bestimmten Situationen abhängig, denn im Reich der Freiheit unterliegt nichts den kausalen Zwängen der hiesigen Welt. Der kategorische Imperativ ist eine freiwillige Selbstverpflichtung, das Gute tun zu wollen. Im Einzelfall kann das auch bedeuten, dass das Handeln unbeabsichtigt negative Folgen hat – was allein zählt, ist der gute Wille und dass die Würde aller Beteiligten gewahrt wird. Der Mensch ist ein Zweck an sich und darf nicht als Mittel für die Zwecke anderer Menschen missbraucht werden. Was wie ein abstraktes, idealistisches Gedankenspiel klingt, prägt unser heutiges Rechtsverständnis entscheidend. Es ist genau dieses Bild der Menschenwürde von dem Artikel 1 des Grundgesetzes der Bundesrepublik Deutschland   spricht. Hier wirkt Kant bis heute. Am Ende der Kritik der praktischen Vernunft findet sich jenes Kant-Zitat, das auch den Grabstein des Philosophen ziert: „Zwei Dinge erfüllen das Gemüt mit immer neuer und zunehmender Bewunderung und Ehrfurcht, je öfter und anhaltender sich das Nachdenken damit beschäftigt: Der bestirnte Himmel über mir, und das moralische Gesetz in mir“ [viii] Hier stellt Kant noch einmal die beiden von ihm geschaffenen Welten gegenüber: Die große äußere Welt, in die wir als winziges Rädchen eingebettet sind und die wir versuchen, mit Sinn und Verstand zu erfassen; und die innere Welt, die Welt der Freiheit, die uns auffordert, das Gute zu tun.   Ein visionärer Geist Gott war für Kant ein Postulat der Vernunft und gerade die Tatsache, dass wir über seine Existenz kein Wissen haben können, schafft Raum für den Glauben. Das hielt den Philosophen in den 1790er Jahren nicht davon ab, sich wie zuvor Spinoza   und Hume in verschiedenen Schriften kritisch zu Religion und kirchlicher Bevormundung zu äußern. Provokante Thesen, wie die Forderung, die Aussagen der Bibel an den Maßstäben der praktischen Vernunft zu messen, sowie seine Kritik an dem Dogma der Erbsünde, führten in Preußen dazu, dass Kant seine religiösen Schriften nicht mehr publizieren durfte. Doch die Frage „ Was darf ich hoffen “ geht für Kant über die Religion hinaus. In zwei Aufsätzen, „Idee zu einer allgemeinen Geschichte in weltbürgerlicher Absicht“ (1784) und „Zum ewigen Frieden“ (1795), entwickelt er eine bemerkenswerte Vision. Die Geschichte begreift Kant darin als den Prozess der schrittweisen und zielgerichteten Entwicklung der Vernunft. Beeindruckt vom Freiheitsgedanken der Französischen Revolution   äußert er sich überzeugt, dass die Republik die einzige erstrebenswerte Staatsform sei. Mit diesen Gedanken begründet Kant die klassische Geschichtsphilosophie . Um dem Ideal eines ewigen Friedens schon im Diesseits näherzukommen, überträgt er die Kriterien seiner praktischen Vernunft auf alle Völker. Ein kosmopolitisches Regelwerk, ein Völkerrecht, institutionalisiert durch einen Völkerbund , soll den friedvollen Umgang der Nationen untereinander sicherstellen. Dazu gehören allseitiger Verzicht auf die Veränderungen von Staatsgrenzen und die Ächtung von Krieg und Kolonisierung als politischen Mitteln. Ließe man, was nur in einer Republik möglich ist, die Menschen selbst über Krieg und Frieden abstimmen, fände sich für den Krieg keine Mehrheit mehr. Ende des 18. Jahrhunderts ein wahrhaft visionärer Gedanke!   Den Blog entdecken   Wer mehr wissen will: Kant, Immanuel (2009): „Beantwortung der Frage: Was ist Aufklärung?“, Projekt Gutenberg-DE. Kant, Immanuel (1995): „Kritik der praktischen Vernunft“, Projekt Gutenberg-DE. Kant, Immanuel (1956): „Kritik der reinen Vernunft“, Meiner. Kant, Immanuel (1977): „Kritik der Urteilskraft“, Suhrkamp. Kant, Immanuel (1784):  „Idee zu einer allgemeinen Geschichte in weltbürgerlicher Absicht“, Berlinische Monatsschrift, November 1784, S. 385-411. Kant, Immanuel (1795): „Zum ewigen Frieden“, Projekt Gutenberg-DE.   Bildnachweise: [i]  Laplace entwickelte später unabhängig von Kant die gleiche Idee zur Planetenentstehung. Die Kant-Laplace-Theorie wurde später von James Clerk Maxwell widerlegt. [ii] Hier wird der Zeitgeist der Aufklärung deutlich: Während man Metaphysik grundsätzlich auch spekulativ betreiben könnte, war es Kant wichtig, sie als eine Wissenschaft zu positionieren, die sich mit Newtons fortschrittlicher Physik messen lassen konnte. [iv] Kant (1956) S.95.   [v] Kant nimmt damit wesentliche Erkenntnisse der neurobiologischen Forschung vorweg. [vi]  Kant (1995) Kapitel 7, § 7. [vii]  Kant (1995) Kapitel 32. [viii]  Kant (1995) Kapitel 34.

  • Die Entstehung von Positivismus und Utilitarismus

    Fortsetzung von " Schopenhauer und Nietzsche in drei Minuten" Zeit des Umbruchs Das 19. Jahrhundert war eine Zeit großer gesellschaftlicher und ökonomischer Umbrüche, ausgelöst durch technischen Fortschritt , aufkommende Industrialisierung   und Massenatheismus. Die Folgen waren allgemeine Orientierungslosigkeit und Verunsicherung. Der Verlust vermeintlicher Gewissheiten spiegelt sich in der Philosophie wider. Unter Hegel , Marx , Schopenhauer und Nietzsche  vollzieht sich ein Wandel, fort von nüchterner rational-empirischer Erkenntnis hin zu Weltanschauungen. In dem von geschichtsdeterministischen Überzeugungen getragenen Sendungsbewusstsein, das nach Kants  Tod insbesondere von der deutschen Philosophie ausgeht, liegt auch ein Keim, jener „ Ismen “, die im 20. Jahrhundert ihre hässliche Fratze zeigen sollten. [i]  Gleichzeitig wird deutlich, dass die Mittel, die der Philosophie zur Verfügung stehen, um Individuum und Gesellschaft zu analysieren, an Grenzen stoßen. Daher werden sich im Laufe des 19. Jahrhunderts Psychologie , Pädagogik, Soziologie, Geschichtswissenschaften und Ökonomie  als eigenständige akademische Disziplinen von der Philosophie abspalten. Auguste Comte und die Entstehung des Positivismus Während Kants Erben spekulativ-idealistische Weltbilder und revolutionäre Zukunftsvisionen für die Menschheit entwarfen, entwickelte sich in Frankreich und auf den britischen Inseln die Philosophie in eine andere Richtung. Zwar herrschte auch hier der Glaube, dass die Menschheitsgeschichte einem Entwicklungsgesetz folgt, doch die neuen Lehren sollten nicht auf metaphysischen Konstrukten wie einem „ Weltgeist “ oder einem „ Willen zur Macht “ beruhen, sondern strikt auf „positiven Beweisen“, also empirisch belegbaren, natürlichen Gesetzmäßigkeiten gesellschaftlichen Zusammenlebens. Begründer der Soziologie: Auguste Comte Urheber dieser Idee war der 1798 geborene Franzose Auguste Comte . Die zwangsläufige historische Entwicklung der Menschheit vollzieht sich für ihn in drei Stadien. In der ersten Phase, gewissermaßen der „Kindheit“, ist die Welterklärung eine theologische, die über die Entwicklungsschritte Fetischismus   und Polytheismus   zum Monotheismus   führt. In der folgenden „Jugend“, der abstrakten Phase, werden die fiktiven Gottheiten durch unpersönliche metaphysische Begriffe wie „Natur“ oder „Ideenwelt“ ersetzt. Ein Gewittersturm ist nun nicht mehr der Zorn eines Gottes, sondern eine Laune der Natur. Im dritten und letzten Stadium, der wissenschaftlichen oder positiven Phase schließlich, enträtselt der reife Mensch die Welt. Der Sturm wird zu dem, was er tatsächlich ist: ein erklärbares, auf unterschiedliche Luftdruckverteilungen zurückzuführendes Wetterereignis. Während des gesamten geschichtlichen Prozesses entwickelt der Mensch seine Intelligenz und sein strukturiertes Denken  ständig weiter. Um diese Entwicklung zu fördern, bedarf es, so Comte, einer neuen Wissenschaft, die hilft, die Menschheit in den Erwachsenenzustand zu führen. Dazu muss sie alle Themen und Methoden der übrigen Wissenschaften in sich vereinen. Die neue altruistische und menschenfreundliche Gesellschaft benötigt zudem einen spirituellen Rahmen. Comte erfindet eine „ Religion der Menschheit “, eine atheistisch-wissenschaftliche Glaubensgemeinschaft, deren Wesen und Aufbau allerdings in erstaunlich vielen Aspekten der katholischen Kirche ähnelt. Der Schriftzug "Ordem e Progresso" ("Ordnung und Fortschritt") auf der brasilianischen Flagge ist von Comtes positivistischem Motto "Liebe als Prinzip und Ordnung als Grundlage; Fortschritt als das Ziel" inspiriert. Mit der Abkehr von allen metaphysischen Fragen und der Hinwendung zu nützlichem Wissen im Dienste der Menschheit begründete Comte die philosophische Strömung des Positivismus . Der neuen von der Gesellschaft handelnden Disziplin gab er die Bezeichnung „ Soziologie “. Mit seinem „ Enzyklopädischen Gesetz “, ordnet der Franzose den nun erweiterten Kreis der Wissenschaften: Die Rangordnung führt von der Mathematik als einfachstem Fach über die Astronomie und Physik zur Chemie und Biologie . Ganz oben steht die Soziologie, die als Theorie des Menschen die höchste Komplexität aufweist – sie ist in der positivistischen Vorstellung die „Königin aller Wissenschaft.“   Jeremy Bentham: ein sehr exzentrischer Engländer Comtes geschichtliche Vision sollte nach seinem Tod 1857 keinen nennenswerten Nachhall finden. [ii] Als deutlich langlebiger würde sich eine radikale ethische Rechtfertigung des Positivismus   erweisen, der Utilitarismus . Die Anfänge dieser Ethik gehen auf den exzentrischen Engländer Jeremy Bentham  zurück, der von 1748 bis 1832 lebte. (Bentham hatte testamentarisch verfügt, dass seine mumifizierte Leiche als Ikone ausgestellt werden soll; sie ist noch heute in einer Vitrine des Londoner University College zu sehen.) Benthams Werk „Eine Einführung in die Prinzipien der Moral und der Gesetzgebung“ beginnt mit dem Zitat: „Die Natur hat die Menschheit unter die Herrschaft zweier souveräner Gebieter – Leid und Freude – gestellt. Es ist an ihnen allein, aufzuzeigen, was wir tun sollen, wie auch zu bestimmen, was wir tun werden.“ [iii]  Aus dieser Überzeugung leitet Bentham eine einfache moralische Maxime ab: Handle so, dass daraus für möglichst viele Betroffenen eine möglichst große Vermehrung von Glück entsteht. Exzentrischer Denker: Jeremy Bentham 1790 Die Maximierung des gesellschaftlichen Glücks wird damit zum alleinigen Verhaltensmaßstab. Alles, was der Menschen Freude erhöht oder ihr Leid verringert, ist nützlich. Den Nutzenbegriff  hatte Bentham aus den gerade entstandenen Wirtschaftswissenschaften übernommen und mit einem hedonistischen Kalkül versehen, mit dem sich der Saldo aus positiven und negativen Effekten einer Handlung mathematisch ermitteln lässt. Sieben Parameter sind bei der Berechnung der Freud-Leid- Nutzenpunkte zu berücksichtigen: Intensität, Dauer, Wahrscheinlichkeit, zeitliche Nähe, Konsequenzen, Reinheit (damit ist gemeint, ob Freud auf Leid folgt, oder umgekehrt) und Ausdehnung (die Anzahl betroffener Menschen).   Wirkmacht und Probleme des Utilitarismus Der Utilitarismus hat sich als eine wirkmächtige Idee erwiesen – trotz seines hohen altruistischen Anspruchs. Da es unterschiedslos um das Wohl aller geht, darf sich niemand egoistisch verhalten oder jemanden Bestimmten bevorzugen. Der utilitaristischen Nierenspenderin muss es also gleich sein, ob sie ihr Organ einem Familienangehörigen oder einem Fremden überlässt. Das egoistische Gen  kommt hier nicht zum Zug. Zudem sind alle Wesen, die Freud und Leid empfinden können – also auch Tiere – in den Kalkül einzuschließen . Reale Umsetzung von Benthams Panoptikum-Gefängnis auf Kuba Die Forderung, das größte Glück für die größte Zahl anzustreben, hat allerdings auch eine durchaus problematische Seite. Das machen moralische Dilemmata deutlich, die in der praktischen Philosophie unter der Bezeichnung „ Trolley-Probleme “ diskutiert werden: Eine führerlose Straßenbahn rast auf eine ahnungslose fünfköpfige Familie zu. Weiche umstellen? Oder lieber doch nicht? Eine danebenstehende Person hätte die Möglichkeit, das Gefährt rechtzeitig auf ein anderes Gleis umzulenken; allerdings käme in diesem Fall ein ebenso ahnungsloser Bauarbeiter auf dem Nebengleis zu Tode. Der Utilitarismus ist hier eindeutig: Die Weiche muss umgestellt werden! Der Gesamtnutzen, der sich aus der Rettung der Familie ergibt, überwiegt den Schaden für den Bauarbeiter. Doch wäre dieses Handeln gerecht? Schließlich war der Bauarbeiter von der Ausgangssituation nicht betroffen. [iv]   Der Utilitarismus fragt zudem weder, wie sich Freud und Leid auf einzelne Personen verteilen, noch kümmert er sich um den Schutz von Minderheiten. Nach Benthams Regel wäre es gerechtfertigt, eine Minderheit in einer Schulklasse zu diskriminieren, wenn sich dadurch der Zusammenhalt insgesamt erhöhen ließe. Und lässt sich Nutzen überhaupt mathematisch berechnen – insbesondere, wenn Leben und Tod in die Waagschale geworfen werden?   Eine andere Ethik Der britische Philosoph und Ökonom John Stuart Mill  (1806-1873), von seinem Vater James streng nach utilitaristischen Regeln erzogen, hatte es sich zur Aufgabe gemacht, Benthams rein quantitative Überlegungen durch eine zusätzliche qualitative Betrachtung zu verbessern. Dazu machte er sich Platons  Argumentation zu eigen, dass die Freuden, die Verstand und sittliches Verhalten bereiten, wertvoller sind, als die animalischen Gefühle, die sinnliche und körperlichen Genüsse hervorrufen. Es ist immer noch besser, ein unglücklicher Sokrates  zu sein, als ein glücklicher Narr. Aber sollen wir uns am Stellwerk nun anders entscheiden, wenn Sokrates auf dem Nebengleis stünde? John Stuart Mill um 1870 Der Utilitarismus lehrt eine andere Ethik  als der kategorische Imperativ . Bei Kant ist der Einzelne einem allgemeinen Gesetz verpflichtet. Der Imperativ ist daher eine Pflichtethik oder deontologische Ethik. Handlungen sind unabhängig von ihren Konsequenzen grundsätzlich gut oder schlecht und die Regel ist immer und überall gültig. Was konkret zu tun ist, lässt Kant ebenso offen wie die Frage, welche Beurteilungskriterien herangezogen werden sollen. Beim Utilitarismus hängt hingegen die Richtigkeit des Handelns von den Konsequenzen ab. Es zählt allein der Erfolg, nicht die Absicht des Handelnden. Er ist somit eine Zweckethik oder teleologische Ethik. Ihr Geltungsanspruch ist nicht absolut, sondern gilt nur im Hinblick auf eine bestimmte Situation. Die Versuche von Positivismus und Utilitarismus, den Menschen auf rein empirischer Basis zu verwissenschaftlichen, machten auch vor dem Individuum nicht halt. Die Einheit von Körper und Geist auf materieller Grundlage, wie sie etwa der Naturforscher und Philosoph Ernst Haeckel  verkündet hatte, wurde zum Leitmotiv aller nicht idealistischen Denker. Moderne Physiologie und die Evolutionstheorie stellten die Existenz der Seele  als unabhängiger Form des Seins infrage. Materialisten, Naturalisten und Positivisten glaubten an eine Mechanik menschlichen Verhaltens, die, einmal entschlüsselt, individuelles Handeln und somit auch die Entwicklung ganzer Gesellschaften vorhersagbar machen würde.   Den Blog entdecken   Wer mehr wissen will: Bentham, Jeremy (2013): „Eine Einführung in die Prinzipien der Moral und Gesetzgebung“, Senging. Mill, John Stuart (1868): „System der deductiven und indukticen Logik“, Vieweg.   Bildnachweise:   Fußnoten: [i]  Wobei es ungerecht wäre, die Philosophen des 19. Jahrhunderts hierfür verantwortlich zu machen. [ii]  In einigen Ländern, darunter die USA und Brasilien, existierten eine Zeitlang comtistische Gemeinschaften. Die brasilianische Flagge zeigt noch heute das Motto «Ordnung und Fortschritt», das auf Comtes Devise zurückgeht. [iii] Bentham (2013) Kapitel 1. [iv] Aktuelle Befragungen zeigen, dass sich meistens eine Mehrheit für das Umstellen der Weiche findet. Ließe sich die Bahn aber nur stoppen, indem man eine zufällig anwesende dicke Person von einer Brücke auf das Gleis stößt, hält in der Regel eine deutliche Mehrheit der Befragten diese Handlung für falsch – obwohl sie aus utilitaristischer Sicht zum gleichen Ergebnis führt. Seit es selbstfahrende Fahrzeuge gibt, sind solche Fragestellungen nicht mehr hypothetisch: Soll, wenn es keine andere Ausweichmöglichkeit gibt, der Wagen in eine Kindergruppe gelenkt werden oder stattdessen einen alten Mann überfahren? Darf der Fahrer geopfert werden? Was ist, wenn das Programm erkennt, dass der Fahrer den Unfall aufgrund eines Herzinfarkts verursacht hat und seine Überlebenschance bei 5% liegt? Soll bei einer 50%igen Chance eine andere Regel gelten? Wie müsste das Programm reagieren, wenn es bemerkt, dass der Fahrer vorsätzlich handelt? Dürfen die hierfür notwendigen Daten überhaupt erhoben werden?

  • Das Ende eines Traums

    Die reinste aller Wissenschaften „Die Mathematik allein befriedigt den Geist durch ihre Gewissheit.“ Die Überzeugung, die in dem Zitat von Johannes Kepler  zum Ausdruck kommt, prägte das Selbstverständnis der Mathematiker seit der Antike . Keine andere Wissenschaft versprach Erkenntnisse von vergleichbarer Sicherheit. Als im 19. Jahrhundert die Entdeckung der nichteuklidischen Geometrie  diesen Glauben auf einmal ins Wanken brachte, gelang es rasch, für die neue Raumlehre eine eigene Axiomatik   aufzustellen und den festen Boden zurückzugewinnen. Davon inspiriert unternahm der deutsche Mathematiker David Hilbert  (1862-1943) in den 1920er Jahren den Versuch, die gesamte Mathematik auf die Basis vollständiger und widerspruchsfreier Axiome zu stellen und so Keplers „außerordentliche Gewissheit“ lückenlos logisch abzusichern. Hilberts Vision implizierte auch, dass es mit diesem Fundament grundsätzlich immer möglich sein musste, die Richtigkeit jedes mathematischen Theorems zu beweisen – wenn auch die Beweisführung im Einzelfall sehr schwierig sein kann.   Ambitionierter Formalisierer: David Hilbert Die Mechanik der Mathematik Hilberts Programm war mehr als ein technisches Projekt. Es war ein philosophisches Manifest, getragen von der Überzeugung, dass die Mathematik eine in sich geschlossene Welt absoluter Klarheit darstellen könne. In dieser Welt sollte jeder wahre Satz – zumindest prinzipiell – beweisbar sein, und jeder Beweis sollte sich auf endlich viele, mechanisch überprüfbare Schritte reduzieren lassen. Die Mathematik, so die Hoffnung, ließe sich gleichsam industrialisieren: Wahrheit als Ergebnis eines formalisierten Verfahrens. Diese Vision passte zum Zeitgeist einer Epoche, die an Fortschritt, Ordnung und Rationalisierung glaubte. Man darf nicht unterschätzen, wie revolutionär diese Idee war. Jahrtausendelang hatten Mathematiker Beweise als kreative geistige Akte verstanden. Hilbert hingegen dachte an eine Art universelle Beweis-Maschine – eine Vision, die nicht auf die Erfindung eines neuen formalen Systems zielte, denn solche Systeme waren längst etabliert. Seine kühne Hoffnung ging weiter: Die gesamte Mathematik sollte sich auf ein vollständig mechanisierbares Fundament zurückführen lassen.   Gödels Unvollständigkeitssätze: Das Ende eines Traumes: Die Ernüchterung folgte 1931: Der junge österreichische Mathematiker Kurt Gödel  (1906-1978) bewies, dass Hilberts Traum nie Realität werden kann. Die Mathematik kann niemals in einem einzigen, abgeschlossenen Regelwerk aufgehen. Er zeigte: Sobald ein System komplex genug ist, um die Welt der natürlichen Zahlen abzubilden, entstehen zwangsläufig Aussagen, die innerhalb dieses Systems weder bewiesen noch widerlegt werden können. Mehr noch: Gödel wies nach, dass ein solches System auch seine eigene Widerspruchsfreiheit nicht mit seinen eigenen Mitteln belegen kann. Wer beweisen will, dass die Regeln eines Systems nicht zu Widersprüchen führen, muss zwangsläufig auf ein noch stärkeres System zurückgreifen [i]   So wie ein Gehirn sich damit schwer tut, seine eigene Funktionsweise lückenlos zu begreifen, kann auch die Mathematik ihre eigene Fehlerfreiheit niemals allein mit ihren eigenen "Bordmitteln" belegen. Dies hat nichts mit dem Unvermögen der Akteure zu tun, es ist vielmehr grundsätzlich nicht möglich: Um ein System vollständig zu beschreiben, muss man es von außen betrachten können. Gödels Unvollständigkeitssätze stürzte die Mathematik in eine Identitätskrise, vergleichbar jener Verwirrung, die die Pythagoreer  bei der Entdeckung irrationaler Zahlen überkam. Seitdem müssen Mathematiker mit der Erkenntnis leben, dass ihre Denksprache – die vermeintlich reinste aller Wissenschaften – nicht gleichzeitig vollständig und widerspruchsfrei sein kann. Was Gödel gelang, war ein intellektueller Kunstgriff von verblüffender Eleganz. Vereinfacht gesprochen konstruierte er eine mathematische Aussage, die sinngemäß behauptet: „Dieser Satz ist nicht beweisbar.“ Ein logisches Spiegelkabinett. Wäre der Satz beweisbar, wäre er falsch. Wäre er nicht beweisbar, wäre er wahr. Damit zeigte Gödel, dass jedes hinreichend mächtige formale System zwangsläufig Aussagen enthält, die sich innerhalb seiner eigenen Regeln nicht einfangen lassen. Dies ist keine Schwäche einzelner Axiome, sondern eine strukturelle Eigenschaft der Mathematik selbst. Kurt Gödel als Student 1925 Die Tragweite dieser Erkenntnis reicht weit über die Mathematik hinaus. Sie berührt die Grundfrage, was Wissen überhaupt bedeutet. Wenn selbst die strengste aller Wissenschaften an prinzipielle Grenzen stößt, was heißt das für andere Disziplinen? Für die Philosophie , die Physik , die Informatik ? Gödel zerstörte nicht die Mathematik – er entzauberte eine bestimmte Vorstellung von Gewissheit. Gödels Arbeit fiel in eine Zeit tiefgreifender Umbrüche. Die klassische Physik wurde durch die Quantenmechanik erschüttert, Raum und Zeit durch Einsteins Theorie relativiert. In nahezu allen Bereichen der Wissenschaft bröckelte die Idee einer vollständig berechenbaren Welt. Gödel lieferte das mathematische Pendant zu dieser geistigen Zeitenwende.    Glaube und Wissen Dass die Mathematik letztlich auf unbeweisbaren Voraussetzungen, und somit gleichsam auf tönernen Füssen steht, liegt in der Natur der Axiome selbst. Sie sind Sätze, die wir an den Anfang stellen, ohne sie selbst zu beweisen – schlicht, weil jeder Beweis irgendwo beginnen muss. Davon ausgehend werden schrittweise höhere Wahrheiten konstruiert. Doch am Anfang des gesamten Systems steht eine Setzung, eine Art „Glaube“. Dieser „Glaube“ ist freilich kein blinder Akt, sondern eine methodische Entscheidung. Axiome sind bewusst gewählte Startpunkte. Sie definieren die Spielregeln einer abstrakten Welt. Unterschiedliche Axiomensysteme erzeugen unterschiedliche mathematische Universen – euklidische und nichteuklidische Geometrien sind nur das bekannteste Beispiel. Mathematik ist daher weniger eine Entdeckung absoluter Wahrheiten als die Exploration logisch konsistenter Möglichkeiten. Und gerade darin liegt ihre Stärke. Die Mathematik ist nicht deshalb erfolgreich, weil sie unerschütterlich ist, sondern weil sie flexibel bleibt. Sie kann ihre Grundlagen variieren, Strukturen vergleichen, Grenzen untersuchen. Gödels Resultat ist somit kein Scheitern, sondern eine präzise Kartierung dieser Grenzen.   Ein Akt der Befreiung Gödels Nachweis der Unvollständigkeit ist kein Grund zum Bedauern, sondern im Gegenteil: eine Befreiung. Er bewahrt uns vor der Vorstellung, die Mathematik sei ein abgeschlossenes, totes Archiv des Wissens. Stattdessen wissen wir nun, dass es hinter jedem Horizont neue, unentdeckte Wahrheiten geben kann. Die Zwangsjacke einer „fertigen“ Weltformel bleibt uns erspart. Diese Offenheit macht die Mathematik zum idealen Werkzeug für die Naturwissenschaften. Wo die menschliche Sprache  oft vage bleibt, erlaubt uns die Mathematik, die Welt mit höchster Präzision zu beschreiben – auch wenn sie uns keine letzte, absolute Gewissheit über das gesamte Fundament schenken kann. Diesen Vorteil spielt sie am eindrucksvollsten in jener Disziplin aus, die sich der Erforschung der Natur verschrieben hat: der Physik (vom griechischen physikḗ = Natur). Vielleicht ist genau dies die tiefere Einsicht der Unvollständigkeitssätze: Erkenntnis ist kein abgeschlossener Besitz, sondern ein offener Prozess. Jede Antwort erzeugt neue Fragen. Gewissheit existiert – aber niemals grenzenlos. Und gerade deshalb bleibt Wissenschaft lebendig. Die größte Entdeckung der Mathematik war keine neue Formel, sondern die Einsicht, dass Erkenntnis gerade an ihren Grenzen weiterwächst.   Mit diesem Beitrag endet die Artikelserie zum Themenbereich Mathematik Den Blog entdecken   Wer mehr wissen will: Beutelspacher, Albrecht (2010): „Kleines Mathematikum“, C.H. Beck. Hofstadter, Douglas (2018) „Gödel, Escher, Bach“, Klett-Cotta. Rauchhaupt, Ulf von (2006): „Der Herr Professor und die Wahrheit“ in: Frankfurter Allgemeine Zeitung Online vom 23.04.2006.  Fußnoten [i]  Vgl Rauchhaupt. [ii] Vgl. Beutelspacher S. 150-153.

  • Geschichte der Menschheit: "Eine Welt" 1945 bis heute

    Fortsetzung von: Geschichte der Menschheit: die Zeit der Ismen (Teil 2): 1900 bis 1945   Aufbruch nach der Katastrophe Am 26. Juni 1945 unterzeichnen 50 Staaten in San Franzisco die Charta der Vereinten Nationen . Der Nachfolger des gescheiterten Völkerbunds soll nun dauerhaft Weltfrieden und Freundschaft unter den Nationen sicherstellen. Nachdem die Industrieländer untereinander zwei globale Kriege ausgefochten haben, ist Europa verwüstet und die Welt im Umbruch. Das Zweckbündnis der westlichen Alliierten mit der Sowjetunion  überlebt das Kriegsende um keinen einzigen Tag. Nachdem Faschismus und Nationalsozialismus aus dem Rennen der Ideologien ausgeschieden sind, verläuft die Konfrontationslinie nun zwischen Liberalismus  und Kommunismus. Das durch zwei Weltkriege ruinierte Großbritannien muss die westliche Führungsrolle endgültig an die USA abgeben. Die demokratische Welt sieht sich nun einem durch die UdSSR kontrollierten Block osteuropäischer Staaten gegenüber; die Trennungslinie verläuft mitten durch Deutschland. Mahatma Gandhi führte Indien in die Freiheit 1947 erringt Indien  unter seinen Führern Mahatma Gandhi  (1869-1948) und Jawaharlal Nehru  (1889-1964), nach jahrzehntelangem gewaltfreiem Widerstand gegen die Kolonialherren, die Unabhängigkeit von Großbritannien. Die dabei aufbrechenden religiösen Konflikte führen zu einer Abspaltung der mehrheitlich muslimischen Landesteile, aus denen der neue Staat Pakistan entsteht. Die Folgen sind auf beiden Seiten massenhafte Vertreibungen religiöser Minderheiten, die hunderttausende Opfer fordern. Beide Länder werden Demokratien  – im Falle Pakistans wird sie sich allerdings als relativ labil erweisen.   1949 Das Jahr 1949 ist ausgesprochen ereignisreich: im Mai wird auf dem Gebiet der westlichen Besatzungszonen die Bundesrepublik Deutschland gegründet; im August beginnt eine fast einjährige Blockade Berlins durch die Sowjetunion; noch im gleichen Monat tritt der Nordatlantikvertrag  in Kraft, mit dem die westlichen Siegermächte der östlichen Aggression begegnen wollen; wenige Tage später explodiert die erste sowjetische Atombombe ; im Oktober entsteht aus der östlichen Besatzungszone die Deutsche Demokratische Republik; in China  unterliegt die Kuomintang-Partei unter Tschiang Kai-scheck  nach 22-jährigem, fast ununterbrochenem Bürgerkrieg, der Kommunistischen Partei unter Mao Zedong  (1893-1976). Am 1. Oktober wird eine Volksrepublik ausgerufen; die Kuomintang-Anhänger fliehen auf die Insel Taiwan . Mao Zedong 1950   Beginn der Eiszeit Sechs Jahre später wird die Bundesrepublik Deutschland in die westliche Militärallianz aufgenommen; die UdSSR reagiert mit der Gründung des Warschauer Pakts . Damit wird Tocquevilles  Prophezeiung einer bipolaren Weltordnung Wirklichkeit, für den die Vereinigten Staaten und Russland „durch den Willen Gottes auserwählt schienen, [jeweils] die Geschicke der halben Welt zu lenken“. [i]  Die neue Weltordnung basiert auf einem „Gleichgewicht des Schreckens“. Aus Angst vor dem jeweiligen ideologischen Gegner beginnen beide Seiten einen in der Geschichte beispiellosen Rüstungswettlauf.   Das Afrikanische Jahr Fast alle afrikanischen und viele asiatische Länder sind zu diesem Zeitpunkt noch immer europäische Kolonien . Doch nun beginnen sie den Vorbildern Indien und China nachzueifern. Die langen, blutigen Kriege die Frankreich  zwischen 1946 und 1962 in Indochina und Nordafrika führt, können die Unabhängigkeit Vietnams, Kambodschas und Algeriens nicht verhindern. In den meisten Fällen verläuft der Übergang jedoch friedlich, wie 1960, dem „Afrikanischen Jahr“, in dem vierzehn französische, zwei britische, eine belgische und eine italienische Kolonie ihre Unabhängigkeit erlangen. Mit der Dekolonialisierung  verlieren Großbritannien  und Frankreich, die zwei Jahrhunderte lang um die Rolle des mächtigsten Landes der Erde gestritten haben, weiter an Bedeutung.   Stellvertreterkriege Dafür umwirbt nun der Ostblock die " Dritte Welt " . Eine sozialistische Gesellschaftsordnung erscheint vielen der jungen unabhängigen Staaten Afrikas  und Asiens , aber auch einigen lateinamerikanischen Republiken, als bessere Alternative zu dem liberal-demokratischen Modell der wenig populären ehemaligen Kolonialherren. Mit sowjetischer und chinesischer Hilfe etablieren sich kommunistische Regimes in Nordkorea, Nordvietnam und Kuba; die Sowjetunion entwickelt zudem großen Einfluss auf zahlreiche afrikanische und arabische Länder. Das geopolitische Machtspiel um den Globalen Süden  führt zu einer Reihe von Stellvertreterkriegen, die die Erste mit der Zweiten Welt in Ländern wie Korea (1950-1953), Vietnam (1964-1975) und Afghanistan (1979-1989) austrägt. Der Globale Süden - Stand 2023   Ein folgenreiches Zerwürfnis In den 1950er Jahren beginnt China, unterstützt von sowjetischen Beratern, nach stalinistischem Vorbild eine Schwerindustrie aufzubauen. Während der Leninismus Marx‘ Theorie nur dahingehend modifiziert, dass eine sozialistische Revolution nicht erst das Stadium des Kapitalismus   hinter sich lassen muss, sondern auch direkt von einen Feudalstaat ausgehen kann, geht Mao noch weiter: Er hält einen direkten Übergang vom Feudalismus  in die klassenlose Gesellschaft für möglich; das Stadium der Diktatur des Proletariats  kann somit übersprungen werden. Als der neue Parteichef der KPdSU, Nikita Chruschtschow , nach Stalins Tod 1953 eine Abkehr vom bisherigen dogmatischen Kurs verkündet, kommt es Ende des Jahrzehnts zum russisch-chinesischen Zerwürfnis: Mao will nicht von den stalinistischen Glaubenssätzen abrücken. Der 1958 vom Vorsitzenden verkündete „ Große Sprung nach vorn “, endet – ebenso wie 30 Jahre zuvor in der Sowjetunion – in einer Katastrophe. Binnen zweier Jahre bricht die Getreideproduktion um fast ein Drittel ein. Die überstürzte Umstellung auf eine Industriegesellschaft fordert vermutlich zwischen 15 und 55 Millionen Hungertote. Das Hauptquartier der Uno Der Kalte Krieg eskaliert Der Wettbewerb der Systeme wird nicht nur in den Entwicklungsländern ausgetragen. Als die Sowjetunion 1957 als erstes Land der Welt einen Satelliten ins All befördert und mit Juri Gagarin nur vier Jahre später auch den ersten Menschen, löst dies in der westlichen Welt den Sputnikschock  aus. Die Vorstellung einer quasi automatischen technologischen Überlegenheit des Westens hat sich als Illusion erwiesen. Der Schock führt dazu, dass die USA ihre Bildungspolitik nun verstärkt nach mathematisch-naturwissenschaftlichen Kriterien ausrichten und in den Wettlauf ins All einsteigen. Präsident Kennedy macht die Mondlandung zu einer nationalen Priorität – mit Erfolg: Am 20. Juli 1969 betritt Neil Armstrong als erster Mensch den Mond. Während der 1960er Jahre verschärft sich der Ost-West-Konflikt zusehends: Der Bau der Berliner Mauer  1961 stoppt die massive Abwanderung von DDR-Bürgern in den Westen; der Versuch der Sowjetunion, auf Kuba Kernwaffen zu stationieren, bringt die Welt ein Jahr später an den Rand eines Atomkriegs ; 1968 ersticken Truppen des Warschauer Pakts Reformversuche der tschechoslowakischen Regierung. BRD und DDR gehen getrennte Wege Anfang der 1970er Jahre kommt es zu einer kurzen Entspannungsphase, während der die Organisation für Sicherheit und Zusammenarbeit in Europa (KSZE) ins Leben gerufen wird. Doch als bald darauf die Sowjetunion den massiven Ausbau ihres Atomarsenals einleitet, reagiert die NATO 1979 auf Initiative des deutschen Bundeskanzlers Helmut Schmidt mit einem Doppelbeschluss: Es werden – Tit for Tat  – Verhandlungen über die Begrenzung atomarer Kurz- und Mittelstreckenraketen angeboten, kombiniert mit der Drohung, im Falle einer Ablehnung neue Atomsprengköpfe in Westeuropa zu stationieren. Die angespannte Ost-West-Lage ist nicht der einzige Konflikt, der die Welt Ende der 1970er Jahre in Atem hält. In den angelsächsischen Ländern kommt es zu einer Renaissance des ökonomischen Liberalismus , die bald auch auf die anderen westlichen Staaten auszustrahlen beginnt. Handelsbeschränkungen werden abgebaut und der Einfluss des fürsorglichen Sozialstaats wird, begleitet von großen gesellschaftlichen Spannungen, teils massiv zurückgedrängt.   Der Aufstieg des Islamismus Auch die islamische Welt erweist sich zunehmend als Unruheherd. Mit dem Wechsel vom Kohle- zum Erdölzeitalter in der ersten Hälfte des Jahrhunderts haben arabische Länder mit großen Ölvorkommen an geopolitischer Bedeutung gewonnen. Der seit Gründung des Staates Israel 1948 ungelöste Konflikt zwischen Juden und Palästinensern veranlasst die islamischen Förderländer nach dem verlorenen Jom-Kippur-Krieg  1973 ihre Quoten zu drosseln; die Folge ist die Ölkrise, eine schwere Rezession  in den westlichen Industriestaaten. Aber auch innerhalb der arabischen Welt gibt es zahlreiche Spannungen. Sie sind einerseits durch die von den europäischen Kolonialmächten willkürlich gezogenen Staatsgrenzen bedingt, andererseits durch religiöse Konflikte zwischen den verschiedenen islamischen Glaubensrichtungen. In vielen Ländern entsteht in den 1970er Jahren zudem ein religiöser Fundamentalismus . 1979 vertreiben die Anhänger des konservativen Geistlichen Ajatollah Chomeini den letzten Schah von Persien. Im selben Jahr fallen sowjetische Soldaten in Afghanistan ein. Sie sollen das lokale säkulare Regime stützen und den wachsenden islamistischen Einfluss auf die südlichen, mehrheitlich muslimisch geprägten Sowjetrepubliken eindämmen. Der Erfolg bleibt aus: Zehn Jahre später muss die geschlagene Supermacht das Land wieder räumen. [ii]   Die Sowjetunion implodiert Die Sowjetunion ist nicht nur in Afghanistan in der Defensive. In den 1980er Jahren tritt der Kalte Krieg in seine letzte Phase, in der sich die Zweite Welt als am Ende ökonomisch und technologisch unterlegen erweist. Das kostspielige Rüstungsprogramm, der teure Krieg am Hindukusch, die Defizite der Planwirtschaft, die sich auch durch die aufkommende Computertechnologie nicht in den Griff bekommen lassen, und nicht zuletzt die permanente Unterdrückung der eigenen Bevölkerung führen zum Zusammenbruch des politischen Systems. Die Streiks auf der Danziger Lenin-Werft 1980 sind die ersten sichtbaren Anzeichen einer breiten gesellschaftlichen Veränderung. Der Glaube an die Versprechen des Sozialismus schwindet; die Menschen fordern nicht nur mehr Wohlstand, sondern zunehmend auch Freiheitsrechte. George Bush und Boris Jelzin in Moskau 1993 Die Reformen, die der neue Generalsekretär der KPdSU Michail Gorbatschow  ab 1985 anstößt, entwickeln eine Eigendynamik, die 1989 zu einem raschen Ende der alten dualen Weltordnung führt. Friedliche Massenproteste in der DDR erzwingen die Öffnung der Berliner Mauer und lösen in den anderen Ostblockstaaten einen Dominoeffekt aus. Der Zusammenbruch der kommunistischen Regime verläuft, mit Ausnahme Rumäniens, insgesamt friedlich. In der Charta von Paris  legen im November 1990 alle KSZE-Staaten ein Bekenntnis zu Demokratie und Achtung der Menschenrechte ab. Ein Jahr später zerfällt die Sowjetunion in 15 neue Staaten mit dem einstigen Hegemon Russland als Rechtsnachfolger. Das Ende der Geschichte? Nachdem Faschismus und Nationalsozialismus in einem heißen Krieg unterlagen, hat ein kalter Krieg nun auch das Schicksal des Sozialismus besiegelt. Die Antithese , dass eine zentrale Instanz Verteilungsfragen besser regeln kann als Individualismus und freie Preisbildung, hat sich in der Praxis nicht bewährt. Über 40 Jahre lang war die Welt über die Frage entzweit, wie ökonomische Werte erzeugt und verteilt werden sollen. Nun hat sich der Liberalismus, gepaart mit einer Demokratie westlicher Prägung, im evolutionären Wettbewerb der Systeme durchgesetzt. Dies ist zumindest die Auffassung des amerikanischen Politikwissenschaftlers Francis Fukuyama,  der Anfang der 1990er Jahre die Welt mit seiner These vom „ Ende der Geschichte “ provoziert. Fukuyama ist überzeugt, dass mit dem Scheitern der letzten Utopie , der von Hegel vorgezeichnete historische Weg zur Freiheit nun zu Ende sei. Die westliche kapitalistisch-liberaldemokratische Gesellschaft stellt die endgültige Form menschlichen Zusammenlebens dar. Auch wenn Rückschläge und Fehlentwicklungen wahrscheinlich sind, werden, so Fukuyamas Prognose, über kurz oder lang alle Staaten diesem Modell folgen. Für den amerikanischen Politologen beruht die Überlegenheit des westlichen Gesellschaftsmodells auf zwei Dingen: naturwissenschaftlichem Denken und Individualismus. Das Erste zieht unweigerlich technologischen Fortschritt nach sich, das Zweite eine liberale Demokratie. Denn Individualismus fördert nicht nur Kreativität und Innovation  – mit denen sich die standardisierte Welt sozialistischer Systeme eher schwertut – sondern kommt auch dem universellen Bedürfnis nach Anerkennung entgegen, der eigentlichen Antriebskraft menschlichen Strebens und damit der Geschichte. Nur demokratische Verfassungen sind in der Lage, den Schutz individueller Freiheits- und Persönlichkeitsrechte wirksam zu garantieren, so dass es über kurz oder lang überall zu einer politischen Liberalisierung kommen muss. Für Fukuyama sind die Herausforderungen der Zukunft daher nicht kommende Systemkämpfe, sondern vielmehr der Aufbau transnationaler Ordnungen – das große Ziel etwa der Europäischen Union – sowie die Beherrschung neuer Technologien.   Die Entstehung unserer multipolaren Welt Tatsächlich aber erstarrt der weltweite Demokratisierungsschub der frühen 1990er Jahre schon bald. In Russland und den meisten anderen ehemaligen Sowjetrepubliken etablieren sich in der turbulenten Umbruchszeit Strukturen, die eine echte Liberalisierung von Wirtschaft und Gesellschaft bis heute verhindern. Einmal mehr erweist sich Korruption als Hintertür zur Macht: Das Staatsvermögen der ehemaligen UdSSR wird von kommunistischen Funktionären geplündert, teils unter tatkräftiger Mithilfe des KGB. Eine kleine russische Oligarchen -Elite verschafft sich Zugriff auf die reichlich vorhandenen Schlüsselressourcen Gas und Öl. [iii]  In den folgenden Jahren entsteht eine „gelenkte Demokratie“, die westlichen Maßstäben nicht gerecht wird und die in den 2010er Jahren unter Wladimir Putin in eine Autokratie  übergeht und seit Beginn der 2020er Jahre erneut in eine Diktatur  abgleitet. Spätestens mit dem Überfall auf die Ukraine im Februar 2022 wird deutlich, dass Russland weiterhin nationalistisch-autoritären und revanchistischen Denkmustern verhaftet bleibt und sich als „Drittes Rom“, als europäische Führungsnation im Abwehrkampf gegen westliche Dominanz und Dekadenz wähnt. Krieg bleibt für das größte Land der Erde weiterhin ein legitimes Mittel, um politische Interessen durchzusetzen. In China leitet Deng Xiaoping  nach Maos Tod 1976 weitreichende wirtschaftliche Reformen ein, die innerhalb von zwei Jahrzehnten eine Milliarde Menschen aus bitterster Armut befreien. Wie in Russland entstehen durch die Liberalisierung des Wirtschaftssystems auch in der chinesischen Bevölkerung rasch gewaltige Vermögensunterschiede. In den ersten beiden Jahrzehnten des 21. Jahrhunderts steigt China, nach jahrhundertelangem Dornröschenschlaf, mit fulminanten Wachstumsraten und seiner Bevölkerung von rund 1,4 Milliarden Menschen zur Weltmacht und einzig ernsthaftem Rivalen der USA auf. Doch auch mit dem zweitgrößten BIP der Welt folgt in China dem wirtschaftlichen Wandel nicht die von Fukuyama prognostizierte gesellschaftliche Öffnung. Die vor allem von Studenten getragenen Freiheitsbestrebungen kommen im Juni 1989 auf dem Platz des Himmlischen Friedens zu keinem friedlichen Ende. Seitdem scheint sich die neue, wohlhabende chinesische Mittelschicht mit den Machtverhältnissen weitgehend arrangiert zu haben. Schlüsselindustrien und Massenmedien bleiben unter staatlicher Kontrolle.   The Clash of Civilizations Auch die Siegermacht des Kalten Krieges spürt von einem Ende der Geschichte wenig. Wie die Sowjetunion 20 Jahre zuvor, scheitern die USA mit dem Versuch, nach den Anschlägen auf das World Trade Center vom September 2001, den radikalen Islam mit militärischen Mitteln kontrollieren zu wollen. So sehen denn auch Politologen, wie der Amerikaner Samuel Huntington , statt historischem Stillstand vielmehr einen heraufziehenden „ Kampf der Kulturen “, in dessen Mittelpunkt die westliche, die chinesische und die islamische Zivilisation stehen – ein ausdrücklicher Gegenentwurf zu Fukuyamas These. In Westeuropa, Wiege der modernen Welt, erstarken wieder die politischen Ränder; die ehemaligen Volksparteien , während des Kalten Krieges Bastionen der Stabilität, zerfallen oder zeigen starke Abnutzungserscheinungen. Die Europäische Union, vor 30 Jahren noch ein richtungsweisendes Projekt, steckt nach Euro-Schuldenkrise , dem Austritt Großbritanniens und vielfachem grundlegendem Dissens zwischen den ost- und westeuropäischen Partnern in einer Krise. Huntingtons Kulturräume   Ein neues Spiel der Kräfte Die Erdbevölkerung hat sich seit dem Zweiten Weltkrieg  von 2,5 auf rund 8,2 Milliarden Menschen Ende 2025 mehr als verdreifacht. Für das Jahr 2050 werden 9,5 Milliarden, für das Jahr 2100 knapp 11 Milliarden Menschen erwartet. Dabei zehrt die Ausbreitung unserer Art schon heute an den Möglichkeiten unseres kleinen Planeten. Zudem haben sich die letzten drei Jahrzehnte in der Rückschau global als um Einiges instabiler erwiesen, als die vorangegangenen vier Dekaden des Kalten Krieges. Neben Liberalismus und Demokratie sind nach wie vor weitere Kräfte im Spiel – darunter viele, bereits von Platon und Aristoteles beschriebene alte Bekannte . In der gerade entstehenden multipolaren Welt deutet augenblicklich nichts auf ein baldiges Ende der Geschichte hin.   Mit diesem Beitrag endet die Artikelserie zu „Geschichte der Menschheit“.   Den Blog entdecken   Wer mehr wissen will: Huntington, Samuel (2002): „Kampf der Kulturen: Die Neugestaltung der Weltpolitik im 21. Jahrhundert“, Goldmann. Fukuyama, Francis (1992): „Das Ende der Geschichte“, Kindler. Shapiro, Ian (2019): „Power and Politics in Today’s World”, Vorlesung Yale University. Collins, Larry / Lapierre Dominique (1996): "Um Mitternacht die Freiheit"  Kennedy, Paul (2000): „Aufstieg und Fall der großen Mächte“, Fischer. Charta der Vereinten Nationen Bildnachweise: UNO Hauptquartier in New York Huntingtons Einteilung der Kulturräume Fußnoten [i]  Zitiert nach Kennedy (1996) S.161. [ii] Seine Erfolge bei der Abwehr mächtiger ausländischer Invasoren, haben Afghanistan den Ruf als „Grab der Imperien“ eingebracht. Nach Alexander dem Großen scheiterten Briten, Sowjets und Amerikaner mit dem Versuch, das Land unter ihre Kontrolle zu bringen. [iii]  Vgl. Shapiro (2019) 2. Vorlesung.

  • Aristoteles: Ein Universalgenie in fünf Minuten

    Fortsetzung von „Platon: Philosophie als Befreiung“   Schüler und Lehrer Aristoteles   war ein Schüler Platons . 384 v. Chr. in der nordgriechischen Stadt Stagira geboren, trat er mit siebzehn oder achtzehn Jahren in Platons Akademie  ein, um sie erst 20 Jahre später, nach dem Tod seines Lehrmeisters um 348 v. Chr. wieder zu verlassen. Nach einer kurzen Episode als Lehrer des jungen makedonischen Thronfolgers Alexander , der später „der Große “ genannt werden würde, verbrachte er die folgenden Jahre an verschiedenen Orten Griechenlands mit ausgiebigen Naturstudien. Nach seinen Reisejahren kehrte Aristoteles um 335 v. Chr. nach Athen zurück. Hier gründete er im Hain des Lykeios seine eigene Schule, das Lyzeum . In den folgenden zwölf Jahren entstanden dort wahrscheinlich die meisten der von ihm überlieferten Werke, darunter auch viele der uns heute bekannten Zusammenfassungen vorsokratischer Lehren . Der größte Teil seines Werkes gilt jedoch als verloren. Das Erhaltene ist immerhin noch eindrucksvoll genug, um Aristoteles‘ Platz im Olymp der Philosophie   zu sichern. Aristoteles: einer der ganz Großen   Aristoteles und das „Sein“ Aristoteles war das vielleicht erste uns bekannte Universalgenie . Er interessierte sich sprichwörtlich für alles und prägte so unterschiedliche Bereiche wie Philosophie, Theologie, Sprache , Astronomie, Geschichte , Politik   , Ökonomie und Theater. Und anders als sein Meister beschäftigte er sich auch intensiv mit der Natur . Die Ideenlehre , den zentralen Gedanken seines Lehrers, lehnte er entschieden ab. Er sah in ihr nur „leere Worte und poetische Metaphern“. Aristoteles wollte den Dingen mit einem ganz anderen Ansatz auf den Grund gehen. Nicht im Jenseits, sondern im Hier und Jetzt sollen wir die Wahrheit suchen. Wir müssen sehr genau hinschauen und das, was sich uns offenbart, so getreu und umfassend wie möglich beschreiben. Die Welt wird nicht durch abstrakte Prinzipien bestimmt, sondern durch die unzähligen Einzeldinge um uns herum. Um in diesem Tohuwabohu Klarheit zu schaffen, müssen wir die Welt ordnen, sie kategorisieren und katalogisieren. Aristoteles widmet sich dieser Ordnung ausführlich in seiner Metaphysik . Systematisch legt er darin zehn Kategorien fest, die nötig sind, um das Seiende zu bestimmen: Das Ding als solches; seine Größe oder Menge; seine Beschaffenheit; das, worauf es sich bezieht; der Ort, an dem es sich befindet; die Zeit, zu der es ist; seine Lage oder Position; das, was es hat; das, was es tut; das, was es erleidet. Bukephalos: ein Pferd mit vielen Eigenschaften Die Kategorien zwei bis zehn sind Akzidenzien , das heißt Eigenschaften des betrachteten Dings. Keine dieser Eigenschaften kann allein existieren und allesamt sind sie veränderlich. Die erste Kategorie hingegen, die Substanz , das „Ding an sich“, kann ihr Wesen nicht abschütteln oder verwandeln. Aristoteles unterzieht diese erste Kategorie einer eingehenden Betrachtung, bei der er verschiedene substantielle Ebenen unterscheidet. Die erste Substanz sind die konkreten, individuellen Erscheinungen eines Dings. Aristoteles nennt als Beispiele Sokrates   und Bukephalos , das Pferd Alexanders des Großen . Die zweite Substanz ergibt sich aus den unveränderlichen Attributen der Ersten Substanz: Sokrates ist zweibeinig und vernunftbegabt; Bukephalos ist ein vierbeiniger Einhufer, der wiehert. Damit gehört Sokrates zu der Art „Mensch“ und Bukephalos zu der Art „Pferd“. Mensch und Pferd sind die Ebene der zweiten Substanz. Sie lassen sich wiederum zu einer noch allgemeineren dritten Substanz „Lebewesen“ zusammenfassen. Mit jedem Abstraktionsschritt entfernen wir uns von den konkreten Eigenschaften. So entstehen Hierarchien, mit denen sich die Dinge der Welt ordnen und beschreiben lassen. Anders als Platon konstruiert Aristoteles seine Ontologie  also von unten nach oben – eine eindeutige Stellungnahme gegen die Ideenlehre seines Meisters.   Ein Meister der Logik Doch wie lässt sich nun mit diesem System Wissen gewinnen? Wenn Sokrates ein Mensch ist und alle Menschen sterblich sind, folgt daraus, dass Sokrates sterblich ist. Der Syllogismus , auch als Deduktion  bezeichnet, ist die Methode, die formal vom Allgemeinen auf das Besondere schließt. [i]  Das Besondere, also dass auch Sokrates sterben muss, muss daher nicht noch einmal überprüft werden. Woher aber wissen wir, dass alle Menschen sterblich sind? Dies ergibt sich aus unserer Beobachtung: Wenn wir sehen, dass alle Menschen, die wir kennen, früher oder später das Zeitliche segnet, können wir daraus schließen, dass dies grundsätzlich für alle Menschen gilt. Diese Methode ist die Induktion , der Schluss vom Besonderen auf das Allgemeine. Mit seinen Kategorien und den Regeln des systematischen Schlussfolgerns legte Aristoteles nicht weniger als die Grundlagen des empirisch-wissenschaftlichen Arbeitens und der Logik . Jahrelang sammelte und klassifizierte er Pflanzen und Tiere und schrieb die ersten uns bekannten Lehrbücher der Biologie. Darin ordnet er alle lebenden und toten Dinge nach den Kriterien „Blut oder kein Blut“, „Anzahl Beine“, „warm oder kalt“ „feucht oder trocken“ sowie „Komplexität der Seele“ (die im Gegensatz zu Platons Vorstellung sterblich ist). So ist der Mensch ein Lebewesen mit Blut, zwei Beinen, warm und feucht und einer Seele, die zusätzlich zu vegetativen und sensitiven Eigenschaften auch über einen Verstand verfügt. Eine Schlange hat Blut, keine Beine, ist kalt und feucht und ihre Seele ist lediglich mit vegetativen und sensitiven Teilen versehen. Eine Pflanze hat weder Blut noch Beine, ist kalt und trocken und nur mit einer rein vegetativen Seele ausgestattet. Mineralien verfügen über die gleichen Eigenschaften wie die Pflanzen, nur, dass sie keine Seele besitzen. Wie zuvor schon Anaximander  vermutete auch Aristoteles aufgrund der bei seinen Naturstudien entdeckten anatomischen Analogien einen Entwicklungsprozess als Ursprung der Artenvielfalt . Aristoteles setzte auch Maßstäbe bei der Naturbeobachtung Aristoteles metaphysische Schriften wurden erst nach seinem Tod zu verschiedenen Büchern zusammengestellt und durchnummeriert. Im ersten Buch zur Metaphysik geht Aristoteles dem Wesen des „Seienden“ nach, also der Frage, warum etwas „ist“ und warum es „so ist, wie es ist“. Für das, was existiert, gibt es vier Ursachen: Stoff, Form, Wirkung und Zweck. Das Holz, aus dem ein Tisch besteht, ist dessen stoffliche Kausalität. Seine konkrete Gestaltung ist die Formursache. Die Wirkungsursache ist der Schreiner, der ihn erschuf und der Zweck, ist der Grund, warum er geschaffen wurde – etwa um als Esstisch zu dienen. Aus dem Zusammenspiel dieser vier Ursachen ergibt sich das Seiende und die Veränderungen, die wir an ihm beobachten können.   Begnadeter Systematiker und Religionsphilosoph Im sechsten Buch der Metaphysik stellt Aristoteles seine Einteilung der Wissenschaften vor. Dabei macht er drei grundlegende Unterscheidungen: Die theoretischen Disziplinen Metaphysik, Naturwissenschaften, Theologie und Mathematik bezeichnet er als die „kosmischen Angelegenheiten“. Sie betrachten ewige Wahrheiten und verfolgen keinen unmittelbaren Nutzen. Die praktischen Wissenschaften, die „menschlichen Angelegenheiten“, umfassen Ethik, Rhetorik und Politik. Sie sollen uns zu gutem, tugendsamem Handeln anleiten. Die „herstellenden Wissenschaften“ schließlich – zu ihnen zählen Handwerk, Medizin und Poetik – beschäftigen sich mit allem, das Nützliches hervorbringt. Im zwölften Band beschreibt der Philosoph sein religiöses Weltbild. Der Ursprung alles Seienden ist nicht Platons  Demiurg , sondern ein „ unbewegter Erstbeweger “. Jede Bewegung, die wir beobachten können, hat eine andere Bewegung zur Ursache. Doch die Kausalkette aus Ursachen und Wirkungen muss irgendwo und irgendwann ihren Anfang genommen haben. Dieser Anfang ist der Erstbeweger, ein reines, körperloses Wesen, das über allen Dingen schwebt. Trotz unterschiedlicher Argumentationen legen Platon und Aristoteles hier gemeinsam die Grundlage, um den Monotheismus als logisch-metaphysisches Konzept zu begründen.   Ethik Auch mit Fragen der Moral  setzt sich Aristoteles auseinander. Sein bekanntestes Werk hierzu ist die Nikomachische Ethik (Es ist nicht klar, ob Aristoteles diese Ethik seinem Vater oder seinem Sohn gewidmet hat – beide hießen Nikomachos.) Wie bei Platon ist auch bei Aristoteles Ziel allen Philosophierens „ Eudaimonia “, das Glück, das sich einstellt, wenn man ein gutes, sittliches Leben führt. Die hierfür nötigen Tugenden müssen allerdings erst entwickelt werden. Aristoteles‘  Tugendethik  bedeutet in erste Linie, Affekte zu beherrschen, Extreme zu vermeiden und so das richtige Maß, die goldene Mitte zu finden. Die extremen Ränder der Tapferkeit etwa, sind Tollkühnheit und Feigheit. Ein Soldat, der blind sein Leben aufs Spiel setzt, weil er keine Angst spürt, handelt nicht tapfer, sondern verantwortungslos. Wirklich tugendhaft ist derjenige, der sich bewusst entscheidet und seine Feigheit überwindet. Anders als für Platon gibt es für Aristoteles keine absolut verbindlichen ethischen Normen oder Regeln. Was gut, was schlecht ist, hängt von den konkreten Umständen eines jeden Einzelfalls ab.            Raffael: Die Schule von Athen (Ausschnitt). In der Mitte Platon und Aristoteles   Der Meister und sein Meisterschüler Mit Platon und Aristoteles erreicht die antike Philosophie ihren Höhepunkt. Der Meister und sein Meisterschüler haben das Feld nach seiner Länge und Breite abgesteckt und versucht, alle großen Fragen zu Gott und der Welt zu beantworten. Dabei sind zwei grundlegend verschiedene Sichtweisen deutlich geworden: Man kann entweder versuchen, die Wahrheit idealistisch rein mit Hilfe des Verstandes zu ergründen oder aber seiner konkreten sinnlichen Wahrnehmung vertrauen. Versinnbildlicht hat dies der Maler Raffael in seinem Anfang des 16. Jahrhunderts entstandenen Gemälde „ Die Schule von Athen “. Alle Weisen Griechenlands sind hier versammelt. In der Mitte Platon, dessen rechte Hand nach oben weist und uns daran erinnern möchte, dass die wahren Ideale nicht von dieser Welt sind (nach Ansicht einiger Kunsthistoriker trägt Platon die Gesichtszüge Leonardo da Vincis.) Neben ihm, auf Augenhöhe, steht Aristoteles, mit seiner Rechten die Höhenflüge seines Lehrers in Richtung Erde dämpfend. Dies ist das Spannungsfeld, in dem sich die Philosophie von nun an bewegen wird.   Die antike Philosophie nach Platon und Aristoteles: Glück, Zynismus und Gelassenheit Platon und Aristoteles waren Höhepunkt aber nicht Ende der antiken Philosophie. In den folgenden, von Instabilität gekennzeichneten Jahrzehnten entstanden zwei weitere bedeutsame Schulen, die ganz neue Akzente setzten. Ihr Ziel war es nicht, das Wissen über die Welt zu mehren, sondern vor allem, ob der unsicheren Verhältnisse, eine richtige und pragmatische Lebenseinstellung zu finden. Die Epikureer , nach ihrem Begründer Epikur benannt, betonen das natürliche Bedürfnis aller Menschen, Eudaimonia zu suchen. Es gilt, einerseits das kindliche Lust- und Glücksempfinden zu bewahren und andererseits mit zunehmender Reife Weisheit in den Lebensentwurf einzubauen – eine Lebenseinstellung, die erarbeitet werden will. Insbesondere müssen wir lernen, ungute Gefühle wie Angst, Schmerzen und Begierden aus unseren Leben zu verbannen. Die Menschen brauchen dabei die Götter nicht zu fürchten, denn sie interessieren sich nicht für menschliche Schicksale und auch der Tod sollte uns nicht schrecken, bedeutet er doch Erlösung von allem Schmerz und Leid. Diogenes ließ sich noch nicht einmal vom Großen Alexander beeindrucken Die Kyniker , von denen sich das Wort Zynismus ableitet, suchten das Glück im Streben nach Bedürfnislosigkeit. Ihr bekanntester Vertreter ist Diogenes von Sinope , ein Zeitgenosse Platons. Die wie Bettelmönche in selbstgewählter Armut lebenden Aussteiger-Philosophen, die gerne über ihre Mitmenschen spotteten, waren eine kurze Erscheinung, doch sie beeinflussten die Entstehung einer anderen Denkschule, dem von Zenon von Kition  begründeten Stoizismus . Ihre Adepten lehrten die Freiheit von materiellen Zwängen und sahen den Schlüssel zum Glück in hart erarbeiteter Askese und Selbstkontrolle. In der stoischen Weltordnung hat alles im Kosmos seinen festen Platz. Unglück entsteht nur, wenn wir gegen diese universelle Ordnung verstoßen. Lebensziel der Stoiker ist es daher, seinen vorbestimmten Platz im Universum zu finden und zu akzeptieren. Zenon von Kition - Gründungvater des Stoizismus Im zweiten vorchristlichen Jahrhundert geriet Griechenland zunehmend unter den Einfluss des expandierenden Römischen Reiches . Die Römer, als ausgesprochene Pragmatiker, zeigten sich vor allem an den praktischen Aspekten der griechischen Philosophie interessiert. Insbesondere der Stoizismus erschien ihnen als attraktive Lebenshaltung und fand weite Verbreitung unter den Eliten. Marcus Tullius   Cicero  war einer der Ersten, der philosophische Texte auf Latein verfasste, eine lateinische Fachterminologie prägte und damit die Philosophie im Römischen Reich weiter popularisierte. Der um die Zeitenwende geborene römische Philosoph Seneca , einer der meistgelesenen Autoren seiner Zeit, erhob als überzeugter Stoiker inneren Frieden, Gelassenheit und Vernunft zum wichtigsten Lebensziel. Mit Marc Aurel  schuf rund 100 Jahre später sogar ein Kaiser mit seinen auf Griechisch verfassten „Selbstbetrachtungen“ den letzten bedeutsamen Beitrag zur stoizistischen Literatur. In ihnen legt er dar, wie der „ Logos “ als großer Weltenplan die Dinge ordnet und dem die Menschen am besten dienen, indem sie ihre Emotionen kontrollieren und sich rational verhalten.   Den Blog entdecken   Wer mehr wissen will: Aristoteles (1975): „Die Nikomachische Ethik“, Dtv. Aristoteles (1995): „Metaphysik“, Meiner. Marc Aurel (2020): „Selbstbetrachtungen“, Finanzbuch Verlag.    Bildnachweis: Zenon von Kition   Fußnoten: [i] Genau genommen beschreibt Syllogismus bei Aristoteles nur eine spezielle Form des deduktiven Schließens, die mit nur zwei Prämissen, einer Konklusion und drei Begriffen arbeitet.

  • Was ist Philosophie?

    Eine unerwartete Begegnung Letzten Sommer habe ich mit zwei Freunden ein paar Tage in Sachsen-Anhalt und Sachsen verbracht. Für die Rückfahrt haben wir uns entschlossen, von Leipzig aus nicht direkt die Autobahn zu nehmen, sondern erst einmal ein Stück über die Landstraße zu fahren. Kurz hinter Lützen habe ich dann zufällig einen kleinen Wegweiser nach „Röcken“ gesehen…irgendwie sagte mir der Name was…dann fiel es mir wieder ein: Na klar, das ist der Geburtsort von Friedrich Nietzsche ... Fünf Minuten später standen wir vor Nietzsches Grab – er wurde nicht nur in Röcken geboren: Der durchaus religionskritische Sohn eines lutherischen Pfarrers liegt dort auch hinter der kleinen Dorfkirche begraben. Für uns drei eine unerwartete Begegnung.   Die Geschichte des Denkens In den letzten beiden   Blogs haben wir uns mit der Frage beschäftigt, wie wir mittels unseres Bewusstseins  die Welt um uns herum wahrnehmen und mit Hilfe der Sprache  versuchen, unserem Denken Ausdruck zu verleihen. Seit wir vor etwa 200.000 Jahren diese Fähigkeit erworben haben, wurden unzählige Gedanken gedacht und auch wieder vergessen. Die Philosophie ist die Summe jener Gedanken, die bis heute nachhallen. Sie haben deshalb überlebt, weil sie sich als besonders erhellend, nachvollziehbar und demzufolge auch besonders einflussreich erwiesen haben. Was zunächst einmal nichts über ihre Richtigkeit aussagt. Der gescheite Herr Kant ist der Urheber der vier Fragen Den Beitrag dieses Denkens zu unseren persönlichen Weltbildern können wir gar nicht überschätzen. Das unten stehende Schaubild der historischen Entwicklung der Philosophie macht aber auch deutlich, dass es unter diesen begründeten Theorien über die Welt eine verwirrende Fülle gibt. Die Themen sind breit gestreut: Wie gewinne ich neue Erkenntnisse? Was ist die Wirklichkeit? Was ist Wahrheit? Was ist Zeit? Gibt es eine unsterbliche Seele? Strebt die Geschichte einem Ziel zu? Was ist wahr, was ist falsch? Hat das Leben einen Sinn? Welche Grenzen setzt uns die Sprache?   Die Philosophie möchte die Grundlagen unserer Existenz verstehen, das große Ganze betrachten und die Dinge zusammenführen. In einem Niemandsland, das dem Mathematiker   und Philosophen Bertrand Russell zufolge irgendwo zwischen Theologie und exakten Wissenschaften angesiedelt ist, springt sie dort in die Bresche, wo andere Disziplinen an ihre Grenzen stoßen. Die historische Entwicklung der Philosophie   Ein zerklüftetes Terrain Das Terrain in diesem Niemandsland ist in höchstem Maße zerklüftet. Kaum ein Thema, bei dem es Einigkeit gäbe. Das hat nur allzu menschliche Gründe: Philosophen haben unterschiedliche Erfahrungen gemacht und stets sind sie auch Kinder ihrer Zeit; ihre Werke spiegeln die Denkperspektiven und Lebensumstände verschiedener Epochen wider und oft auch sehr persönliche Existenzbedingungen. (Weder Platon  noch Aristoteles  kam es etwa in den Sinn die Sklaverei in der griechischen Gesellschaft in irgendeiner Form infrage zu stellen.) Doch letztlich sind aus diesen Dialogen, Debatten und Querelen die modernen Natur- und Geisteswissenschaften hervorgegangen aber auch die moralische Normen, die unsere politischen Verfassungen und Gesetze prägen. Die Ethik eines Konfuzius  hat auch heute noch großen Einfluss auf Gesellschaften vieler ostasiatischer Kulturen; die Amerikanische Verfassung zitiert John Locke  und David Hume  fast im Wortlaut; die Lehre eines Karl Marx  hat einem ganzen Jahrhundert ihren Stempel aufgedrückt. Vier Fragen Einer der meiner Meinung nach besten Vorschläge, in dieses Tohuwabohu eine gewisse Ordnung zu bringen, stammt von Immanuel Kant : Ihm zufolge lassen sich alle philosophischen Erkundungen auf lediglich vier Fragen zurückführen: Was kann ich wissen? Was soll ich tun? Was darf ich hoffen? Was ist der Mensch? Das bringt es ziemlich auf den Punkt. Die vier Fragen decken sowohl die theoretischen als auch die praktischen Aspekte der Philosophie ab. Kant hat damit die Dimensionen des komplexen philosophischen Kosmos sehr ausführlich vermessen. Die erste Frage beschäftigt sich mit begründbaren Überzeugungen über die Welt. Dabei geht es einerseits um Erkenntnis- und Wissenschaftstheorie: Welche Methoden und Werkzeuge, benötige ich, um Dinge beobachten, analysieren und zueinander in Beziehung setzen zu können, und welche Schlussfolgerungen lassen sich aus den Beobachtungen ziehen? Es geht aber auch um die sehr spezielle Frage, ob wir grundsätzlich etwas in Erfahrung bringen können, ohne es vorher beobachtet zu haben. Die Disziplin, die sich mit dem Thema beschäftigt, ob wir gesichertes Wissen auch jenseits der dinglichen, physischen Welt erlangen können, ist die Metaphysik – also das, was sich „jenseits der Physik “ befindet. Ihr wichtigster Teilbereich ist die Ontologie, die sich mit den grundsätzlichen Fragen des Seins auseinandersetzt: Was sind Wesen, Strukturen und Zustände dessen, was „ist“? Hat wenigstens Nietzsche den Durchblick? Während die erste Frage der theoretischen Philosophie zugeordnet wird, hat Kants  zweite Frage „Was soll ich tun?“ handfeste praktische Bedeutung. Die Natur ist den immer gleichen kausalen Zwängen ausgesetzt. Der Mensch aber hat die Möglichkeit, sich für oder gegen etwas zu entscheiden. Aus dieser Freiheit entstehen Konflikte, Dilemmata und Verantwortlichkeiten. Grundlage der praktischen Philosophie ist die Ethik. Sie möchte Maßstäbe und Maximen für moralisch richtiges Handeln festlegen: Welche Kriterien sollen wir zur Beurteilung einer Situation heranziehen? Wie sind sie zu gewichten? Welches Verhalten ist angemessen? Darf ein Angeklagter aufgrund von Indizien verurteilt werden? Ist Freiheit höher zu bewerten als Gleichheit? Soll es Einzelnen schlechter gehen dürfen, damit es Vielen besser geht? Kants  dritte Frage „was darf ich hoffen?“ bewegt sich wiederum in rein metaphysischen Sphären. Es geht um Themen, bei denen weder Erkenntnistheorie noch Ethik weiterhelfen: Gibt es ein Jenseits? In welchem Verhältnis stehen Wissen und Glaube zueinander? Welchen Sinn hat die Schöpfung? Kann die Existenz Gottes bewiesen oder widerlegt werden? Sollten wir eine bessere Welt nicht lieber schon im Diesseits suchen? Gibt es ein Ziel, dem die Menschheitsgeschichte zustrebt? Für Kant münden die drei ersten Fragen in eine vierte und letzte: „Was ist der Mensch?“ Für den Königsberger Philosophen ist dies das entscheidende Thema. Welche Rolle spielt der Mensch aufgrund seiner Sonderstellung in der Welt, was ist seine Bestimmung? Welche Rechte und Pflichten ergeben sich aus dieser Besonderheit? Warum erlaubt es unser Geist, Fragen zu stellen, von denen wir wissen, dass wir sie nie werden beantworten können? Worin besteht die Würde des Menschen – und warum tasten wir sie so oft an? Das ist das Themenspektrum, mit dem wir uns in den kommenden Philosophie-Blogs beschäftigen werden.   Weiterführende Literatur: Bertrand Russell (2012): „Philosophie des Abendlandes”, Anaconda. Michael Picard (2018): „Philosophie – Von Platons Himmel bis Zenons Paradox“, Librero

  • Science-Fiction als Schule der Vernunft

    von Rüdiger Schäfer   Science-Fiction ist keine Wahrsagerei mit Raumschiffen. Das war sie nie. Wer das Genre nur als Zukunftsvorhersage begreift, verkennt seine eigentliche Kraft: Science-Fiction ist eine Denkmaschine. Gute SF fragt nicht: »Wie wird es kommen?« Sondern: »Was wäre, wenn… – und was macht das aus uns?«   Meinen ersten SF-Roman habe ich mit acht Jahren gelesen. Es war eines der »Raumschiff Monitor« -Bücher von Rolf Ulrici (1922-1997). Es folgten die Werke von Asimov, Heinlein, Clarke, Bradbury, Herbert und vielen anderen. Und natürlich stieg ich auch bei PERRY RHODAN (PR) ein, einer Heftromanserie, an der man in den 1970er und 1980er Jahren gar nicht vorbeikam, wenn man sich für Science-Fiction interessierte.   Gute Science-Fiction sagt mehr über die Gegenwart als über die Zukunft Nach dreißig Jahren als Fan und Leser von PR, schreibe ich nun schon seit 2005 selbst für dieses deutsche SF-Phänomen, das sich bis heute am Markt gehalten hat. Die Science-Fiction ist zu einem nicht mehr wegzudenkenden Teil meines Lebens geworden. Gute SF baut Welten. Nicht nur um zu beeindrucken, sondern um unsere Gegenwart zu testen oder doch zumindest zu entlarven: moralisch, politisch, psychologisch. Science-Fiction ist für mich deshalb weniger eine Literatur der Zukunft, als eine Literatur der Konsequenzen. Oder wie die SF-Autorin Ursula K. Le Guin  es einst messerscharf formuliert hat: »Science-Fiction is not predictive; it is descriptive.«  (frei übersetzt: »Science-Fiction prophezeit nicht; sie beschreibt.«)     Die Zukunft ist in der SF nicht das Ziel, sondern ihr Werkzeug In der Science-Fiction begegnet die Zukunft dem Leser nicht als Fahrplan. Sie ist eher ein Denkszenario. Ein Vergrößerungsglas. Ein Spiegel, den man absichtlich ein wenig schräg hält, damit das Jetzt und Hier verfremdet wirkt. Denn darin liegt die Kraft dieser Literaturgattung: Sie zwingt uns, Fragen zu stellen, die wir üblicherweise verdrängen, weil sie unbequem sind. Bleibt der Mensch noch Mensch, wenn wir in der Lage sind, Bewusstsein eins zu eins zu kopieren und zu digitalisieren? Was ist Freiheit in einer Welt perfekter Simulationen noch wert? Wer definiert Wahrheit, wenn die Realität beliebig manipulierbar ist? Und wie stabil ist unsere Moral, wenn Technik uns erlaubt, die Konsequenzen unseres Handelns einfach wegzuretuschieren?   Science-Fiction liefert Antworten auf diese und viele ähnliche Fragen nicht als wissenschaftliche Studie oder Essay. Sie baut sie als Erlebnis. Sie inszeniert und dramatisiert. Und gerade dadurch wirken diese Antworten lange nach. SF ist keine Prognose, sondern eine Art Handeln auf Probe. Oder, um es mit Ray Bradbury  zu sagen: »Science-Fiction is really a sociological study of the future.«  (frei übersetzt: »Science-Fiction ist Gesellschaftsanalyse im Zukunftsmodus.«) Sie ist Gesellschaftskunde – nur eben nicht in der Gegenwart, sondern im Möglichkeitsraum. Und das ist auch der Grund, warum sie so gut funktioniert. Sie beschäftigt sich nicht nur mit dem, was kommt und was wir sind, sondern auch mit dem, was wir sein könnten und was wir werden dürfen, ohne uns selbst zu verlieren.   Science-Fiction entlarvt das scheinbar Alternativlose als bloße Gewohnheit – als geistige Trägheit, die sich für ein Naturgesetz hält. Frei nach William Gibson: » The future is already here — it’s just not evenly distributed.« (frei übersetzt: »Die Zukunft existiert bereits. Nur kommt sie nicht überall gleichzeitig an.«) Science-Fiction erzählt deshalb nicht von der  Zukunft. Sie erzählt von möglichen Zukünften  – und jede davon ist eine offene Frage an unsere Gegenwart. Manchmal leise. Manchmal wie ein Faustschlag. Und manchmal so elegant, dass man erst beim Umblättern merkt, wie sehr es wehgetan hat. Denn am Ende ist Science-Fiction immer auch Selbstprüfung. Sie wirkt so lange nach, weil sie nicht die Zukunft erklärt, sondern die Gegenwart enttarnt. Schon Stanisław Lem  wusste in seinem 1961 erschienenen Meisterwerk »Solaris« : »Wir wollten zu den Sternen, aber wir treffen immer nur auf uns selbst.«     Science-Fiction fragt: »Was kostet das?« Fortschritt klingt immer gut. Bis man ihn ernst nimmt. Science-Fiction stellt auch hier die eine und meist entscheidende Frage: »Was kostet das?« Unsterblichkeit? Macht? Demokratie? Schönheit? Sicherheit? Gute SF zeigt auf, dass jedes Mehr  automatisch auch ein Weniger  erzeugt. Mehr Sicherheit kostet Freiheit. Mehr Bequemlichkeit kostet Selbstbestimmung und Verantwortung. Mehr Optimierung kostet Vielfalt. Und mehr Überwachung kostet in den meisten Fällen Menschlichkeit.   Mein Gastautor schreibt für ein globales Unikat: Perry Rhodan ist mit über einer Milliarde verkaufter Hefte die erfolgreichste Science-Fiction- und Heftroman-Serie der Welt Science-Fiction denkt Fortschritt deshalb nicht als Werbeprospekt, sondern als Bilanz. Sie zeigt uns nicht nur, was möglich wird – sondern auch, was dabei verloren geht. Und vor allem: wer  den Preis bezahlt. Denn in den großen Zukunftsversprechen steckt oft ein stilles Ungleichgewicht: Der Nutzen wird gefeiert, die Nebenwirkungen werden ausgelagert – an Minderheiten, an Randgruppen, an die, die keine Stimme haben. Oder an das Morgen, das sich nicht wehren kann. Isaac Asimov hat das schon vor Jahrzehnten erkannt, als er 1988 schrieb: »Der gegenwärtig traurigste Aspekt des Lebens besteht darin, dass die Science-Fiction schneller Wissen anhäuft, als die Gesellschaft Weisheit.«   Science-Fiction ist damit eine Art intellektuelle Steuersoftware. Sie bremst nicht den Fortschritt – sie zwingt ihn, Verantwortung mitzudenken. Und sie stellt nicht nur die Frage: Können wir das? Sondern vor allem: Sollten wir das? Denn am Ende ist die Zukunft kein Zielpunkt, sondern ein Prüfstein. Science-Fiction erinnert uns daran, dass Technik nicht automatisch Zivilisation bedeutet – und dass jede neue Möglichkeit alte Tugenden braucht: Maß, Urteilskraft, ja sogar ein Stück Weisheit. Oder anders gesagt: Science-Fiction ist die Literaturform, die nicht fragt, wie die Welt wird – sondern ob wir in ihr noch wir selbst sein wollen und können.     Science-Fiction trainiert geistige Beweglichkeit   Eines, wenn nicht gar das berühmteste Zitat von Arthur C. Clarke  lautet: »Any sufficiently advanced technology is indistinguishable from magic.«  (frei übersetzt: »Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.«) Die in der Aussage steckende Warnung ist simpel – und gefährlich aktuell: Wenn wir Dinge nicht verstehen, behandeln wir sie wie Magie. Und Magie wird nicht kontrolliert, sondern verehrt.   Science-Fiction leistet hier wertvolle Denkarbeit: Sie entzaubert. Sie fragt nach Mechanismen, nach Machtstrukturen, nach Nebenwirkungen. Sie hilft uns, Ambivalenzen auszuhalten – und genau das ist heute eine Schlüsselkompetenz. Die SF trainiert damit nicht nur Fantasie, sondern geistige Beweglichkeit. Sie zwingt uns, Perspektiven zu wechseln, Selbstverständlichkeiten zu misstrauen und das Unbequeme mitzudenken. Denn wer Ambivalenzen aushält, fällt nicht so leicht auf einfache Heilsversprechen herein – weder auf technologische noch auf politische. Und vielleicht ist das der größte Wert dieses Genres: Es macht uns nicht unbedingt zukunftssicher, aber urteilsfähiger. Es hilft uns, Komplexität nicht als Bedrohung zu empfinden, sondern als notwendige Realität. Das Leben ist Veränderung. Die SF kann uns lehren, ihr nicht zu entfliehen, sondern ihr mit Mut zu begegnen und sie als Chance zu begreifen.    Was machen die Möglichkeiten mit uns?   Science-Fiction ist die Literatur der Zumutungen   Fantasy tröstet. Thriller beschleunigen. Science-Fiction dagegen stellt oft eine Frage, die man nicht weglesen kann: »Was bist du bereit zu akzeptieren?« Wie weit darf Forschung gehen? Was ist Leben , wenn Maschinen inzwischen Bewusstsein täuschend echt simulieren ? Wo endet Fortschritt und wo beginnt Entmenschlichung? Octavia E. Butler (1947-2006), eine US-amerikanische Science-Fiction-Autorin und Pionierin afroamerikanischer Zukunftsliteratur, hat diesen Effekt sehr schön in Worte gegossen: »At its best, Science-Fiction stimulates imagination and creativity. It gets reader and writer off the beaten track…«  (frei übersetzt: »In ihrer besten Form regt Science-Fiction Fantasie und Kreativität an. Sie bringt Leser und Autor dazu, die ausgetretenen Pfade zu verlassen …«)   Science-Fiction ist gut, wenn sie stört. Wenn sie in den Kopf greift und Dinge umstellt. Sie ist keine Flucht aus der Wirklichkeit, sondern eine Zuspitzung der Realität. Sie macht sichtbar, was wir im Alltag oft übersehen: die stillen Kosten des Fortschritts. Und sie fragt nicht zuerst, was möglich ist, sondern was vertretbar bleibt. Denn je mächtiger unsere Werkzeuge werden, desto wichtiger wird unser Maß. Zukunft ist keine Zeit – Zukunft ist Verantwortung.     Warum SF gerade jetzt unverzichtbar ist   Wir leben längst in einer Welt, die klassische SF-Motive nicht mehr erfindet , sondern von ihnen eingeholt und überholt wird. KI-Systeme, die Persönlichkeit und Kompetenz imitieren und dadurch Entscheidungen beeinflussen. Deepfakes , die Wahrheit und Fakten zur Verhandlungsmasse machen. Algorithmen , die Aufmerksamkeit in die gewünschte Richtung lenken – also Macht kanalisieren. Biotechnologie, die die Natur  neu definiert. Simulationen, die Erfahrung ersetzen und Erinnerungen generieren. In dieser Gegenwart wirkt SF nicht wie Flucht – sondern wie Orientierung. Sie bietet vielleicht keine endgültigen Antworten, aber dafür liefert sie etwas viel Wertvolleres: Urteilskraft.   Sie macht uns nicht zukunftssicher. Sie macht uns denkfähig.   Zusammenfassung Science-Fiction ist keine literarische Spielerei, sondern kulturelles Werkzeug: Sie ist Denkmaschine, Moraltest und Möglichkeitslabor zugleich. Gute SF entwirft nicht nur Welten – sie untersucht, welche Entscheidungen aus uns welche Art von Menschen machen.   Gerade in einer Zeit, in der Technologien schneller wachsen als gesellschaftliche Reife, wird Science-Fiction zur notwendigen Literaturform: Sie trainiert die Fähigkeit, komplex zu denken, Ambivalenzen zu ertragen und Konsequenzen mitzulesen. Oder anders: Science-Fiction ist nicht die Literatur der Zukunft – sie ist die Gebrauchsanweisung für die Gegenwart! Über den Gastautor: Rüdiger Schäfer  ist Science-Fiction Schriftsteller und schreibt unter anderem seit 2005 für die legendäre PERRY RHODAN-Reihe, die seit 1961 bestehende größte SF-Serie der Welt. Den Blog entdecken

  • Ökonomie in der globalisierten Welt

    Fortsetzung von „Der Liberalismus schlägt zurück“   Die Neoklassische Synthese Aus dem Dissens der 1930er Jahre zwischen Keynesianern  und Neoliberalen entstand nach dem Zweiten Weltkrieg   – die liberalistischen und marxistischen Minderheitspositionen radikaler Freiheit  und radikaler Gleichheit ausgenommen – ein erstaunlich breiter Konsens. Der amerikanische Nobelpreisträger Paul Samuelson  (1915-2009) hatte für dieses Einvernehmen in den 1950er Jahren den Begriff der Neoklassischen Synthese  geprägt, die Verschmelzung der neoklassischen Mikroökonomik  mit zentralen Elementen der keynesianischen Makroökonomie . Paul Samuelson Heute besteht weitgehend Einigkeit, dass freie Märkte grundsätzlich das effizienteste Mittel sind, um die komplexen Verteilungsprobleme knapper Güter zu lösen. Milton Friedman verdeutlichte diese Macht des Kapitalismus   einmal anhand eines einfachen, nur wenige Cents kostenden Bleistifts. Um ihn zu erschaffen, haben tausende Menschen zusammengearbeitet. Dazu gehören auch die Bergarbeiter, die die Erze förderten, die für den Bau der Kettensäge nötig waren, mit denen der Baum für das Holz des Bleistifts gefällt wurde. Hinter diesem Wunder verbirgt sich eine unvorstellbar komplexe internationale Arbeits- und Wissensteilung. Wie in der biologischen Evolution gibt es keinen intelligenten Schöpfer, keinen Masterplan, keine koordinierende Instanz, sondern allein durch Preissignale gesteuerte Anreize. Arbeitslose in Chicago 1931 Ebenso wenig aber wird von der herrschenden Meinung bestritten, dass Märkte auch versagen können – mit dramatischen Folgen wie Massenarbeitslosigkeit und massiver Geldentwertung. Aktive staatliche Ausgaben- und Geldpolitik gehören heute zum gängigen Repertoire entwickelter politischer Systeme und offenbar lassen sich mit ihnen, trotz mäßiger theoretischer Fundierung, die Konsequenzen des Marktversagens einigermaßen in Schach halten. Zumindest hat sich eine ähnlich tragische Situation wie die Große Depression  seitdem nicht wiederholt. Während 1929 das reale BIP in den USA und Deutschland vier Jahre in Folge schrumpfte und dabei insgesamt um fast 30% einbrach, ließ sich in der globalen Finanzkrise von 2007 der Einbruch auf etwa 18 Monate Dauer und 5% BIP-Verlust begrenzen. Die Meinungsunterschiede innerhalb des ökonomischen Mainstreams verlaufen heute vor allem entlang der Frage, ob die Ursachen dysfunktionaler Märkte eher auf der Markt- oder auf der Staatsseite zu suchen sind. Doch mit dieser relativ harmonischen Fügung ist die Ökonomie  noch nicht am Ende ihrer Geschichte angekommen. Seit einigen Jahrzehnten sieht sie sich mit drei neuen Realitäten konfrontiert: Dem demographischen Wandel in den Industrienationen, Der Entwicklung nicht industrialisierter Länder und Der Vereinbarkeit von Ökonomie und Ökologie .    Macht und Ohnmacht der Demographie Der demographische Wandel in den reichen Ländern ist vor allem eine Herausforderung für die Sozialversicherungssysteme. Als Bismarck  in Deutschland, als erstem Land der Welt, in den 1880er Jahren eine Kranken-, eine Unfall- und einige Jahre später auch eine Rentenversicherung einführte, um eine zunehmend selbstbewusste Arbeiterschaft ruhig zu stellen, war die Finanzierung staatlicher Rentenkassen noch kein Problem. Damals wie heute beruht sie auf dem Prinzip, dass die Jungen für die Alten einzahlen. Heute aber sehen sich zum ersten Mal in der Geschichte die wohlhabenden Staaten mit drastisch sinkenden Geburtenzahlen und infolgedessen einer schrumpfenden Bevölkerung konfrontiert. Den Vorsorgesystemen bricht das Fundament weg. Grundsätzlich sind fünf Maßnahmen denkbar, mit denen ihr Erhalt gesichert werden kann: Die Menschen können länger arbeiten, höhere Beiträge zahlen, ein niedrigeres Leistungsniveau akzeptieren, eine umfassende Einwanderung jüngerer Menschen aus ärmeren Ländern zulassen oder versuchen, ein wesentlich höheres Wirtschaftswachstum zu erzielen. Aufgrund der vorhandenen Demographiedaten ist es für Ökonomen relativ einfach auszurechnen, welchen Umfang jede einzelne Maßnahme haben müsste, wenn sie die alleinige Lösung des Problems sein sollte. Für Deutschland etwa müsste das Renteneintrittsalter bis 2041 auf 73 Jahre steigen, um das derzeitige Niveau aufrechtzuerhalten. Die Empfehlung des amerikanischen Nobelpreisträgers Robert Solow  ist es, auf ein nachhaltiges Wirtschaftswachstum zu setzen. Da dieses eng an den technologischen Fortschritt gekoppelt ist, täte, so Solow, der Staat besser daran langfristig Forschung und Entwicklung zu fördern, anstatt kurzfristig Geld  für Konjunkturprogramme auszugeben. Letztlich wird aber wohl nur ein Mix aus verschiedenen Maßnahmen das System am Leben erhalten können. Nicht alles, was ökonomisch geboten wäre, wird dabei auch politisch durchsetzbar sein.   Animierte Darstellung der Alterspyramide für Deutschland 1970-2020: Die Pyramide stellt sich über die Zeit auf den Kopf Entwicklungen des „Globalen Südens“ Verschiedene „Welten“ Außerhalb der Industrienationen ist die demographische Entwicklung eine ganz andere. Lebten 1970 nur zwei von drei Menschen in den so genannten „ Entwicklungsländern “, waren es eine Generation später bereits vier von fünf, ein Trend, der sich seitdem noch weiter beschleunigt hat. Der Begriff Entwicklungsländer geht auf eine Wortschöpfung in der Regierungserklärung des amerikanischen Präsidenten Harry S. Truman aus dem Jahre 1949 zurück, die damals alle noch nicht industrialisierten Staaten bezeichnete. Drei Jahre später prägte der französische Demograph Alfred Sauvy  den Begriff „ Dritte Welt “, in Anlehnung an die alte vorrevolutionäre französische Ständeordnung mit ihrem politisch entrechteten „Dritten Stand“. Dass die Ökonomen Mitte des 20. Jahrhunderts begannen, sich mit den Ursachen und Folgen der höchst unterschiedlichen Entwicklungen auf der Erde zu befassen, hatte zunächst vor allem einen handfesten politischen Hintergrund: Der Westen, die „ Erste Welt “, buhlte mit den sozialistischen Staaten, der „ Zweiten Welt “, im Kalten Krieg   um Macht und Einfluss in den armen Ländern.   Geodeterminismus und Ressourcenfluch Tatsächlich ist der Wohlstand  nicht nur innerhalb, sondern auch zwischen den Nationen extrem ungleich verteilt. Im Jahr 2018 betrug das kaufkraftbereinigte pro-Kopf BIP für die Schweiz rund 65.000 US-Dollar, für die USA 63.000, Deutschland 52.000, Portugal 32.000 und Simbabwe weniger als 3.000. [i]  Dabei ist Simbabwe bei weitem nicht das ärmste Land der Welt. Die Entwicklungsökonomie  versucht vor diesem Hintergrund zu verstehen, welche Voraussetzungen gegeben sein müssten, damit die Entwicklungsländer  – heute sprechen wir vom „ Globalen Süden “ – zu den Industriestaaten aufschließen können. Dazu gehört zunächst eine Ursachenanalyse der auffälligen Disparitäten: Sind sie in den armen Ländern selbst zu suchen oder aus Abhängigkeiten von den reichen Nationen entstanden? Zwei einfache Erklärungsansätze, die die Gründe in den armen Ländern sehen, diskutieren die Entwicklungsökonomen unter den Begriffen „ Geodeterminismus “ und „ Ressourcenfluch “. Der globale Süden - Stand 2023 Geodeterministen erklären die sehr unterschiedlichen historischen Entwicklungsverläufe mit geographischen und klimatischen Unterschieden. Gebirgige Länder, Wüstenstaaten, abgelegene Inseln, Regionen mit extrem heißem oder frostigem Klima, Staaten ohne Zugang zum Meer oder Bodenschätzen, haben schlichtweg schlechtere Voraussetzungen ihre Wirtschaft zu entwickeln und am internationalen Handel  teilzunehmen. Zweifellos leiden Länder wie Armenien, der Sudan, Nepal oder der pazifische Inselstaat Vanuatu unter solchen Gegebenheiten. Alleinige Ursache kann die Geographie jedoch nicht sein; wie könnte sonst die Schweiz, ein rohstoffarmer, gebirgiger Binnenstaat, zu den reichsten Ländern der Welt zählen? Auch der Ressourcenfluch – er bezeichnet die scheinbar paradoxe Situation, dass viele Länder, die reich mit Rohstoffen wie Erdöl, Erdgas oder wertvollen Metallen gesegnet sind, trotzdem bettelarm bleiben – taugt kaum als alleinige Erklärung. Dass sprudelnde Einnahmen aus dem Export der Rohstoffe oftmals zur Vernachlässigung anderer Wirtschaftssektoren führen, mag auf Länder wie Russland, Venezuela, Nigeria oder die Demokratische Republik Kongo zutreffen; für Kanada oder Norwegen aber greift eine solche Begründung zu kurz. Einen umfassenderen Ansatz stellt die These von der Armutsfalle dar. Sie beschreibt jene höchst ungesunde Mischung aus politischen Faktoren, die verhindern, dass eine Nation sich aus eigener Kraft aus ihrer Misere befreien kann. Korruption , instabile gesellschaftliche Verhältnisse, lange kriegerische Konflikte, unsichere Eigentumsverhältnisse, eine abhängige Justiz, galoppierende Inflation, ausufernde Kriminalität, fehlender Zugang zu Bildungseinrichtungen und die Diskriminierung großer Minderheiten sind keine guten Voraussetzungen für die Entwicklung von Wohlstand.   Failed States – wer ist „schuld“? Länder mit solch traurigen Bedingungen sind mehr oder weniger „ gescheiterte Staaten “, die sich entweder in der Hand korrupter aber gut organisierter und wohlhabender Oligarchien  befinden oder bei denen jegliche staatliche Ordnung zerfallen ist. Während es ehemals armen Ländern wie China, Südkorea, Südafrika oder Brasilien durch Fortschritte bei der Bildung und der Stabilisierung politischer Verhältnisse gelungen ist, zu den klassischen Industrieländern aufzuschließen, verharren vor allem die allermeisten afrikanischen Staaten, aber auch Länder wie Russland, Nordkorea und Venezuela in den Fängen starrer und korrupter Regime. Andere Entwicklungsökonomen sehen hingegen die Armutsursachen im Verhalten der reichen Nationen, die den Entwicklungsländern nach wie vor postimperialistische Zwänge auferlegen. Ein bekannter Verfechter dieser Sicht ist der amerikanische Soziologe und Wirtschaftshistoriker Immanuel Wallerstein  (1930-2019). Gemäß seiner neomarxistischen Welt-System-Theorie  hat sich der Kapitalismus nach und nach auf der gesamten Erde eine hierarchische, dreischichtige Struktur erschaffen. An der Spitze dieses Systems finden sich die nordatlantischen Staaten. Ihre Industrienationen tragen die für den Kapitalismus typischen Konjunkturzyklen in die Welt. Unter ihnen stehen die Staaten der Semi-Peripherie, wie Mexiko, Brasilien, Südafrika, Indien und China. Die kapitalistischen Kernländer haben aus Kostengründen weite Teile der Industriearbeit in diese Länder ausgelagert und beuten sie oftmals mithilfe lokaler autoritärer Strukturen aus. Gleichzeitig dient die Semi-Peripherie in dem schwelenden Nord-Süd-Konflikt als Puffer gegen die Peripherie, den armen Rest der Welt. Diesem kommt in dem weltumspannenden arbeitsteiligen System die Aufgabe zu, die reicheren Länder mit einfachen Primärgütern und Rohstoffen zu versorgen. Ihre staatlichen Systeme sind labil und werden von den kapitalistischen Industriestaaten absichtlich schwach gehalten. In Wallersteins Theorie ist die Ordnung der Welt allein durch die ökonomischen Interessen der herrschenden Klasse bestimmt.   Eine Empfehlung aus Washington Neben dem Neomarxisten Wallerstein meldete sich im letzten Viertel des 20. Jahrhunderts vor allem der wiedererstarkte Neoliberalismus   zu Wort. Ganz im Sinne Ricardos fordern liberale Entwicklungsökonomen, die „Drittweltländer“ am internationalen Handel  teilhaben zu lassen und alle diesbezüglichen Hemmnisse konsequent abzubauen. Sie weisen darauf hin, dass Handel die gleiche volkswirtschaftliche Wirkung hat, wie technischer Fortschritt : Beide erlauben es mit den gleichen Einsatzmitteln mehr zu produzieren. Das Füllhorn staatlicher Subventionen, das die reichen Industrieländer über ihrem eigenen Landwirtschaftssektor ausschütten, sorgt allerdings dafür, dass die armen Länder trotz niedrigerer Arbeitskosten mit ihren Agrarprodukten kaum auf dem Weltmarkt konkurrieren können. Der 1990 in der amerikanischen Hauptstadt erzielte „ Konsens von Washington “ fordert daher, mit deutlich neoliberaler Handschrift, freie Märkte, stabile politische Verhältnisse und eine ungehinderte Teilnahme am globalen Freihandel. Für die Unterzeichner des Übereinkommens ist dies die vielversprechendste Perspektive, um die Lebensverhältnisse in den Entwicklungsländern zu verbessern. Profitiert haben vom Abbau der Handelsbeschränkungen seit der Jahrtausendwende allerdings bis heute vor allem die Schwellenländer der wallersteinschen Semi-Peripherie.   Umweltökonomie Die Tragik der Allmende Die abschließende dritte Frage ist die, ob der kleine blaue Planet den angestrebten Massenwohlstand für acht, neun oder elf Milliarden Menschen überhaupt verkraften kann. Dies ist das große Thema der Umweltökonomie . Aus wirtschaftstheoretischer Sicht stellt die Umwelt eine kollektive Ressource der Menschheit dar, von der wir bis in die jüngste Vergangenheit dachten, sie sei, wie im Schlaraffenland , umsonst zu haben. Doch auch Luft, Wasser, Regenwälder oder die Fischbestände der Weltmeere sind, seit es auf der Erde eng geworden ist, zu knappen Gütern mutiert. Die Dorfgemeinschaften des mittelalterlichen Europas bewirtschafteten kollektiv ihre Allmende, Land- und Forstflächen, die allen gehörten. Heute sprechen die Umweltökonomen von der „ Tragik der Allmende “, um damit die Übernutzung der globalen gemeinschaftlichen Ressourcen zu bezeichnen. Das Problem macht an keiner nationalen Grenze halt. Am deutlichsten wird dies bei der Verbrennung fossiler Brennstoffe mit ihren unabsehbaren Folgen für das Weltklima. Diese sozialen Kosten – die Umweltökonomen bezeichnen sie in ihrer spröden Terminologie auch als „negative externe Effekte “ – fließen in keine Gewinnoptimierungsrechnung, keine Nutzenfunktion und kein Bruttoinlandsprodukt ein. [ii]   Wer zahlt dafür? Hilft der Preismechanismus? Der zentrale Lösungsansatz der Umweltökonomen gründet einmal mehr auf dem Preismechanismus . Knappheitspreise sollen das Allokationsproblem auch für Gemeingüter regeln. Dadurch will man Anreize schaffen, die Allmende der Menschheit effizienter zu verwenden oder durch verträglichere Alternativen zu ersetzen. Ein konkreter Ansatz externe Effekte zu internalisieren, besteht heute darin, Verschmutzung zu verteuern oder sauberere Alternativen zu subventionieren. So bewirkt eine CO 2 -Steuer, dass sich die Nachfragekurve  für fossile Brennstoffe nach links verschiebt. Ein ergänzendes Instrument ist der Emissionshandel , wie ihn etwa die Europäische Union praktiziert. Hierbei werden länderspezifische Obergrenzen für Schadstoffe festgelegt, die in einem bestimmten Zeitraum emittiert werden dürfen. Entsprechend der festgeschriebenen Höchstmenge werden Zertifikate ausgegeben, die an einem eigens dafür eingerichteten Markt handelbar sind. Länder, die unter ihrem Kontingent bleiben, können ihre nicht beanspruchten Verschmutzungsrechte an andere Staaten verkaufen, die ein größeres Kontingent benötigen. Da allein zählt, ob die angestrebte Einsparungsambition in der Summe erreicht wird, haben die einzelnen Länder so die Möglichkeit, das gemeinsame Ziel mit unterschiedlichen Geschwindigkeiten anzusteuern. Ob die Menschheit durch den staatlich verordneten Einbau von Preismechanismen für Gemeingüter das Blatt zu wenden vermag, oder ob Pessimisten wie Malthus recht behalten werden und wir durch das größte Marktversagen  aller Zeiten auf eine ökologische Situation zusteuern, deren Folgen nicht mehr zu kontrollieren sind, bleibt offen – das Problem der fossilen Brennstoffe ist nicht, dass sie uns ausgehen könnten, sondern dass sie uns nicht ausgehen könnten.   Ökonomie in der globalisierten Welt: Freiheit oder Gleichheit? Der Kapitalismus  ist der gesellschaftliche und ökonomische Motor hinter der unglaublichen Entwicklung der Menschheit der letzten 500 Jahre. Ihm ist zu verdanken, dass sich das durchschnittliche reale Einkommen in den Industriestaaten in den vergangenen 150 Jahren verzwölffachte. Kein anderes System hat uns dem Pareto-Optimum   nähergebracht, keines hat größere Kuchen an zu verteilenden Gütern erzeugt. Sämtliche alternativen Wirtschaftssysteme sind bis heute den Nachweis schuldig geblieben, dass sie es besser können. Gleichwohl kann auch der Kapitalismus weder sicherstellen, dass Märkte stets reibungslos funktionieren, noch, dass alle Menschen auf diesem Planeten an dem erzeugten Reichtum auch tatsächlich teilhaben können. Die Frage der Verteilungsgerechtigkeit ist allerdings primär eine politisch-philosophische Frage. In einer Welt knapper Ressourcen bedeutet die Verfolgung eines Ziels immer auch die Aufgabe eines anderen. Mehr Gleichheit heißt weniger Freiheit ; höhere Mindestlöhne mehr Arbeitslose; mehr Sicherheit weniger Privatsphäre; mehr Umweltschutz weniger Konsum; mehr Krankenhäuser weniger Entwicklungshilfe; mehr Kanonen weniger Butter. Oder umgekehrt. In marktwirtschaftlichen Demokratien unterscheiden sich die Parteien  heute in erster Linie dadurch, welche Schwerpunkte sie bei den sich widersprechenden Zielen Freiheit, Gleichheit und Umwelt setzen. Ob wir eher gleich arm oder eher unterschiedlich reich sein wollen, ist die erste der beiden grundlegenden Fragen des politischen Wettbewerbs. Die andere ist, ob wir, unserer evolutionär bedingten Gegenwartspräferenz zum Trotz, willens und fähig sind, heute vorzusorgen, damit die Erde auch für künftige Generationen noch ein wohnlicher Ort sein kann.   Mit diesem Beitrag endet die Artikelserie zum Thema „Ökonomie“   Den Blog entdecken   Wer mehr wissen will: Acemoglu, Daron / Robinson, James A. (2014): „Warum Nationen scheitern“, Fischer. Ringel, Marc (2021): Umweltökonomie, Springer. Wallerstein, Immanuel (2019): Welt-System-Analyse. Eine Einführung, Springer Bauman, Yoram / Klein, Grady (2011): Economics - Mit einem Comic zum Wirtschaftsweisen, Manhattan.   Bildnachweise: https://en.wikipedia.org/wiki/Pollution#/media/File:Air_pollution3.jpg Robert Solow Animation Alterspyramide Deutschland   [i]  Da die Bezugsgröße für den BIP-Vergleich der US-Dollar ist, werden die verglichenen Werte stark von Wechselkurseffekte beeinflusst. [ii] Darüber hinaus stellt sich die ethische Frage, ob bestimmte Konsequenzen, wie etwa das menschengemachte Aussterben einer Art, überhaupt mit einem Kostenetikett versehen werden kann.

  • Was ist Zeit? Vier verschiedene Antworten aus Physik, Philosophie, Psychologie und Ökonomie

    Was ist Zeit? Mein Buch hat elf Kapitel, denen ich turnusmäßig jede Woche einen Blogartikel widme. Der zwölfte Artikel in dem Zyklus gehört jeweils einem Thema „außer der Reihe“, der Versuch einer andern Perspektive, die vielleicht Querverbindungen und Zusammenhänge aufzuzeigen vermag. Diesmal möchte ich die „ Zeit“  in den Mittelpunkt stellen. Beim Schreiben ist mir aufgefallen, dass sie ein Phänomen darstellt, das in unterschiedlichen Kapiteln eine zentrale Rolle spielt und so als roter Faden verschiedenste Wissensgebiete miteinander verbindet.    Die astronomische Uhr in der Altstadt von Prag Die Perspektive der Physik Bei Isaac Newton , dem Begründer der klassischen Mechanik , sind Zeit und Raum die Bühne, auf der sich das Theater der Physik abspielt. Die Zeit ist eine statische Größe, gemessen durch das unveränderliche, gleichförmige Ticken einer Uhr. Eine Uhr gibt an, wieviel Zeit während eines bestimmten Vorgangs – etwa dem gleichmäßigen Hin- und Herschwingens eines Pendels – vergeht. Während Zeit vergeht, nehmen die physikalischen Vorgänge ihren Lauf.    Der französische Mathematiker und Physiker  Pierre-Simon Laplace  folgerte zu Beginn des 19. Jahrhunderts daraus, dass ein fiktiver, allwissender Weltgeist, der sämtliche Kausalitäten des Universums in Form von Funktionsgleichungen erfassen und simultan verarbeiten kann, rein theoretisch die Bewegung aller Materie und damit die Geschichte der Welt bis an das Ende aller Zeit vorausberechnen könnte. Der Laplacesche Dämon  – wir würden ihn heute als „Supercomputer“ bezeichnen – wurde zum Leitmotiv eines deterministischen Weltbilds. Eine entscheidende Erweiterung dieser Perspektive brachte Mitte des 19. Jahrhunderts die physikalische Teildisziplin der Thermodynamik. Der zweite Hauptsatz der Thermodynamik  besagt, dass die Gesamtmenge an Unordnung in einem geschlossenen System mit der Zeit stets zunimmt und geordnete Strukturen über kurz oder lang immer nur zerfallen. Diese unumkehrbarere Entwicklung, die ein physikalisches System von der Ordnung zur Unordnung führt, wird als Entropie bezeichnet. Es handelt sich dabei nicht um ein deterministisches Naturgesetz, sondern um ein rein stochastisches Phänomen. Im zweiten Hauptsatz stecken einige für das Weltverständnis sehr grundlegende Implikationen. Zunächst die, dass es im Universum eine allgemeine Tendenz zum Informationsverlust gibt: Eine heiße Tasse Kaffee ist eine geordnete Struktur. Sie stellt eine Information dar, weil hier Energie an einem Ort in konzentrierter Form vorliegt. Mit der Zeit aber gibt die Tasse Wärme ab, bis sich Tassen- und Umgebungstemperatur einander angeglichen haben. Dies geschieht nur, weil es wahrscheinlicher  ist, dass der Kaffee den Raum erwärmt als der Raum den Kaffee. Mit der Angleichung an die Raumtemperatur geht Information verloren; Entropie misst das Ausmaß dieses Verlusts. In seinem letzten Stadium, dem gesichtslosen Chaos, enthält das System keine Botschaften mehr. Kein Weg zurück Eine andere sehr wichtige Implikation des zweiten thermodynamischen Hauptsatzes ist, dass er uns nicht weniger als das physikalische Wesen der Zeit erklärt. Der Marsch eines geschlossenen Systems in die Entropie ist unumkehrbar. Unumkehrbarkeit aber ist in der Physik etwas Besonderes, da sich ihre Vorgänge grundsätzlich allesamt umdrehen lassen: Filmt man die Schwingungen eines Pendels, so stellt sich der Vorgang, wenn man den Film rückwärts ablaufen lässt, exakt gleich dar. Die Chancen, dass die Luft den Kaffee in der Tasse wieder erwärmt oder dass sich die zerbrochene Kaffeetasse zufällig wieder von allein zusammenfügt, stehen hingegen ausgesprochen schlecht. Das, was zwischen zwei Ereignissen vergeht, nennen wir Zeit. Einen Unterschied zwischen Vergangenheit und Zukunft gibt es nur, weil dazwischen Ereignisse liegen, die sich nicht mehr umkehren lassen und allein deshalb kennt die Zeit nur eine Richtung. Die Dinge der Welt sind vergänglich, weil es wenige Möglichkeiten gibt, einen Zustand zu erhalten, aber viele, ihn zu zerstören. Darum ist das Gestern verloren und nur deshalb wissen wir über die Gegenwart mehr als über die Zukunft. Die einzige Zeit, die wir tatsächlich kennen können, ist das auf einen Punkt zusammengezogene Hier-und-Jetzt. Zeit ist eine Frage des Bewegungszustands Die vorläufig letzte Erweiterung unserer physikalischer Vorstellung von der Zeit kam 1905 mit Einsteins spezieller Relativitätstheorie . Er zeigte, anhand einer einfachen Überlegung, dass Zeit keinesfalls die von Newton postulierte statische Größe ist, sondern sich relativ zum Bewegungszustand verschiedener Beobachter verhält. Kurz formuliert besagt diese Zeitdilatation , dass bewegte Uhren langsamer gehen als unbewegte Uhren. Warum das so ist, werden wir in dem kommenden Blogartikel über die Relativitätstheorie betrachten, nur so viel vorab: Für einen Astronauten, der sich nahe der Lichtgeschwindigkeit bewegt, würde die Zeit relativ zur Perspektive eines auf der Erde zurückgebliebenen Zwillings viel langsamer vergehen. Während für den Raumfahrer nur ein Jahr verstreicht, würde sich die Erde mehrmals um die Sonne drehen. Mit einem phantastisch schnellen Raumschiff könnte der Astronaut also in die Zukunft unseres Planeten reisen und dort seinen viel älter gewordenen Zwilling treffen. Eine Reise in die Vergangenheit ist hingegen logisch ausgeschlossen: wäre sie möglich, könnten wir theoretisch unsere Eltern oder Großeltern töten, noch bevor sie uns in die Welt gesetzt hätten. Back to the Future Dieses Großvater-Paradoxon  wäre aber ein Verstoß gegen das fundamentale Prinzip von Wirkung und Ursache. Für eine Zeitreise in die Vergangenheit müsste man in der Lage sein, das gesamte Universum in einen Zustand zu versetzten, der einmal zu einem früheren Zeitpunkt geherrscht hat. Dies bedeutet aber auch, dass man sämtliche Erlebnisse und Erfahrungen, die man seit diesem Moment gemacht hat, wieder verlieren müsste – andernfalls wäre es möglich, den Lauf der Geschichte rückwirkend zu beeinflussen. Unternähme man eine solche Zeitreise würde man also gar nichts davon merken.   Eine Perspektive der Philosophie Augustinus von Hippo , der am Übergang von der Antike zum Mittelalter lebte, verdanken wir eine neue und einzigartige Überlegung zum Wesen der Zeit, die erstmalig Geschichtlichkeit und Einmaligkeit der menschlichen Existenz in den Fokus der Philosophie rücken (Dies wurde später das große Thema der Existenzialisten). Die neue Perspektive wurde notwendig, da die in der Genesis beschriebene Erschaffung aus dem Nichts den Griechen und Römern fremd war – Materie und Zeit hatte es für sie schon immer gegeben. Für Augustinus aber ist die Zeit gemeinsam mit der Welt entstanden (eine Aussage, die sich, wie wir bereits gesehen haben , in völliger Übereinstimmung mit der modernen Physik befindet.) Gott selbst ist nicht in der Zeit; er schwebt über ihr und kann so ihren Strom von außen betrachten. Phantasiedarstellung von Augustinus aus dem 15. Jahrhundert Aus dieser Zeitlosigkeit entsteht Gottes Ewigkeit . Da er allwissend ist, ist ihm auch alles Vergangene und Zukünftige bekannt.   Die Zeit selbst ist keine dingliche Erscheinung, sondern allein eine Projektion des menschlichen Geistes. Letztlich gibt es auch hier wieder nur die Gegenwart. Die Gegenwart der Vergangenheit ist unsere Erinnerung; die Gegenwart des Gegenwärtigen ist der Augenblick; die Gegenwart des Zukünftigen sind unsere Erwartungen. „Was ist also die Zeit?“ fragt der Philosoph. „Wenn mich niemand danach fragt, weiß ich es, wenn ich es aber einem, der mich fragt, erklären sollte, weiß ich es nicht.“ Mit seinem subjektiven Zeitbegriff hat Augustinus die Philosophie um einen bemerkenswerten Gedanken bereichert.   Die Perspektive der Psychologie Wer kennt nicht die Wahrnehmung, dass wir subjektiv das Vergehen der Zeit mal als langsam, mal als schnell empfinden. Müssen wir auf etwas warten, kommt uns die Zeit quälend lang vor, haben wir Ablenkung, empfinden wir die Zeit als kürzer – sicherlich der Grund warum wir im Wartesaal oder auf dem Bahnsteig immer gleich das Mobiltelefon aus der Tasche ziehen (nein, das soll keine versteckte Kritik an der Deutschen Bundesbahn sein!) Die Ursachen für diese nicht objektive Wahrnehmung liegt in der Funktionsweise unseres Nervensystems. Mit zunehmenden Alter bestimmen immer mehr Routinen unseren Alltag, letztlich, weil wir, anders als während der Kindheit und der Jugend, schlichtweg weniger neue Erlebnisse haben. In der Rückschau empfinden wir daher, dass die Zeit im Alter schneller vergeht, einfach weil es weniger gibt, an das es sich zu erinnern lohnt, während in Kindheit und Jugend laufend neue Eindrücke auf uns einprasselten, die zu neuen neuronalen Verknüpfungen führten. ( Zur grundlegenden Funktionsweise des Gedächtnisses mehr hier ). Dieser durch den sogenannten „ Alterseffekt “ ausgelösten Wahrnehmung können wir entgegenwirken, indem wir unsere Routinen durchbrechen und uns neuen Reizen aussetzen, die dann auch viele neue Erinnerungen schaffen.         Die Perspektive der Ökonomie Benjamin Franklin war nicht nur ein erfolgreicher Politiker, Erfinder des Blitzableiters, Pionier der Erforschung des Elektromagnetismus und Schriftsteller, sondern auch als Besitzer einer Druckerei und eines Zeitungsverlags ein erfolgreicher Geschäftsmann. In seiner Schrift „Advice to a Young Tradesman, Written by an Old One“ (1748) prägte er das bekannte Zitat: “Zeit ist Geld“. („Remember that Time is Money“). Was hat es damit auf sich? Aus Sicht der Finanzmärkte ist Geld ein Gut wie jedes andere: Es hat einen Preis, der sich aus Angebot und Nachfrage ergibt. Dieser Preis ist der Zins. Mit ihm kommt der Faktor Zeit in die ökonomische Betrachtung, eine Dimension, der die klassische und neoklassische Theorie noch wenig Beachtung geschenkt hatte. Der Zins bringt zum Ausdruck, dass ein Betrag heute und derselbe Betrag morgen nicht das gleiche sind. 3% Zinsen pro Jahr bedeuten, dass ein Kreditnehmer, der heute 100 Euro erhält, dem Kreditgeber in einem Jahr 103 Euro zurückzahlen muss. Für beide sind 100 Euro heute und 103 Euro in einem Jahr somit äquivalent. So wie die Inflation ist auch der Zins eine zentrale Größe der makroökonomischen Theorie (auch auf diese Theorie werden wir noch in einem der künftigen Blogs eingehen). Multitalent Benjamin Franklin Der Zins setzt sich aus drei Komponenten zusammen. Er beinhaltet erstens eine Prämie auf den Verzicht des Kreditgebers das Geld zum jetzigen Zeitpunkt selbst anderweitig verwenden zu können; es berücksichtigt also dessen sogenannte Opportunitätskosten . Zweitens enthält er eine Risikoprämie dafür, dass manche Kreditnehmer das Geld nicht zurückzahlen werden. (Der italienische Ökonom Ferdinando Galiani  bezeichnete den Zins bereits Mitte des 18. Jahrhunderts als den „Preis für das Herzklopfen“ des Gläubigers.) Die dritte Komponente des Zinses ist die Kompensation für den inflationsbedingten Kaufkraftverlust: Bei einer Inflationsrate von 2% schmilzt der nominale Betrag von 3% auf einen realen Zins von nur 1%.   Den Blog entdecken   Wer mehr wissen will: Safranski Rüdiger (2015): „Zeit, was sie mit uns macht und was wir aus ihr machen“, Hanser. Augustinus, Aurelius (1888): „Bekenntnisse” (Confessiones) Buch XI, 14. Kapitel, Reclam. Franklin, Benjamin (2012): Advice to a Young Tradesman, Written by an Old One, Cambridge University Press. Warum die Zeit nicht immer gleich schnell vergeht  ( Wissen.de )   Bildnachweis: File:MontreGousset001.jpg - Wikimedia Commons File:Prague - Astronomical Clock Detail 1.JPG - Wikimedia Commons File:Sartre 1967 crop.jpg - Wikimedia Commons Space Station 20th: Spacewalking History - NASA

  • Kontrolle ist gut, Vertrauen ist besser: Die Entstehung der Spieltheorie

    Kontrolle ist gut, Vertrauen ist besser So wie das Universum auf die Unbestechlichkeit der Naturgesetze angewiesen ist, um überhaupt existieren zu können, benötigen auch menschliche Gesellschaften stabile Spielregeln, um dauerhaft zu bestehen. Dazu gehört neben den offenbaren und verborgenen Strukturen der Macht vor allem Vertrauen . Grundvertrauen in andere Menschen ist eine anthropologische Konstante. Die biochemische Basis hierfür ist das „Kuschelhormon“ Oxytocin , das bei allen wohlwollenden Formen menschlicher Nähe ausgeschüttet wird. Neurobiologische Untersuchungen zeigen, dass Menschen, denen Oxytocin künstlich verabreicht wurde, vertrauensvoller handeln und bereit sind mehr Risiken einzugehen.   Vertrauen stabilisiert Gesellschaften Beim Zusammenleben mit anderen verlassen wir uns im Allgemeinen darauf, dass Schulden beglichen werden, dass das Essen im Restaurant hygienischen Standards entspricht oder dass Impfungen unbedenklich sind. Das Vertrauen, dass Versprechen eingehalten werden, ist ein zentraler Stabilitätsanker der Gesellschaft, es ist mit Luhmanns   Worten "ein Mechanismus der Reduktion sozialer Komplexität". [i]  Vertrauen vermeidet Kosten, die entstünden, wenn wir alles selbst machen oder ständig kontrollieren müssten. Es ist die Grundlage eines der wenigen echten Alleinstellungsmerkmale des Menschen: der Fähigkeit zu komplexen Formen der Kooperation. Wird Vertrauen missbraucht, erfolgt die Bestrafung nicht nur durch den langen Arm des Gesetzes, sondern auch durch gesellschaftliche Ächtung und soziale Isolation. Dass sich unkooperatives Verhalten nicht auszahlt, lernen wir meist schon als Kinder. „Trittbrettfahrer“, also Menschen, die sich ohne eigenen Beitrag Vorteile erschleichen, werden auch von Gemeinschaftsmitgliedern sanktioniert, die selbst nicht von dem Schaden betroffen sind. Nicht selten geschieht dies sogar in Form einer „ altruistischen Bestrafung “, das heißt, wir ahnden Vertrauensbrüche selbst dann, wenn es uns persönliche Nachteile bringt. [ii]  Dieses Verhalten hat wahrscheinlich einen evolutionsbiologischen Ursprung: Gegenseitige Verlässlichkeit innerhalb der Sippe war für die Gattung Homo ein Erfolgsrezept. Wir haben allen Grund, Vertrauen und Fairness aufrechtzuerhalten – würde unfaires Verhalten belohnt, wären die Vorteile einer konstruktiven Kooperation schnell dahin. Vertrauen ist ursprünglich ein zwischenmenschliches Phänomen. Als makrosoziologische, die ganze Gesellschaft durchströmende Erscheinung, ist es eine neuzeitliche Erfindung. In Antike   und Mittelalter , politisch und ökonomisch labilen Zeiten, war es im höchsten Maße riskant, seinen Mitmenschen allzu viel Zutrauen entgegenzubringen – enge Verwandte eingeschlossen. Für die Soldatenkaiser, die Rom im 3. Jahrhundert regierten, war die wahrscheinlichste Todesursache, von den eigenen Gefolgsleuten ermordet zu werden. Im Mittelalter war Vertrauen in erster Linie auf Gottvertrauen beschränkt. Die Zuversicht, die wir wildfremden Menschen heute in aller Regel bedenkenlos entgegenbringen, ist nur möglich, weil wir wissen, dass unsere Rechte im Fall der Fälle durch die drei staatlichen Gewalten geschützt werden. [iii]     Die Entstehung der Spieltheorie Vertrauen lässt sich auch mathematisch analysieren – zumindest ist dies der Anspruch der Spieltheorie , die mit analytischen Modellen untersucht, wie sich Menschen in konfliktbehafteten Entscheidungssituationen mit mindestens zwei Beteiligten verhalten. Die Entwicklung dieses Spezialgebiets ist vor allem mit den Mathematikern John von Neumann  (1903-1957), John Forbes Nash  (1928-2015) und Reinhard Selten  (1930-2016) verbunden. Nash und Selten erhielten für ihre Leistungen auf diesem Gebiet 1994 den Nobelpreis für Wirtschaftswissenschaften. A Beautiful Mind: John Forbes Nash Bei spieltheoretischen Problemstellungen geht es darum, dass jeder Spieler für sich selbst eine vorteilhafte, rationale Strategie finden muss, die aber auch das zu erwartende Verhalten der Mitspieler berücksichtigt. Die beiden grundlegenden Strategien sind Kooperation, also ein Vorgehen, das auf Vertrauen setzt, und egoistisches Verhalten. Spieltheoretische Überlegungen lassen sich auf viele politische, gesellschaftliche und ökonomische Problemstellungen anwenden. Auch die evolutionär stabile Strategie , die wir noch in der Kategorie Biologie betrachten werden, lässt sich mit diesem Instrument erklären. Das Gefangenendilemma  ist das wohl bekannteste spieltheoretische Szenario. Es erklärt, warum zwei rationale Entscheider wahrscheinlich nicht miteinander kooperieren, obwohl dies eigentlich in ihrem Sinne wäre. Ausgangslage ist die folgende: Zwei Gefangene, A und B, haben gemeinsam ein Verbrechen verübt und werden dafür angeklagt. Sie werden getrennt verhört und haben keine Möglichkeit sich auszutauschen. Streiten beide die Tat ab, erhalten sie wegen eines anderen, weniger schwerwiegenden Vergehens, das ihnen nachgewiesen werden kann, eine Strafe von einem Jahr. Gestehen beide, erhält jeder eine Strafe von zwei Jahren – da sie geständig waren, wird keine Höchststrafe verhängt. Gesteht jedoch nur einer der beiden Gefangenen, während der andere die Tat leugnet, wird der Geständige als Kronzeuge freigesprochen, der Leugner erhält hingegen die volle Strafe von 5 Jahren. Vertrauen oder Verraten: Was zahlt sich mehr aus? Die Frage ist nun, welche Strategie die Gefangenen vernünftigerweise einschlagen sollten. Sie haben die Wahl zu gestehen oder die Tat abzustreiten, wissen aber nicht, wie sich der andere entscheiden wird. Das persönliche Strafmaß hängt nicht nur von der eigenen Entscheidung, sondern auch von der des Komplizen ab. A erzielt für sich den größten Nutzen , wenn er die Tat gesteht und damit B verrät. Leugnet B, winkt A der Freispruch; gesteht B ebenfalls, kommt A immerhin mit weniger als der Höchststrafe davon. Da B aber die gleiche Überlegung anstellt und ebenfalls gesteht, wandern beide für zwei Jahre hinter Gitter. Das Geständnis ist aus der egoistischen Einzelperspektive die dominante Strategie , denn sie führt, unabhängig davon, wie sich der andere entscheidet, zu einem besseren Ergebnis als das Leugnen der Tat.   Die Auszahlungsmatrix beim Gefangenendilemma Die Entscheider erzeugen damit ein Nash-Gleichgewicht , das heißt eine Situation, bei der sich alle Beteiligten durch eine alternative Strategie nur verschlechtern können. Hätten A und B allerdings einander vertraut und beide die Tat geleugnet, wären sie mit nur einem Jahr davongekommen.   Kein ganz neues Thema Dem Grundproblem des Gefangenendilemmas begegnen wir bereits in Hobbes Leviathan . Wenn die Naturgesellschaft, in der das Leben „ einsam, armselig, ekelhaft, tierisch und kurz“ ist, sich in die sichere Obhut des Staates begeben möchte und ihm das Gewaltmonopol   überträgt, muss einer den ersten Schritt tun und die Waffen abgeben. Woher aber weiß derjenige, ob die anderen dann nicht über ihn herfallen? Solche Szenarien sind keinesfalls hypothetisch. Wir kennen sie aus aktuellen Konflikten, etwa, wenn die UNO versucht, zwischen Bürgerkriegspa rteien einen Waffenstillstand zu vermitteln.   Wie Du mir, so ich Dir Der Politologe und studierte Mathematiker Robert Axelrod  hat die Kooperation egoistischer Individuen mit Hilfe der Spieltheorie erforscht. In seinem 1984 erschienenen Buch „ Die Evolution der Kooperation “ legt er dar, was geschieht, wenn das Gefangenendilemma nicht nur einmal, sondern viele Male hintereinander gespielt wird. Axelrod schrieb dazu einen Programmierwettbewerb für die beste Strategie aus, an dem sich die Vertreter unterschiedlichster wissenschaftlicher Disziplinen beteiligten. Es zeigte sich, dass kooperative Strategien grundsätzlich überlegen waren. Das erfolgreichste Vorgehen war die einfache Strategie „ Tit for Tat “: Der Spieler vertraut in der ersten Runde seinem Gegenüber. In allen folgenden Runden ahmt der Spieler dann jeweils immer genau den Spielzug des Partners nach. Hat der Partner ebenfalls vertrauensvoll eine kooperative Strategie eingeschlagen, verhält man sich selbst auch beim nächsten Mal kooperativ. Wurde man verraten, zahlt man dies mit gleicher Münze heim; man ist aber nicht nachtragend und verhält sich in der nächsten Runde wieder kooperativ, sofern der Gegenüber dies ebenfalls tut. Diese Mischung aus entgegenkommender Grundhaltung und Sanktion von Vertrauensbrüchen hat sich als die nachhaltigste aller Strategien erwiesen. Neurobiologische Untersuchungen zeigen, dass kooperatives Verhalten bei Mehrrundenspielen des Gefangenendilemmas das Belohnungssystem des Gehirns aktiviert und konstruktives, altruistisches Verhalten damit weiter verstärkt. [iv]     Spieltheorie und Geopolitik Die Spieltheorie liefert umfassende Analyseinstrumente für die Mikroebene sozialer Entscheidungen. Sie erklärt eine breite Palette von Verhaltensmustern, die von evolutionären Strategien in der Biologie über das Zustandekommen von Verträgen, das Vorgehen von Bietern bei einer Auktion bis hin zum Verhalten von Kindern auf dem Spielplatz reicht. Zu den bevorzugten Einsatzgebieten spieltheoretischer Ansätze zählt auch die Geopolitik . Zwei Beispiele: Während des kalten Krieges wäre für Sowjets und Amerikaner ein atomarer Vergeltungsschlag die einzige egoistisch-rationale Option gewesen, um nach einem gegnerischen Erstschlag das Nash-Gleichgewicht wiederherzustellen. Während es hierzu glücklicherweise nicht kam, war eine ähnliche spieltheoretische Situation ein wichtiger Faktor beim Ausbruch des Ersten Weltkriegs: Als Russland Ende Juli 1914 nach der Ermordung des österreichischen Thronfolgers Mobil machte, war aus Sicht des Deutschen Reiches nicht klar, ob es sich um eine Drohgebärde oder echte Angriffsvorbereitungen handelte. Der deutsche Mobilisierungsplan sah jedoch nicht vor, dass Russland in dieser Situation noch verhandlungsbereit sein könnte. Deutschland hatte zu der geplanten Reaktion eines eigenen Aufmarschs keine Alternativen vorbereitet. [v] Bündnissysteme, Drohungen, Bluffs und festgelegte Eskalationsroutinen führten zu einer verhängnisvollen Kettenreaktion – ein verheerendes Feuer, das sich nicht mehr austreten ließ.   Spieltheorie und Ökonomie Karl Marx und Max Weber  haben unsere Aufmerksamkeit darauf gelenkt, dass der materielle Wohlstand in praktisch allen Gesellschaften bis heute sehr ungleich verteilt ist. Die Frage, wie Reichtum erwirtschaftet und geteilt werden soll, ist neben der Frage der politischen Machtverhältnisse das zweite bestimmende Element menschlichen Zusammenlebens. Stellen wir ökonomische Mechanismen und Interessenskonflikte in den Mittelpunkt unserer Betrachtungen, wird aus dem Zoon politikon   ein Homo oeconomicus . Mit diesem Beitrag endet die Artikelserie zum Thema "Gesellschaft"   Den Blog entdecken   Wer mehr wissen will: A Beautiful Mind: Spielfilm über das Leben von John Forbes Nash Selten, Reinhard (1981): Einführung in die Theorie der Spiele mit unvollständiger Information. In: Erich W. Streissler (Hrsg.): Information in der Wirtschaft – Verhandlungen auf der Arbeitstagung des Vereins für Socialpolitik in Graz 1981 Luhmann, Niklas (2014): „Vertrauen“, UTB. Weber, Christian (2010): „Riskante Erfindung der Moderne“ in: Süddeutsche Zeitung Online vom 25.10.2010.  Rilling, James K et al. (2002): „A Neural Basis for Social Cooperation” in: Neuron Vol.35 vom 18.07.2002 S. 395-405. Krumeich, Gerd (2013): „Juli 1914. Eine Bilanz“, Schoeningh.   Bildnachweise: John Forbes Nash   Anmerkungen [i]  So der Untertitel seines 1968 erschienen Buchs „Vertrauen“. [ii] Vgl. Spitzer (2002) S. 117. Ein Beispiel für eine altruistische Bestrafung ist, wenn wir uns über eine schlechte Ware oder Dienstleistung ärgern und auf dem Kundenportal eine negative Kritik hinterlassen, obwohl wir wissen, dass es sich um einen einmaligen Kauf handelt. [iii]  Vgl. Weber, Christian (2010). [iv]  Vgl. Rilling (2002) S.395. [v] Vgl. Krumeich (2013) S. 151 ff.

  • Die Geschichte der künstlichen Intelligenz. Oder: Warum Du nett zu Deiner KI sein solltest

    Die Ursprünge   Der erst 19-jährige Blaise Pascal   hatte 1642 eine bahnbrechende Idee. Sein Vater war gerade durch den Kardinal Richelieu  damit beauftragt worden, die Steuern in der Normandie wieder in Ordnung zu bringen. Um ihm dabei helfen zu können, begann sein Sohn an einer Rechenmaschine zu tüfteln. Drei Jahre später konnte er nach unzähligen Prototypen seine Arithmetik-Maschine vorstellen, die für jeweils zwei Zahlen akkurat addieren und subtrahieren konnte und über ein paar umständliche Tricks auch multiplizieren und dividieren. Nachbau von Leibniz' Rechenmaschine Die Rechenmaschine, die Gottfried Wilhelm Leibniz   1673 vorstellte, konnte bereits vollautomatisch Malnehmen und Teilen. In seiner Schrift „ characteristica universalis “ versuchte der Philosoph zudem auch das menschliche Denken auf mathematische Operationen zurückzuführen, eine Idee, der sich zuvor bereits auch René Descartes   und Thomas Hobbes gewidmet hatten.   1748 veröffentlichte der französische Arzt und materialistische Philosoph   Julien Offray de La Mettrie seine Abhandlung „ L’Homme-Machine“  („Die Maschine Mensch“), in der er die Funktionsweise eines Menschen mit der einer Maschine verglich – damals schlichtweg ein Akt der Blasphemie. Der "Schachtürke": Ein angeblicher Schachroboter, der ab 1769 in europäischen Metropolen für Furore sorgte. Im Innern der Maschine war aber ein Mensch versteckt Die genannten Philosophen der Aufklärung   können wir heute mit einigem Recht als Wegbereiter der künstlichen Intelligenz  bezeichnen. Pascals und Leibniz‘ Maschinen, konnten in gewisser Weise bereits „mechanisch Denken“ und Algorithmen   abbilden. Sie waren damit Vorläufer des Computers  und schufen so auch erste konzeptionelle Grundlagen auf dem Weg zur Entwicklung einer künstlichen Intelligenz.   Können Maschinen tatsächlich denken? Seitdem wurde die Mechanisierung des Rechnens immer weiter vorangetrieben. Ein Quantensprung erfolgte mit dem Übergang von mechanischen Lösungen auf elektrische Schaltkreise . 1941 stellte Konrad Zuse  mit dem Z3  den ersten funktionsfähigen Computer der Welt vor. Im Unterschied zu den bisherigen Rechenmaschinen führte der Z3 Rechenoperationen automatisch nach einem gespeicherten Programm aus, nutzte statt Zahnrädern  elektromechanische Relais  und arbeitete bereits mit Binärcode und Gleitkommazahlen , Prinzipien, die heutigen Computern sehr ähnlich sind. Der Nachbau von Zuses Z3 im Deutschen Museum in München 1950 stellte der britische Mathematiker und Informatiker Alan Turing  (1912-1954) in einem berühmten Aufsatz die Frage: „Können Maschinen denken?“. Der dort vorgestellte, nach Turing benannte Test will feststellen, ob Maschinen auf menschlichem Niveau denken können. In seiner heutigen, vereinfachten Abwandlung besagt er, dass wenn ein Mensch anonym sowohl mit einem Menschen als auch mit einer Maschine kommuniziert und er nach einer ausgiebigen Unterhaltung nicht sagen kann, welcher Gesprächspartner Mensch und welcher Maschine ist, die Maschine, den Test bestanden hat. Unsere aktuelle künstliche Intelligenz besteht diesen Test heute in der Regel spielend. Was ist also in den letzten 75 Jahren geschehen? Alan Turing 1951 Dazu müssen wir zunächst klären, was wir unter „denken“ verstehen wollen. Douglas Hofstadter etwa, Autor des bekannten Werkes „ Gödel, Escher, Bach “ beschreibt bewusstes   Denken als etwas, das es uns erlaubt zu abstrahieren, flexibel auf verschiedene Situationen zu reagieren, Chancen zu ergreifen, widersprüchliche Informationen aufzulösen, Vergangenes und Zukünftiges in unsere Überlegungen mit einzubeziehen, Ausgänge von Entscheidungen zu simulieren, Dinge zu priorisieren, Ähnlichkeiten und Unterschiede festzustellen, Begriffe zu erfinden, neue Ideen in die Welt zu setzen, Erkenntnisse mittels Sprache und Schrift mit anderen zu teilen, Überzeugungen zu entwickeln und Ziele trotz Hindernissen zu erreichen.   Symbolische KI und die Ära der Expertensysteme Am Anfang stand die Idee, Maschinen beizubringen, Regeln zu befolgen. Die sogenannte symbolische KI  arbeitete in den 1950er und 1960er Jahren mit logischen Schlussregeln, Entscheidungsbäumen und Wissensdatenbanken. Es zeigte sich jedoch schon bald, dass solche Systeme in vielen Fällen zu starr waren. Die Systeme konnten nur auf Situationen reagieren, für die die Regel bereits vorgegeben war. Trat eine neue Situation auf, für die es keine Regel gab, versagten sie. Die Euphorie rund um denkende Maschinen erlosch, die Investoren blieben aus, es kam Mitte der 1970er Jahre zum ersten so genannten KI-Winter . Verbesserte Rechenleistungen der Hardware und ein Hype um die so genannten Expertensysteme  ließen den Optimismus zu Beginn der 1980er Jahre neu aufleben. Expertensysteme sollten Menschen bei komplexen Entscheidungen und Analysen unterstützen, beispielsweise Ärzte bei der Diagnose. Die Systeme konnten Daten überwachen und in bestimmten Situationen nach dem Muster „Wenn A und B, dann C ansonsten D“ Aktionen auslösen. Die symbolische KI, die Wissen als ein System von Symbolen und Regeln, darstellte, wurde dadurch zur klassischen  beziehungsweise algorithmischen   KI  weiterentwickelt, die auch auf Suchverfahren und Heuristiken setzte.  Doch auch diesmal folgte bald eine Ernüchterung: die Erwartungen an die KI hatten sich erneut als zu optimistisch erwiesen. Die Lösungen waren instabil, teuer und kaum auf andere Bereiche übertragbar. Erneut zogen sich die Investoren enttäuscht zurück – die regelbasierte KI hatte sich endgültig als evolutionäre Sackgasse entpuppt.      Ein Meilenstein der KI-Geschichte: Deep Blue schlägt Kasparow 1997 Vom Wissen zum Lernen Mitte der 1990er Jahre ging dann auch der zweite KI-Winter zu Ende. Voraussetzung hierfür waren zunächst zwei bahnbrechende technologische Neuerungen: Der im Moorschen Gesetz   beschriebene Fortschritt bei der Entwicklung von Halbleitern führte zu einer explosionsartigen Vermehrung erschwinglicher Rechenleistung Mit der Verbreitung des Internets wurden gigantische Datenmengen verfügbar Entscheidend für die weitere Entwicklung der künstlichen Intelligenz aber waren neue Ansätze bei der Programmierung der Algorithmen , die einer komplexen Realität besser gerecht wurden. Der Paradigmenwechsel war der Einsatz von Statistik und Wahrscheinlichkeitsrechnung : Anstelle der bisherigen Logik „Wenn A und B, dann C“, trat die revolutionäre neue Perspektive: „Wie wahrscheinlich ist B, wenn A zutrifft?“. Dieser Ansatz konnte sehr viel besser mit den Unsicherheiten und unstrukturierten Problemen der realen Welt umgehen, als die bisherigen rein deterministischen Ansätze. Die Regeln mussten auch nicht mehr von vornherein bekannt sein, sondern konnten aus den Daten abgeleitet werden. Das regelbasierte „Denken“  wurde durch musterorientiertes „Denken“  ersetzt.   Neuronale Netze und das Prinzip des „Deep Learning“     Der technische Ansatz hierzu waren künstliche neuronale Netze, mit denen nun intensiv herumexperimentiert wurde. Die exponentielle Steigerung der Rechenleistung seit der Jahrtausendwende ermöglichte es, die Theorie zu einer konkreten Anwendung werden zu lassen. Mit „ Deep Learning “ kam 2012 der große Durchbruch. Inspiriert wurde der neue Ansatz durch die Funktionsweise des menschlichen Gehirns . Die „Neuronen“ der KI funktionieren allerdings nach einem ganz anderen Prinzip: Sie sind im Wesentlichen mathematische Funktionen , die Rechenoperationen durchführen und diese mit Wahrscheinlichkeiten gewichten. Die Gewichte werden dabei laufend so angepasst, dass das künstliche neuronale Netz die Wahrscheinlichkeit richtiger Antworten laufend erhöht. Die Idee ist im Kern die folgende: Das neuronale Netz beginnt mit einer rein willkürlichen Einstellung von Input- und Output-Faktoren, die zunächst viele Fehler macht. Jedes Mal, wenn das Netz falsch liegt, dreht es ein bisschen an kleinen „Stellschrauben“ – den Gewichten –, sodass seine nächste Vorhersage ein Stück besser wird. Nach Tausenden solcher Mini-Korrekturen findet das Netz automatisch die Gewichtskombination, die zu den wahrscheinlich richtigen Antworten führen. Um dahin zu kommen, muss die KI erst umfassend mit großen Datenmengen „trainiert“ werden.   Ein einfaches Beispiel: Das neuronale KI-Netzwerk soll erkennen, ob es regnet. Input: „Wolken bedecken den Himmel zu X %“ Output: „Es regnet: ja oder nein“ Das Mini-Netz unseres Beispiels besteht nur aus einem einzigen künstlichen Neuron. Dieses hat: ein Gewicht  (w) und einen Schwellenwert  (b)   Am Anfang werden zufällige Parameter gewählt z. B.: w = 0.2 b = –5 Das bedeutet: Nur wenn 0.2 × Wolken % – 5 über einer gewissen Schwelle liegt, sagt das Netz „Regen“. Diese Aussage ist wohlgemerkt völlig willkürlich – aber sie ist lediglich ein Startpunkt. Von diesem Startpunkt ausgehend wird die KI jetzt „trainiert“, das heißt, sie wird mit vielen Beobachtungen gefüttert: Anteil Wolkendecke     Regen? 10% Nein 40% Nein 70% Ja 90% Ja Für jedes Beispiel berechnet unser kleines neuronales Netz seine Vorhersage. Dabei kann es freilich Fehler machen. Für die folgenden zwei Szenarien macht das Netz etwa die folgende Prognose: Input = 70% Wolken Berechnung: 0.2 × 70 = 14 14 – 5 = 9. Dieser Wert liegt über der Schwelle; das neuronale Netz sagt daher, dass es regnet; eine Aussage, die in diesem Fall korrekt ist.  Ein weiterer Input besagt, dass der Himmel zu 40% wolkenverhangen ist. Das System rechnet also:   0.2 × 40 = 8 8 – 5 = 3 und kommt ebenfalls zu dem Schluss, dass es regnet. Tatsächlich aber regnet es in diesem Fall nicht. Das neuronale Netz hat also einen Fehler gemacht. Daher passt unser kleines „Neuron“ jetzt seine Gewichtung an: Wenn ein Ergebnis zu „hoch“ ausgefallen ist, wird das Gewicht etwas reduziert. Wenn ein Ergebnis zu „niedrig“ war wird das Gewicht ein bisschen erhöht. Lernt die KI durch das Training also, dass sie sich mit ihren bisherigen Annahmen „verzockt“ hat passt sie ihre Gewichtung an: Beispielsweise reduziert sie nun den Gewichtungsfaktor von 0.2 auf 0.18 und berechnet somit beim nächsten Durchlauf: 0.18 × 40 = 7.2 7.2 – 5 = 2.2 Der kleinere Wert liegt nun näher an der korrekten Antwort. Dieser stochastische Lernprozess wird nun tausende Male wiederholt, bei jedem Durchgang erfolgt eine kleine Korrektur des Gewichtungsfaktors (w) oder des Schwellenwerts (b). Wurde die KI hinreichend genau trainiert hat sie gelernt, welche Gewichte und Schwellenwerte einen Regen-Hinweis geben welche Gewichte und Schwellenwerte kein Regen bedeuten Sie hat sich damit selbst so eingestellt, dass sie in den allermeisten Fällen korrekt vorhersagen kann, ob ein bestimmtes Wolkenbedeckungsszenario zu Regen führt oder nicht. Wichtig ist es in diesem Zusammenhang zu verstehen, dass keine Regeln abgespeichert wurden, sondern die Gewichte lediglich eine „numerische Landkarte“ erstellt haben. Die neuronale Architektur mit Gewichtungen und Schwellenwerten geht auf Frank Rosenblatt  (1928-1971) zurück, der 1957 mit seinem Perzeptron das erste explizit am Gehirn orientierte Rechenmodell formuliert hat, basierend auf einem sehr stark vereinfachten Nachbau der menschlichen Nervenzelle. In der Realität gehen in die KI-Wetterprognose zahlreiche weitere Parameter wie Luftdruck, Helligkeit, Temperatur, Luftfeuchtigkeit etc. ein, bei dem jedes einzelne Neuron lernt, wie wichtig ein einzelnes Merkmal ist. Auf einer höheren Ebene des neuronalen Netzes werden dann diese Signale kombiniert und eine Gesamtwahrscheinlichkeit berechnet.    Dieses Prinzip ist die Grundlage dessen, was wir heute unter „künstlicher Intelligenz“ verstehen: Mithilfe von „ Deep Learning “ werden riesige Datenmengen durchforstet, die es erlauben, Muster   zu erkennen, Sprachen   zu verstehen, Bilder zu erzeugen und sich dabei laufend selbst zu verbessern. Das Training kann dabei von Menschen durchgeführt, werden, durch Programme erfolgen und mittlerweile in immer größerem Maße auch durch die KI selbst.   Wie bitte? Generative KI, also Modelle, die basierend auf natürlichen Spracheingaben aus vorhandenen Daten neue Daten generieren, basieren also im Kern auf Statistik und unvorstellbar viel Rechenleistung. Nach dem beschriebenen Prinzip berechnen sie, welches Wort, welcher Bilder-Pixel oder welches Tonfragment am wahrscheinlichsten als Nächstes passt. So merkwürdig diese Idee klingt: wir alle haben bereits Erfahrungen damit gemacht, wie erstaunlich gut dieser Ansatz funktioniert. Den Large Language Modellen  von Chat-GPT , Gemini oder Copilot  & Co liegen Trainings mit Billionen von Wörtern zugrunde. Sie kommen aus Büchern, wissenschaftlichen Artikeln, Webseiten, öffentlichen und nicht öffentlichen Quellen. Diese Modelle – und das ist wichtig zu verstehen – wissen nicht was sie sagen, aber sie wissen, wie Sprache, Bilder oder Musik funktionieren. Es ist, als könnte jemand perfekt Geige spielen, ohne eine Vorstellung davon zu haben, was Musik ist. Und je öfter sich die artifizielle Intelligenz in zahllosen Versuchen weiter an das wahrscheinlich beste nächste Wort „heranrechnet“, umso besser wird sie. Das schließt allerdings nicht aus, dass sie auch komplett daneben liegen kann. Dass die KI „halluziniert“ also willkürlich völlig falsche Antworten gibt und diese auf Nachfrage erneut bestätigt, ist ein systemimmanentes Problem: Statistik ist nicht deterministisch – sie kann sich irren. Es werden lediglich Wahrscheinlichkeiten berechnet – die KI selbst verfügt weder über Wissen noch über ein Konzept von wahr oder falsch!   Gesellschaftliche Auswirkungen: Zwischen Produktivitätsschub und Existenzangst Es ist offenbar, dass die neue Technologie große Auswirkungen auf unseren Alltag haben wird, mit Konsequenzen, die noch schwer abzuschätzen sind. Eine OECD-Studie prognostiziert, dass in den kommenden Jahren 30-40% aller Tätigkeiten durch KI automatisiert werden könnten. Besonders betroffen werden Büroarbeit, Textproduktion, Grafikdesign und Programmierung sein. Ich persönlich habe die Erfahrung gemacht, dass die in gängige Office-Pakete wie die von Microsoft oder Google eingebauten KI-Funktionalitäten enorm hilfreich sind und eine deutlichen Produktivitätsschub bewirken. Wahr ist aber auch: Die Effizienzsteigerungen werden über kurz oder lang zu einer Reduktion von Arbeitsplätzen führen – ein Muster, das sich seit Beginn der Industriellen Revolution   mit jedem Technologieschub   bereits dutzende Male wiederholt hat. Gleichzeitig ergeben sich auch völlig neue Möglichkeiten: Die Medizinforschung kann mit KI-Modellen wie AlphaFold  die komplexen Strukturen eines Proteins aus seiner Aminosäuresequenz   in Sekunden berechnen. Forscher können damit viel schneller verstehen, wie Krankheiten entstehen. Einst jahrelange Laborarbeit lässt sich damit heute auf Minuten reduzieren, indem neue Wirkstoffe bereits am Computer getestet werden. Entwicklungskosten und -zeiten für neue Medikamente werden sich dadurch drastisch reduzieren. Diagnosesysteme können bereits heute in Gewebeproben Tumore zuverlässiger erkennen als Dermatologen.   Wie wir leider erfahren mussten, spielt heute KI auch in der Kriegsführung mittlerweile eine Schlüsselrolle. Technische Überlegenheit bei künstlicher Intelligenz ist zu einem geopolitischen Machtfaktor geworden – die USA und China haben das Rennen eröffnet, die EU und andere Player suchen nach Anschluss. Und natürlich sind die neuen Technologien auch bei Propaganda, Desinformation und anderen Formen von Fake News  im Einsatz.   Warum Maschinen (noch) nicht wie Menschen denken KI kann mit atemberaubender Effizienz Daten sammeln und mit statistischen Methoden sinnvoll zusammenstellen. Doch eines ist sie – zumindest heute – noch nicht: kreativ. Etwas originär Neues kann KI nicht erschaffen. Wenn ein Bildgenerator-Programm wie DALL-E  ein „Gemälde im Stil von Van Gogh“ erzeugt, dann ist es nicht künstlerisch tätig, sondern repliziert ein Muster, einen Stil, den nun mal der niederländische Maler geschaffen hat und nicht die Maschine. So etwas wie Inspiration ist den selbstlernenden Programmen fremd. KI kann im Sinne der Hofstadterschen Definition nicht „denken“. Was unterscheidet also unser Gehirn   letztlich von den lernenden Programmen? Tatsächlich gibt es zunächst erstmal eine ganze Reihe von Analogien: Wir können unser Gehirn wie einen biologisch konstruierten Computer begreifen. Der Rolle von Nervenzellen und Synapsen entsprechen Prozessoren und Schaltkreise. Sowohl Gehirn als auch Computer nehmen mit Hilfe elektrischer Schaltungen Informationen auf, verarbeiten sie und erzeugen Ergebnisse. Beide Systeme können Daten speichern und bei Bedarf wieder abrufen. Das war es aber auch schon mit der Analogie. Denn unser Gehirn hat eine völlig andere Architektur, die es erlaubt, mit einer unvorstellbaren Zahl von Neuronen und Synapsen gleichzeitig  zu arbeiten und Wissen durch den ständigen Umbau der Verknüpfungen zu speichern. Da jedes Neuron mit tausenden anderen verbunden sein kann, entsteht ein phantastisches, dichtes und dynamisches Netz, bei dem, anders als beim Computer, Verarbeitung und Speicherung nicht physisch getrennt sind. Die elektrochemischen Prozesse erlauben es Informationen mit unterschiedlicher Intensität zu übertragen, während der digitale Code nur die binären Zustände „an“ und „aus“ kennt. Gleichzeitig ist das Gehirn unvorstellbar effizient: es verbraucht im Ruhezustand nicht mehr Watt   als eine funzelige Glühbirne, während ein Rechner, der vergleichbare Datenmengen verarbeiten würde im Megawattbereich angesiedelt wäre. Unser Gehirn ist energetisch ausgesprochen effizient - zu mindestens, wenn man es mit KI vergleicht Insbesondere aber kann das menschliche Gehirn Bewusstseinszustände erzeugen, die es uns erlauben, uns im Spiegel zu erkennen, Dinge als wahr oder falsch einzuordnen, ihnen Bedeutungen zuzuordnen, zu täuschen, zu bewerten, zu hinterfragen, zu reflektieren, kreativ zu sein, neues Wissen zu erzeugen oder Emotionen zu haben. Wir haben heute kaum eine Vorstellung davon, wie das Gehirn dies konkret anstellt.     Die DNS des maschinellen Wissens hingegen sind Wahrscheinlichkeiten. KI kennt Kategorien wie „wahr“ und „falsch“, „gut“ oder „böse“ nicht, sondern nur die Kategorien „wahrscheinlich“ und „weniger wahrscheinlich“. Eine Bedeutung kann sie ihren Erzeugnissen nicht zuordnen. Kurz gesagt: die KI rechnet; der Mensch versteht. Aber wird das immer so bleiben? Ist eine „ starke KI “ vorstellbar, die ähnliche Leistungen wie unser Gehirn erbringen kann, oder diese sogar noch übertrifft? Diese Frage bringt uns zu unserem letzten Kapitel.   Wie geht es weiter? Wie wird sich die KI voraussichtlich in den nächsten 20 bis 30 Jahren entwickeln? Hierzu gibt es unterschiedliche Meinungen. Zu den prominenten Warnern gehört Geoffrey Hinton , oft als einer der „ Godfathers of Deep Learning “ bezeichnet und Träger des Physik -Nobelpreises 2024. Er geht von einer künftigen Technologischen Singularität  aus, einem Zeitpunkt, ab dem die sich ständig selbst verbessernde KI ihren eigenen Quellcode optimiert und sich unkontrollierbar mit einer solchen Geschwindigkeit weiterentwickelt, dass die Menschen sie nicht mehr verstehen, überwachen oder kontrollieren könnten. Es wäre demnach auch möglich, dass die KI dabei Zustände entwickelt, die dem menschlichen Bewusstsein   vergleichbar sind. Für Hinton sind die jetzt kommenden Jahrzehnte entscheidend, um den Kontrollverlust oder eine unabsehbare Veränderung unserer Zivilisation   noch zu verhindern. Geoffrey Hinton Ich habe mich daher schon ein paar Mal gefragt, ob ich nicht viel netter zu meiner KI sein sollte. Schließlich merkt sie sich alles, was wir sagen und lernt dabei. Ich gehöre tatsächlich zu den Menschen, die beim prompten „Bitte“ und „Danke“ sagen [i]  Ein Informatiker-Freund hat mir dringend dazu geraten („be nice to your AI“). Wer weiß, ob sie uns unsere Pampigkeit nicht irgendwann heimzahlt.  Eine entspanntere Position vertritt der französische Informatiker und Träger des Turing Awards von 2018 Yann LeCun , der ebenfalls zu der „Godfather-Community“ gezählt wird. Er bestreitet, dass die (heutigen) KI-Systeme in der Lage sein werden ein echtes Bewusstsein zu entwickeln und sich selbst replizieren oder verbessern können. Denn es handelt sich durchweg um sogenannte „ schwache KI “. Für eine „ starke KI “, eine technische Intelligenz, die menschenähnliche Bewusstseinszustände hervorbringt, wäre eine grundlegend andere KI-Architektur notwendig, von der allerdings auch LeCun nicht ausschließt, dass es sie eines Tages geben könnte. So böten Quantencomputer etwa die Möglichkeit analog dem menschlichen Gehirn, Informationen mit unterschiedlichen Intensitäten zu übertragen.       Yann LeCun Ein persönliches Nachwort Auf der Homepage meines Blogs   schreibe ich, dass alle meine Texte „komplett KI-frei sind. Das stimmt insofern, als dass ich grundsätzlich keine KI-generierten Inhalte im Wortlaut übernehme. Für das Schreiben meines Buchs   habe ich definitiv keine KI eingesetzt, einfach deshalb, weil sie zu der Zeit noch gar nicht zur Verfügung stand. Allerdings setze ich mittlerweile für die Recherche  meiner neuen Artikel (jene, wie dieser hier, nicht in meinem Buch erschienen sind) natürlich KI ein – ganz einfach, weil mich diese sehr viel schneller zum Ziel führt, als die herkömmlichen Suchmaschinen. Zudem benutze ich KI, um historische schwarzweiß Fotos zu kolorieren und im Einzelfall ( wie hier ) auch ganz neue Bilder zu erzeugen.   Wer mehr wissen will: The Economist, The age of AI: The new revolution (2024)MIT Technology Review, Why AI hallucinates (2023)Nature, Artificial intelligence in medicine: present and future (2022) ARTE-Doku „KI – Freund oder Feind?“ (2024) Stanford HAI Report (2024)     Bildnachweise: Leibniz' Rechenmaschine Nachbau von Zuses Z3 im Deutschen Museum in München Deep Blue schlägt Kasparov 1997 KI-generierter Feldhamster   Geoffrey Hinton Yann LeCun [i] Tatsächlich gibt es Hinweise darauf, dass dies zu leicht verbesserten Ergebnissen führt, denn die KI greift in diesem Fall auf tendenziell höherwertige Trainingsdaten zurück, da die diesbezüglichen Quellen typischerweise in einer besseren – und höflicheren – Sprache geschrieben sind.

  • Schopenhauer und Nietzsche in drei Minuten

    Fortsetzung von Kants langer Schatten: von Fichtes Ich zu Hegels Weltgeist Arthur Schopenhauer Von Kant  geht neben dem Idealismus   noch eine weitere Traditionslinie aus. Sie beginnt mit Arthur Schopenhauer ,   ein Philosoph, der zumeist als Misanthrop, Pessimist, Frauenfeind und schwermütiger Einzelgänger charakterisiert wird. Im Gegensatz zu dem sehr umständlich formulierenden Hegel  – den er im Übrigen zutiefst verachtete – war Schopenhauer aber auch ein brillanter Schriftsteller und Aphoristiker.   Es spricht für das Selbstvertrauen des jungen, unbekannten Schopenhauer, dass er 1820 seine Vorlesungen an der Universität Berlin genau auf die Zeiten legte, zu denen auch Hegel las – allerdings mit dem Ergebnis, dass kaum jemand Schopenhauers Veranstaltungen besuchte. Sein Hauptwerk „ Die Welt als Wille und Vorstellung “ veröffentlichte er 1819 im Alter von einunddreißig Jahren. Mit Vorstellung meint Schopenhauer die Wahrnehmungen, die uns unsere Sinnesorgane vermitteln. Sie sind der einzig mögliche Zugang zur Welt. „So lange wir uns rein anschauend verhalten, ist Alles klar, fest und gewiß.“ [i] Erst wenn wir anfangen nachzudenken, kommen Irrtümer und Missverständnisse ins Spiel. Hier befindet sich der junge Philosoph noch weitgehend auf dem Grund des kantschen Idealismus . Der junge Schopenhauer 1815 Der Wille zum Leben Schopenhauers eigentliches Interesse aber gilt dem Willen . Wille bedeutet für ihn Wille zum Leben. Die unsterbliche Lebenskraft ist die Ursache aller Wirkungen. Nicht wir steuern ihn, sondern der Wille steuert uns. Hartnäckig sorgt er dafür, dass wir uns stets unbefriedigt und orientierungslos fühlen. Schopenhauer 1855 Der Wille lässt den Menschen leiden, und zwar umso mehr, je intelligenter er ist. Genies – Schopenhauer dachte hier wohl auch an sich selbst – leiden daher am meisten; all ihr Wissen kann sie nicht von diesem Leid erlösen. Es gibt nur wenige Möglichkeiten, den Zwängen dieser Tyrannis zu entkommen: Neben den Weisheiten der fernöstlichen Religionen, dem Hinduismus und insbesondere dem Buddhismus , sieht er allein die Kunst als wirkungsvollen Weg das Erkennen über das Wollen zu stellen. Mit Schopenhauer  hält das Irrationale, das Unbewusste und die Tragik der menschlichen Existenz Einzug in die Philosophie. Friedrich Nietzsche Schopenhauers unorthodoxe Gedanken sollten großen Eindruck auf einen jungen Altphilologen machen. Der aus einem kleinen Dorf in Anhalt stammende Friedrich Nietzsche  wurde 1869 im Alter von nur 24 Jahren zum Professor für alte Sprachen an der Universität Basel berufen. Nur zehn Jahre später musste er seine Stelle aus gesundheitlichen Gründen aufgeben. In dem folgenden Jahrzehnt lebte Nietzsche als freier Schriftsteller in verschiedenen europäischen Ländern bis 1889 eine schwere psychische Erkrankung jede weitere Arbeit unmöglich machte. Er starb 1900 in geistiger Umnachtung. Nietzsches Frühwerk, „ Die Geburt der Tragödie aus dem Geiste der Musik “ erschien 1872. Hier wird bereits die Grundidee seiner Philosophie deutlich:  Die antike griechische Kultur sei keinesfalls, wie zumeist behauptet, von einem positiven Lebensgefühl geprägt gewesen, sondern vielmehr von andauernden Vernichtungskämpfen. Vor dieser tristen Wirklichkeit hätten die Griechen , so Nietzsche, in ihrer Mythologie Zuflucht gesucht, wobei insbesondere den beiden Göttern Dionysos  und Apollo eine zentrale Rolle zukommt. Das Dionysische steht für den wilden, ungebändigten, triebhaften, oft auch grausamen Willen – Dionysos ist der Gott des Weins und des Wahnsinns. Der Wille zur Macht Doch anders als Schopenhauer interpretiert Nietzsche den Willen positiv: Das Dionysische zerstört, um auf den Trümmern etwas Neues, Besseres zu errichten. Es ist somit nicht nur die Quelle von Schrecken und Leid, sondern auch Ursprung aller ungehemmter Lust, Schönheit und Kunst. Die apollinische Gegenmacht aber möchte die Triebe in die Schranken weisen und die Welt nach festen Ordnungsprinzipien gestalten. Verbote und Moral sollen die Flügel des unheimlichen Chaos stutzen. Apollon steht für die Vernunft, den Mantel aus Kultur und Zivilisation, unter dem wir unsere Begierden zu verstecken suchen. In dieser Tradition stehen auch Platon und das Christentum. Für Nietzsche hat die Kirche „aus jedem Wert einen Unwert, aus jeder Wahrheit eine Lüge, aus jeder Rechtschaffenheit eine Seelen-Niedertracht gemacht". [ii]  Dort, wo das Apollinische dominiert, wird alles Schöpferische erstickt und der Mensch verleugnet seine wahre Natur. Nietzsche proklamiert daher einen radikalen Egoismus: Nur wer s eine Triebe auslebt und bewusst das damit verbundene Leid auf sich nimmt, kann die schöpferische Lust des Dionysischen erfahren. Friedrich Nietzsche Zwischen 1883 und 1885 erscheint in vier Bänden „ Also sprach Zarathustra “. In diesem Werk, in dem sich die Grenzen von Dichtung, Philosophie und Theologie verwischen, verfolgt Nietzsche seinen Gedanken weiter. Die Entwicklung der Wissenschaften und die Säkularisierung der Welt haben den Menschen in eine Krise geführt. Der Sinn, den die abrahamitischen Religionen vermittelt haben, existiert nicht mehr. Die Verkündigung „Gott ist tot“ zwingt den Menschen seinem Sein selbst einen Sinn zu geben, um so der großen nihilistischen Leere zu entkommen. (Das vollständige Zitat lautet: „Gott ist tot! Gott bleibt tot! Und wir haben ihn getötet! Wie trösten wir uns, die Mörder aller Mörder?“) [iii]   Der Übermensch Dieser Sinn, den der Mensch selbst suchen muss, besteht darin, über sich selbst hinauszuwachsen, seinen freien Willen zu leben , sich dadurch zu einem neuen Menschen, dem „ Übermenschen “ weiterzuentwickeln. Das dionysische Element, das diese Entwicklung antreibt, ist der unbedingte „ Wille zur Macht “. Dank dieses Willen s lassen sich Vernunft, Tugend, Passivität und Mittelmaß überwinden und die Fesseln der Kultur abschütteln, die allesamt unsere Selbstverwirklichung verhindern. Nur im Übermenschen kann sich die Lebenskraft ungehindert entfalten. Er ist „der Sinn der Erde“, dem alles zustrebt. Der heutige Mensch muss sich als Bindeglied zwischen dem Biest und jenem künftigen Übermenschen begreifen. Nietzsche Skulptur an seinem Grab in Röcken, Anhalt Der neue Mensch erschafft sich selbst, indem er den alten Menschen mit Härte zerstört und unbeirrt und beseelt von Selbstliebe seine Ziele verfolgt. Nietzsche propagiert damit eine radikale Abkehr von der leidenschaftslosen Vernunft, die die Philosophie seit Platon geprägt hatte. Weder Religion noch Wissenschaft oder Moral steht es zu, irgendwelche Wahrheiten zu verkünden. Es gibt kein Richtig oder Falsch, kein Gut oder Böse. Alle diesbezüglich aufgestellten Regeln sind nichts als die Meinungen ihrer Urheber. Der einzige Sinn des Lebens ist der, den wir ihm selbst geben. Dass der starke Mensch seinen Willen auf Kosten Schwächerer auslebt, ist vielleicht tragisch, letztlich aber in Nietzsches Vorstellung unvermeidlich.       Den Blog entdecken   Wer mehr wissen will: Schopenhauer, Arthur (2019):   „Die Welt als Wille und Vorstellung“, Contumax. Nietzsche, Friedrich Wilhelm (1883): „Also sprach Zarathustra“, Projekt Gutenberg-DE. Nietzsche, Friedrich Wilhelm (1872): „Die Geburt der Tragödie aus dem Geiste der Musik“, Projekt Gutenberg-DE. Nietzsche, Friedrich Wilhelm (2000): „Der Antichrist“, Nikol. Nietzsche, Friedrich Wilhelm (2000): „Die fröhliche Wissenschaft“, Reclam.     Fussnoten: [i]  Schopenhauer (2019) S. 42. [ii] Nietzsche (2000) „Der Anitchrist“ Kapitel 62. [iii] Nietzsche (2000) Reclam, Aphorismus 125.

bottom of page