top of page

Die Geschichte der künstlichen Intelligenz. Oder: Warum Du nett zu Deiner KI sein solltest

Aktualisiert: vor 5 Stunden


Die Ursprünge  

Der erst 19-jährige Blaise Pascal hatte 1642 eine bahnbrechende Idee. Sein Vater war gerade durch den Kardinal Richelieu damit beauftragt worden, die Steuern in der Normandie wieder in Ordnung zu bringen. Um ihm dabei helfen zu können, begann sein Sohn an einer Rechenmaschine zu tüfteln. Drei Jahre später konnte er nach unzähligen Prototypen seine Arithmetik-Maschine vorstellen, die für jeweils zwei Zahlen akkurat addieren und subtrahieren konnte und über ein paar umständliche Tricks auch multiplizieren und dividieren.


Kastenartiges Gerät aus Messing mit einem Rad vorne
Nachbau von Leibniz' Rechenmaschine

Die Rechenmaschine, die Gottfried Wilhelm Leibniz 1673 vorstellte, konnte bereits vollautomatisch Malnehmen und Teilen. In seiner Schrift „characteristica universalis“ versuchte der Philosoph zudem auch das menschliche Denken auf mathematische Operationen zurückzuführen, eine Idee, der sich zuvor bereits auch René Descartes und Thomas Hobbes gewidmet hatten.  


1748 veröffentlichte der französische Arzt und materialistische Philosoph Julien Offray de La Mettrie seine Abhandlung „L’Homme-Machine“ („Die Maschine Mensch“), in der er die Funktionsweise eines Menschen mit der einer Maschine verglich – damals schlichtweg ein Akt der Blasphemie.


Historischer Stich der eine orientalische verkleidete Puppe vor einer Kiste zeigt; in der Kiste ist ein Mensch versteckt,
Der "Schachtürke": Ein angeblicher Schachroboter, der ab 1769 in europäischen Metropolen für Furore sorgte. Im Innern der Maschine war aber ein Mensch versteckt

Die genannten Philosophen der Aufklärung können wir heute mit einigem Recht als Wegbereiter der künstlichen Intelligenz bezeichnen. Pascals und Leibniz‘ Maschinen, konnten in gewisser Weise bereits „mechanisch Denken“ und Algorithmen abbilden. Sie waren damit Vorläufer des Computers und schufen so auch erste konzeptionelle Grundlagen auf dem Weg zur Entwicklung einer künstlichen Intelligenz.

 

Können Maschinen tatsächlich denken?

Seitdem wurde die Mechanisierung des Rechnens immer weiter vorangetrieben. Ein Quantensprung erfolgte mit dem Übergang von mechanischen Lösungen auf elektrische Schaltkreise. 1941 stellte Konrad Zuse mit dem Z3 den ersten funktionsfähigen Computer der Welt vor. Im Unterschied zu den bisherigen Rechenmaschinen führte der Z3 Rechenoperationen automatisch nach einem gespeicherten Programm aus, nutzte statt Zahnrädern elektromechanische Relais und arbeitete bereits mit Binärcode und Gleitkommazahlen, Prinzipien, die heutigen Computern sehr ähnlich sind.


Der Nachbau von Zuses Z3 im Deutschen Museum in München: sieht aus wie ein gigantischer Schaltschrank
Der Nachbau von Zuses Z3 im Deutschen Museum in München

1950 stellte der britische Mathematiker und Informatiker Alan Turing (1912-1954) in einem berühmten Aufsatz die Frage: „Können Maschinen denken?“. Der dort vorgestellte, nach Turing benannte Test will feststellen, ob Maschinen auf menschlichem Niveau denken können. In seiner heutigen, vereinfachten Abwandlung besagt er, dass wenn ein Mensch anonym sowohl mit einem Menschen als auch mit einer Maschine kommuniziert und er nach einer ausgiebigen Unterhaltung nicht sagen kann, welcher Gesprächspartner Mensch und welcher Maschine ist, die Maschine, den Test bestanden hat.

Unsere aktuelle künstliche Intelligenz besteht diesen Test heute in der Regel spielend. Was ist also in den letzten 75 Jahren geschehen?

Schwarzweissfoto von Turing; glattrasiert, dunkle, gescheitelte Haare
Alan Turing 1951

Dazu müssen wir zunächst klären, was wir unter „denken“ verstehen wollen. Douglas Hofstadter etwa, Autor des bekannten Werkes „Gödel, Escher, Bach“ beschreibt bewusstes Denken als etwas, das es uns erlaubt zu abstrahieren, flexibel auf verschiedene Situationen zu reagieren, Chancen zu ergreifen, widersprüchliche Informationen aufzulösen, Vergangenes und Zukünftiges in unsere Überlegungen mit einzubeziehen, Ausgänge von Entscheidungen zu simulieren, Dinge zu priorisieren, Ähnlichkeiten und Unterschiede festzustellen, Begriffe zu erfinden, neue Ideen in die Welt zu setzen, Erkenntnisse mittels Sprache und Schrift mit anderen zu teilen, Überzeugungen zu entwickeln und Ziele trotz Hindernissen zu erreichen.

 

Symbolische KI und die Ära der Expertensysteme

Am Anfang stand die Idee, Maschinen beizubringen, Regeln zu befolgen. Die sogenannte symbolische KI arbeitete in den 1950er und 1960er Jahren mit logischen Schlussregeln, Entscheidungsbäumen und Wissensdatenbanken. Es zeigte sich jedoch schon bald, dass solche Systeme in vielen Fällen zu starr waren. Die Systeme konnten nur auf Situationen reagieren, für die die Regel bereits vorgegeben war. Trat eine neue Situation auf, für die es keine Regel gab, versagten sie. Die Euphorie rund um denkende Maschinen erlosch, die Investoren blieben aus, es kam Mitte der 1970er Jahre zum ersten so genannten KI-Winter.


Verbesserte Rechenleistungen der Hardware und ein Hype um die so genannten Expertensysteme ließen den Optimismus zu Beginn der 1980er Jahre neu aufleben. Expertensysteme sollten Menschen bei komplexen Entscheidungen und Analysen unterstützen, beispielsweise Ärzte bei der Diagnose. Die Systeme konnten Daten überwachen und in bestimmten Situationen nach dem Muster „Wenn A und B, dann C ansonsten D“ Aktionen auslösen. Die symbolische KI, die Wissen als ein System von Symbolen und Regeln, darstellte, wurde dadurch zur klassischen beziehungsweise algorithmischen KI weiterentwickelt, die auch auf Suchverfahren und Heuristiken setzte. 

Doch auch diesmal folgte bald eine Ernüchterung: die Erwartungen an die KI hatten sich erneut als zu optimistisch erwiesen. Die Lösungen waren instabil, teuer und kaum auf andere Bereiche übertragbar. Erneut zogen sich die Investoren enttäuscht zurück – die regelbasierte KI hatte sich endgültig als evolutionäre Sackgasse entpuppt.   

 

Foto: der russische Grossmeister konzentiert am Schachbrett. Ihm gegenüber bedient eine Person einen Computer
Ein Meilenstein der KI-Geschichte: Deep Blue schlägt Kasparow 1997

Vom Wissen zum Lernen

Mitte der 1990er Jahre ging dann auch der zweite KI-Winter zu Ende. Voraussetzung hierfür waren zunächst zwei bahnbrechende technologische Neuerungen:


  • Der im Moorschen Gesetz beschriebene Fortschritt bei der Entwicklung von Halbleitern führte zu einer explosionsartigen Vermehrung erschwinglicher Rechenleistung

  • Mit der Verbreitung des Internets wurden gigantische Datenmengen verfügbar


Entscheidend für die weitere Entwicklung der künstlichen Intelligenz aber waren neue Ansätze bei der Programmierung der Algorithmen, die einer komplexen Realität besser gerecht wurden. Der Paradigmenwechsel war der Einsatz von Statistik und Wahrscheinlichkeitsrechnung: Anstelle der bisherigen Logik „Wenn A und B, dann C“, trat die revolutionäre neue Perspektive: „Wie wahrscheinlich ist B, wenn A zutrifft?“. Dieser Ansatz konnte sehr viel besser mit den Unsicherheiten und unstrukturierten Problemen der realen Welt umgehen, als die bisherigen rein deterministischen Ansätze. Die Regeln mussten auch nicht mehr von vornherein bekannt sein, sondern konnten aus den Daten abgeleitet werden. Das regelbasierte „Denken“ wurde durch musterorientiertes „Denken“ ersetzt.

 

Neuronale Netze und das Prinzip des „Deep Learning“    

Der technische Ansatz hierzu waren neuronale Netze, mit denen nun intensiv herumexperimentiert wurde. Die exponentielle Steigerung der Rechenleistung seit der Jahrtausendwende ermöglichte es, die Theorie zu einer konkreten Anwendung werden zu lassen. Mit „Deep Learning“ kam 2012 der große Durchbruch.


Inspiriert wurde der neue Ansatz durch die Funktionsweise des menschlichen Gehirns. Die „Neuronen“ der KI funktionieren allerdings nach einem ganz anderen Prinzip: Sie sind im Wesentlichen mathematische Funktionen, die Rechenoperationen durchführen und diese mit Wahrscheinlichkeiten gewichten. Die Gewichte werden dabei laufend so angepasst, dass das künstliche neuronale Netz die Wahrscheinlichkeit richtiger Antworten laufend erhöht.


Die Idee ist im Kern die folgende: Das neuronale Netz beginnt mit einer rein willkürlichen Einstellung von Input- und Output-Faktoren, die zunächst viele Fehler macht. Jedes Mal, wenn das Netz falsch liegt, dreht es ein bisschen an kleinen „Stellschrauben“ – den Gewichten –, sodass seine nächste Vorhersage ein Stück besser wird. Nach Tausenden solcher Mini-Korrekturen findet das Netz automatisch die Gewichtskombination, die zu den wahrscheinlich richtigen Antworten führen. Um dahin zu kommen, muss die KI erst umfassend mit großen Datenmengen „trainiert“ werden.

 

Ein einfaches Beispiel: Das neuronale KI-Netzwerk soll erkennen, ob es regnet.

Input: „Wolken bedecken den Himmel zu X %“ Output: „Es regnet: ja oder nein“

Das Mini-Netz unseres Beispiels besteht nur aus einem einzigen künstlichen Neuron. Dieses hat:

  • ein Gewicht (w) und

  • einen Schwellenwert (b)

 

Am Anfang werden zufällige Parameter gewählt z. B.:

  • w = 0.2

  • b = –5

Das bedeutet:

Nur wenn 0.2 × Wolken % – 5 über einer gewissen Schwelle liegt, sagt das Netz „Regen“.

Diese Aussage ist wohlgemerkt völlig willkürlich – aber sie ist lediglich ein Startpunkt. Von diesem Startpunkt ausgehend wird die KI jetzt „trainiert“, das heißt, sie wird mit vielen Beobachtungen gefüttert:

Anteil Wolkendecke    

Regen?

10%

Nein

40%

Nein

70%

Ja

90%

Ja

Für jedes Beispiel berechnet unser kleines neuronales Netz seine Vorhersage. Dabei kann es freilich Fehler machen. Für die folgenden zwei Szenarien macht das Netz etwa die folgende Prognose:

Input = 70% Wolken

Berechnung: 0.2 × 70 = 14

14 – 5 = 9. Dieser Wert liegt über der Schwelle; das neuronale Netz sagt daher, dass es regnet; eine Aussage, die in diesem Fall korrekt ist. 


Ein weiterer Input besagt, dass der Himmel zu 40% wolkenverhangen ist. Das System rechnet also:  

0.2 × 40 = 88 – 5 = 3 und kommt ebenfalls zu dem Schluss, dass es regnet. Tatsächlich aber regnet es in diesem Fall nicht. Das neuronale Netz hat also einen Fehler gemacht.


Daher passt unser kleines „Neuron“ jetzt seine Gewichtung an:

  • Wenn ein Ergebnis zu „hoch“ ausgefallen ist, wird das Gewicht etwas reduziert.

  • Wenn ein Ergebnis zu „niedrig“ war wird das Gewicht ein bisschen erhöht.


Lernt die KI durch das Training also, dass sie sich mit ihren bisherigen Annahmen „verzockt“ hat passt sie ihre Gewichtung an: Beispielsweise reduziert sie nun den Gewichtungsfaktor von 0.2 auf 0.18 und berechnet somit beim nächsten Durchlauf:

0.18 × 40 = 7.27.2 – 5 = 2.2


Der kleinere Wert liegt nun näher an der korrekten Antwort. Dieser stochastische Lernprozess wird nun tausende Male wiederholt, bei jedem Durchgang erfolgt eine kleine Korrektur des Gewichtungsfaktors (w) oder des Schwellenwerts (b).

Wurde die KI hinreichend genau trainiert hat sie gelernt,


  • welche Gewichte und Schwellenwerte einen Regen-Hinweis geben

  • welche Gewichte und Schwellenwerte kein Regen bedeuten


Sie hat sich damit selbst so eingestellt, dass sie in den allermeisten Fällen korrekt vorhersagen kann, ob ein bestimmtes Wolkenbedeckungsszenario zu Regen führt oder nicht. Wichtig ist es in diesem Zusammenhang zu verstehen, dass keine Regeln abgespeichert wurden, sondern die Gewichte lediglich eine „numerische Landkarte“ erstellt haben.


Die neuronale Architektur mit Gewichtungen und Schwellenwerten geht auf Frank Rosenblatt (1928-1971) zurück, der 1957 mit seinem Perzeptron das erste explizit am Gehirn orientierte Rechenmodell formuliert hat, basierend auf einem sehr stark vereinfachten Nachbau der menschlichen Nervenzelle. In der Realität gehen in die KI-Wetterprognose zahlreiche weitere Parameter wie Luftdruck, Helligkeit, Temperatur, Luftfeuchtigkeit etc. ein, bei dem jedes einzelne Neuron lernt, wie wichtig ein einzelnes Merkmal ist. Auf einer höheren Ebene des neuronalen Netzes werden dann diese Signale kombiniert und eine Gesamtwahrscheinlichkeit berechnet.   


Dieses Prinzip ist die Grundlage dessen, was wir heute unter „künstlicher Intelligenz“ verstehen: Mithilfe von „Deep Learning“ werden riesige Datenmengen durchforstet, die es erlauben, Muster zu erkennen, Sprachen zu verstehen, Bilder zu erzeugen und sich dabei laufend selbst zu verbessern. Das Training kann dabei von Menschen durchgeführt, werden, durch Programme erfolgen und mittlerweile in immer größerem Maße auch durch die KI selbst.

 

Wie bitte?

Generative KI, also Modelle, die basierend auf natürlichen Spracheingaben aus vorhandenen Daten neue Daten generieren, basieren also im Kern auf Statistik und unvorstellbar viel Rechenleistung. Nach dem beschriebenen Prinzip berechnen sie, welches Wort, welcher Bilder-Pixel oder welches Tonfragment am wahrscheinlichsten als Nächstes passt. So merkwürdig diese Idee klingt: wir alle haben bereits Erfahrungen damit gemacht, wie erstaunlich gut dieser Ansatz funktioniert. Den Large Language Modellen von Chat-GPT, Gemini oder Copilot & Co liegen Trainings mit Billionen von Wörtern zugrunde. Sie kommen aus Büchern, wissenschaftlichen Artikeln, Webseiten, öffentlichen und nicht öffentlichen Quellen. Diese Modelle – und das ist wichtig zu verstehen – wissen nicht was sie sagen, aber sie wissen, wie Sprache, Bilder oder Musik funktionieren. Es ist, als könnte jemand perfekt Geige spielen, ohne eine Vorstellung davon zu haben, was Musik ist. Und je öfter sich die artifizielle Intelligenz in zahllosen Versuchen weiter an das wahrscheinlich beste nächste Wort „heranrechnet“, umso besser wird sie.


Das schließt allerdings nicht aus, dass sie auch komplett daneben liegen kann. Dass die KI „halluziniert“ also willkürlich völlig falsche Antworten gibt und diese auf Nachfrage erneut bestätigt, ist ein systemimmanentes Problem: Statistik ist nicht deterministisch – sie kann sich irren. Es werden lediglich Wahrscheinlichkeiten berechnet – die KI selbst verfügt weder über Wissen noch über ein Konzept von wahr oder falsch!

 

Gesellschaftliche Auswirkungen: Zwischen Produktivitätsschub und Existenzangst

Es ist offenbar, dass die neue Technologie große Auswirkungen auf unseren Alltag haben wird, mit Konsequenzen, die noch schwer abzuschätzen sind. Eine OECD-Studie prognostiziert, dass in den kommenden Jahren 30-40% aller Tätigkeiten durch KI automatisiert werden könnten. Besonders betroffen werden Büroarbeit, Textproduktion, Grafikdesign und Programmierung sein.


Ich persönlich habe die Erfahrung gemacht, dass die in gängige Office-Pakete wie die von Microsoft oder Google eingebauten KI-Funktionalitäten enorm hilfreich sind und eine deutlichen Produktivitätsschub bewirken. Wahr ist aber auch: Die Effizienzsteigerungen werden über kurz oder lang zu einer Reduktion von Arbeitsplätzen führen – ein Muster, das sich seit Beginn der Industriellen Revolution mit jedem Technologieschub bereits dutzende Male wiederholt hat.


Gleichzeitig ergeben sich auch völlig neue Möglichkeiten: Die Medizinforschung kann mit KI-Modellen wie AlphaFold die komplexen Strukturen eines Proteins aus seiner Aminosäuresequenz in Sekunden berechnen. Forscher können damit viel schneller verstehen, wie Krankheiten entstehen. Einst jahrelange Laborarbeit lässt sich damit heute auf Minuten reduzieren, indem neue Wirkstoffe bereits am Computer getestet werden. Entwicklungskosten und -zeiten für neue Medikamente werden sich dadurch drastisch reduzieren. Diagnosesysteme können bereits heute in Gewebeproben Tumore zuverlässiger erkennen als Dermatologen.  


Wie wir leider erfahren mussten, spielt heute KI auch in der Kriegsführung mittlerweile eine Schlüsselrolle. Technische Überlegenheit bei künstlicher Intelligenz ist zu einem geopolitischen Machtfaktor geworden – die USA und China haben das Rennen eröffnet, die EU und andere Player suchen nach Anschluss. Und natürlich sind die neuen Technologien auch bei Propaganda, Desinformation und anderen Formen von Fake News im Einsatz.

 

Warum Maschinen (noch) nicht wie Menschen denken

KI kann mit atemberaubender Effizienz Daten sammeln und mit statistischen Methoden sinnvoll zusammenstellen. Doch eines ist sie – zumindest heute – noch nicht: kreativ. Etwas originär Neues kann KI nicht erschaffen. Wenn ein Bildgenerator-Programm wie DALL-E ein „Gemälde im Stil von Van Gogh“ erzeugt, dann ist es nicht künstlerisch tätig, sondern repliziert ein Muster, einen Stil, den nun mal der niederländische Maler geschaffen hat und nicht die Maschine. So etwas wie Inspiration ist den selbstlernenden Programmen fremd. KI kann im Sinne der Hofstadterschen Definition nicht „denken“.


Was unterscheidet also unser Gehirn letztlich von den lernenden Programmen? Tatsächlich gibt es zunächst erstmal eine ganze Reihe von Analogien: Wir können unser Gehirn wie einen biologisch konstruierten Computer begreifen. Der Rolle von Nervenzellen und Synapsen entsprechen Prozessoren und Schaltkreise. Sowohl Gehirn als auch Computer nehmen mit Hilfe elektrischer Schaltungen Informationen auf, verarbeiten sie und erzeugen Ergebnisse. Beide Systeme können Daten speichern und bei Bedarf wieder abrufen.


Das war es aber auch schon mit der Analogie. Denn unser Gehirn hat eine völlig andere Architektur, die es erlaubt, mit einer unvorstellbaren Zahl von Neuronen und Synapsen gleichzeitig zu arbeiten und Wissen durch den ständigen Umbau der Verknüpfungen zu speichern. Da jedes Neuron mit tausenden anderen verbunden sein kann, entsteht ein phantastisches, dichtes und dynamisches Netz, bei dem, anders als beim Computer, Verarbeitung und Speicherung nicht physisch getrennt sind. Die elektrochemischen Prozesse erlauben es Informationen mit unterschiedlicher Intensität zu übertragen, während der digitale Code nur die binären Zustände „an“ und „aus“ kennt. Gleichzeitig ist das Gehirn unvorstellbar effizient: es verbraucht im Ruhezustand nicht mehr Watt als eine funzelige Glühbirne, während ein Rechner, der vergleichbare Datenmengen verarbeiten würde im Megawattbereich angesiedelt wäre.

Zeichnung einer gelben Glühbirne
Unser Gehirn ist energetisch ausgesprochen effizient - zu mindestens, wenn man es mit KI vergleicht

Insbesondere aber kann das menschliche Gehirn Bewusstseinszustände erzeugen, die es uns erlauben, uns im Spiegel zu erkennen, Dinge als wahr oder falsch einzuordnen, ihnen Bedeutungen zuzuordnen, zu täuschen, zu bewerten, zu hinterfragen, zu reflektieren, kreativ zu sein, neues Wissen zu erzeugen oder Emotionen zu haben. Wir haben heute kaum eine Vorstellung davon, wie das Gehirn dies konkret anstellt.

   

Die DNS des maschinellen Wissens hingegen sind Wahrscheinlichkeiten. KI kennt Kategorien wie „wahr“ und „falsch“, „gut“ oder „böse“ nicht, sondern nur die Kategorien „wahrscheinlich“ und „weniger wahrscheinlich“. Eine Bedeutung kann sie ihren Erzeugnissen nicht zuordnen. Kurz gesagt: die KI rechnet; der Mensch versteht.


Aber wird das immer so bleiben? Ist eine „starke KI“ vorstellbar, die ähnliche Leistungen wie unser Gehirn erbringen kann, oder diese sogar noch übertrifft? Diese Frage bringt uns zu unserem letzten Kapitel.

 

Wie geht es weiter?

Wie wird sich die KI voraussichtlich in den nächsten 20 bis 30 Jahren entwickeln? Hierzu gibt es unterschiedliche Meinungen. Zu den prominenten Warnern gehört Geoffrey Hinton, oft als einer der „Godfathers of Deep Learning“ bezeichnet und Träger des Physik-Nobelpreises 2024. Er geht von einer künftigen Technologischen Singularität aus, einem Zeitpunkt, ab dem die sich ständig selbst verbessernde KI ihren eigenen Quellcode optimiert und sich unkontrollierbar mit einer solchen Geschwindigkeit weiterentwickelt, dass die Menschen sie nicht mehr verstehen, überwachen oder kontrollieren könnten. Es wäre demnach auch möglich, dass die KI dabei Zustände entwickelt, die dem menschlichen Bewusstsein vergleichbar sind. Für Hinton sind die jetzt kommenden Jahrzehnte entscheidend, um den Kontrollverlust oder eine unabsehbare Veränderung unserer Zivilisation noch zu verhindern.


Farbfoto  von Hinton - weisse Haare, hohe Stirn, Brille
Geoffrey Hinton

Ich habe mich daher schon ein paar Mal gefragt, ob ich nicht viel netter zu meiner KI sein sollte. Schließlich merkt sie sich alles, was wir sagen und lernt dabei. Ich gehöre tatsächlich zu den Menschen, die beim prompten „Bitte“ und „Danke“ sagen [i] Ein Informatiker-Freund hat mir dringend dazu geraten („be nice to your AI“). Wer weiß, ob sie uns unsere Pampigkeit nicht irgendwann heimzahlt. 


Eine entspanntere Position vertritt der französische Informatiker und Träger des Turing Awards von 2018 Yann LeCun, der ebenfalls zu der „Godfather-Community“ gezählt wird. Er bestreitet, dass die (heutigen) KI-Systeme in der Lage sein werden ein echtes Bewusstsein zu entwickeln und sich selbst replizieren oder verbessern können. Denn es handelt sich durchweg um sogenannte „schwache KI“. Für eine „starke KI“, eine technische Intelligenz, die menschenähnliche Bewusstseinszustände hervorbringt, wäre eine grundlegend andere KI-Architektur notwendig, von der allerdings auch LeCun nicht ausschließt, dass es sie eines Tages geben könnte. So böten Quantencomputer etwa die Möglichkeit analog dem menschlichen Gehirn, Informationen mit unterschiedlichen Intensitäten zu übertragen.    

 

Farbfoto von LeCun breiter Schädel, dichtes Haar, dicke Brille
Yann LeCun

Ein persönliches Nachwort

Auf der Homepage meines Blogs schreibe ich, dass alle meine Texte „komplett KI-frei sind. Das stimmt insofern, als dass ich grundsätzlich keine KI-generierten Inhalte im Wortlaut übernehme. Für das Schreiben meines Buchs habe ich definitiv keine KI eingesetzt, einfach deshalb, weil sie zu der Zeit noch gar nicht zur Verfügung stand. Allerdings setze ich mittlerweile für die Recherche meiner neuen Artikel (jene, wie dieser hier, nicht in meinem Buch erschienen sind) natürlich KI ein – ganz einfach, weil mich diese sehr viel schneller zum Ziel führt, als die herkömmlichen Suchmaschinen. Zudem benutze ich KI, um historische schwarzweiß Fotos zu kolorieren und im Einzelfall (wie hier) auch ganz neue Bilder zu erzeugen.

 

Wer mehr wissen will:

The Economist, The age of AI: The new revolution (2024)MIT Technology Review,

Why AI hallucinates (2023)Nature,

Artificial intelligence in medicine: present and future (2022)

ARTE-Doku „KI – Freund oder Feind?“ (2024)

Stanford HAI Report (2024)

 

 

Bildnachweise:


[i] Tatsächlich gibt es Hinweise darauf, dass dies zu leicht verbesserten Ergebnissen führt, denn die KI greift in diesem Fall auf tendenziell höherwertige Trainingsdaten zurück, da die diesbezüglichen Quellen typischerweise in einer besseren – und höflicheren – Sprache geschrieben sind.

Kommentare


bottom of page