Der verlässliche Zufall: die Entdeckungsgeschichte der Statistik
- Jens Bott

- 24. Okt.
- 13 Min. Lesezeit
Antike Zufälle
Bis in die Antike hinein war alles, was geschah der Wille von Dämonen, Geistern oder Göttern – einen Zufall gab es nicht. Die Zukunft war vorherbestimmt; Seher wie die römischen Auguren und Haruspices konnten künftige Ereignisse aus dem Flug der Vögel oder aus der Leber von Opfertieren lesen. Erneut waren es die Griechen, die sich als Erste etwas differenzierter mit dem Phänomen Zufall auseinandersetzten.

Bereits lange vor Laplace war Demokrit davon überzeugt, dass das, was wir als Zufall wahrnehmen, lediglich menschliches Unvermögen sei, die wahre Ordnung der Welt erkennen zu können. Aristoteles unterschied drei Arten von Ereignissen: sichere, wahrscheinliche und unerkennbare. Am Ende der Antike sorgte jedoch vor allem die Prädestinationslehre des Kirchenvaters Augustinus dafür, dass es für solche Gedanken fortan kaum noch Raum gab: Der allwissende Gott kennt den Lauf der Dinge von Anfang an; da er selbst weiß, wie sich jeder einzelne Mensch auf seinem Lebensweg zwischen Gut und Böse entscheiden wird, ist auch das Seelenheil bei der Geburt bereits unweigerlich vorbestimmt. Da der frühneuzeitliche Protestantismus diesen Gedanken übernahm, war der Zufall für die nächsten 12 Jahrhunderte in der westlichen Welt wieder aus dem Spiel.
Aufmerksame Franzosen
Das änderte sich erst, als um das Jahr 1650 einige wohlhabende Herren in einem Pariser Wirtshaus zum Karten- und Würfelspiel zusammenkamen. Der Einsatz sollte an denjenigen gehen, der die meisten einer vorher festgelegten Anzahl von Runden für sich entschied. Es wurde spät, der Wein machte die Köpfe schwer und so beschloss die Gesellschaft den Abend zu beenden noch bevor die vereinbarte Zahl Partien gespielt war. Gab es eine faire Methode, den Einsatz des abgebrochenen Spiels unter den Spielern aufzuteilen? Die Herren wandten sich mit dieser Frage an Blaise Pascal (1623-1662), den führenden Universalgelehrten Frankreichs. Der anschließende Briefwechsel, den Pascal mit Pierre de Fermat über die Gewinnteilungsproblematik führte, gilt heute als die Geburtsstunde der Wahrscheinlichkeitsrechnung.

Dem neuen Sujet widmeten sich zunächst vor allem Franzosen. Neben Pascal und Fermat zählen Abraham de Moivre, Marie Jean Condorcet, Siméon Denis Poisson, Pierre-Simon Laplace sowie Jakob und Daniel Bernoulli – letztere Sprösslinge einer Basler Gelehrtenfamilie – zu den Pionieren der Zufallsmathematik. Die von ihnen eingeleitete „probabilistische Revolution“ hat unseren Blick auf die Welt grundlegend verändert. Der verwegene Anspruch der Zufallsforscher war es, in den gottgewollten Ereignissen und Schicksalen Gesetzmäßigkeiten zu suchen – ein Anliegen, das manchen Zeitgenossen noch immer der Blasphemie gleichkam. Doch mit der Zeit setzte sich die Erkenntnis durch, dass, wie Goethe es später formulierte, „das Gewebe dieser Welt [.] aus Notwendigkeit und Zufall gebildet“ ist.[i] Heute wissen wir, dass der Zufall eine Grundkonstante der Natur ist. Er begegnet uns, wie wir noch sehen werden, unter anderem in der Thermodynamik, der Quantenphysik, der Evolutionstheorie und der Genetik.

Kombinatorik
Die Erforscher des Zufalls standen vor dem gleichen Problem wie Newton und Leibniz: In der mathematischen Werkzeugkiste fand sich kein passendes Instrument. Erste grundlegende Einsichten ließen sich aus der Analyse gängiger Glücksspiele wie Karten, Würfeln, Münzwurf oder Lotterie gewinnen. Die daraus entstandene mathematische Grundlagendisziplin bezeichnen wir heute als Kombinatorik. Der Kombinatorik liegen eine Anzahl von einfachen Spielregeln zugrunde: Für „Permutationen“, die Anordnung von Objekten in verschiedenen Reihenfolgen, ergibt sich die Anzahl der Möglichkeiten aus der Fakultät: Um etwa vier verschiedenfarbige Kugeln unterschiedlich aufzureihen, gibt es 4! = 1* 2 3 * 4 = 24 Möglichkeiten. Bei der „Kombination“ wird eine Teilmenge entnommen, beispielsweise zwei der vier Kugeln. Sofern die entnommenen Kugeln nicht wieder zurückgelegt werden dürfen, gibt es sechs mögliche Ergebnisse; mit Zurücklegen erhöht sich die Anzahl auf zehn, denn jede der vier Farben kann nun ein weiteres Mal gezogen werden. Bei der „Variation“ wird zusätzlich auch noch die Reihenfolge der gezogenen Objekte berücksichtigt. In diesem Fall gibt es für „zwei-aus-vier“ zwölf Möglichkeiten ohne Zurücklegen und sechzehn mit Zurücklegen. Mit diesen Grundlagen gewappnet, konnten die Zufallsforscher nun erstmals Wahrscheinlichkeiten für den Eintritt bestimmter Ereignisse berechnen.
Wie man ganz einfach im Lotto gewinnt…
Ein einfacher Zufallsgenerator ist der Würfel. Da bei ihm die Eintrittswahrscheinlichkeit von einem einzelnen Wurf unabhängig ist, beträgt die Chance für eine bestimmte Augenzahl im Ereignisraum des Würfels ein Sechstel. Die Wahrscheinlichkeit, eine Augenzahl kleiner vier zu erhalten, liegt bei 50% (drei Sechstel). Und in jedem 36. Fall (ein Sechstel mal ein Sechstel) haben wir die Aussicht, zweimal hintereinander dieselbe Zahl zu werfen.
Bei einer Lotterie, bei der 6 aus 49 Kugeln gezogen werden – hier handelt es sich um das Szenario „Kombination ohne Zurücklegen“ – ist es bereits wesentlich komplizierter. Die Wahrscheinlichkeiten verändern sich mit jeder neuen Ziehung, da die gezogenen Kugeln aus dem Ereignisraum ausscheiden. Die Anzahl der Kombinationsmöglichkeiten beträgt daher:

Die Wahrscheinlichkeit für „sechs Richtige“ liegt also bei knapp 1 zu 14 Millionen. Rein statistisch müsste man etwa 270.000 Jahre lang jede Woche spielen, um einmal zu gewinnen. Wohl gemerkt: rein statistisch. Denn eine Gewinngarantie gibt es selbst dann nicht. Wahrscheinlichkeiten lassen sich zwar exakt berechnen, das heißt aber nicht, dass sie auch eintreten müssen.
Das Gesetz der großen Zahlen
Kehren wir noch einmal zu dem simplen Würfelspiel zurück. Die Gesetze der Stochastik – so die offizielle Bezeichnung der Zufallsmathematik – lassen sich auch recht einfach experimentell überprüfen. Bei 600 Würfen wird die absolute Häufigkeit jedes einzelnen Augenwerts wahrscheinlich in der Nähe von 100 liegen. Bei 1200 Würfen werden sie sich voraussichtlich der zu erwartenden Verteilung weiter angenähert haben. Jeder folgende Wurf erhöht die Wahrscheinlichkeit einer weiteren Angleichung. Damit war ein fundamentales Muster gefunden: das Gesetz der großen Zahlen. Als Erster formulierte es Jakob Bernoulli: Die Genauigkeit empirischer Untersuchungen wächst mit der Anzahl der Versuche oder allgemeiner formuliert: Das Wahrscheinlichere verdrängt mit der Zeit das Unwahrscheinlichere.

Das Gesetz der großen Zahlen unterliegt allerdings einer beschränkten Haftung. Grundsätzlich ist es nicht auszuschließen, dass eine andere als die erwartete Gleichverteilung der Würfelaugen entsteht. Nichts ist garantiert, nichts muss nach den Gesetzen der Wahrscheinlichkeitsrechnung geschehen, denn die Gesetze beeinflussen keinesfalls den Zufall selbst. Trotzdem ziehen viele Menschen an dieser Stelle intuitiv einen falschen Schluss. Wenn bei 600 Würfen die Augenzahl „Zwei“ erst 50-mal statt den erwarteten 100-mal eingetreten ist, heißt das nicht, dass die „Zwei“ künftig häufiger auftreten muss. Viele Roulettespieler erwarten, dass nachdem die Kugel 10-mal hintereinander auf „Rot“ gefallen ist, nun endlich „Schwarz“ an der Reihe ist. Aber dem ist nicht so. Würfel und Kugeln haben kein Gedächtnis; der Roulettekugel ist es völlig gleich, ob sie zuletzt auf Rot oder Schwarz lag, das nächste Ereignis hängt nicht davon ab, was zuvor geschah. Ebenso wenig sagen Wahrscheinlichkeiten etwas über Einzelschicksale. Die Chance, Opfer einer Haifischattacke zu werden, lässt sich zwar berechnen, aber niemand ist zu 0,000715 % Opfer des Raubfischs, sondern immer nur zu 100 % oder 0%.
Das Gesetz der großen Zahlen, so trivial es uns heute auch erscheinen mag, gehört zu den großen Entdeckungen der Menschheit. Die frühen Stochastiker hatten erkannt, dass sich mit dem blinden Zufall rechnen lässt, wenn sich das zugrundeliegende Ereignis nur oft genug wiederholt. Die einzelnen Launen der Natur bleiben unvorhersehbar, in der Summe aber folgen sie Regeln, die sich mathematisch beschreiben lassen.
Vier Pfarrer denken über Leben und Tod nach
Die praktische Bedeutung dieser Erkenntnis war kaum zu überschätzen: Da die Häufung vieler Ereignisse eine hinreichende Sicherheit erzeugte, konnten Risikogemeinschaften wie Versicherungen nun erstmals auf eine statistische Grundlage gestellt werden. Man begann eifrig Daten über das Wetter, über Schiffskatastrophen und Ernteerträge zusammenzutragen. Von besonderem Interesse waren Leben und Tod. Die Autoritäten hierfür waren Pfarrer, die die Kirchenbücher führten und damit die grundlegenden statistischen Daten selbst erzeugten. Der Breslauer Pastor Caspar Neumann erstellte um 1690 als Erster für seine Heimatstadt eine Geburts- und Sterbestatistik. Johann Peter Süßmilch, ein Berliner Pfarrer, baute Neumanns Werk systematisch aus und erkannte als erster, dass 100 weiblichen Geburten durchschnittlich 105 männliche gegenüberstanden.

Zwei schottische Amtskollegen, Robert Wallace und Alexander Webster, rechneten Mitte des 18. Jahrhunderts das Sterberisiko für ihre eigene Berufsgruppe aus und analysierten, wie viele Witwen und Waisen demnach zu versorgen waren. So konnten die Prämien für einen Anlagefonds bestimmt werden, mit dem sich die Hinterbliebenen Pfarrerswitwen absichern ließen.[ii] Nach und nach entstanden weitere Solidargemeinschaften, mit denen sich Reeder gegen Schiffsunglücke und Hausbesitzer gegen Feuer schützten. Die Versicherten waren nun vor den finanziellen Folgen großer Schicksalsschläge gefeit und konnten fortan freier agieren. Als Deutschland 1889 als erstes Land der Welt eine gesetzliche Rentenversicherung einführte, war die Stochastik auch in der Politik angekommen.
Was dürfen wir eigentlich erwarten?
Um das Jahr 1800 waren die Mathematiker der nächsten wichtigen Erkenntnis auf der Spur. Es begann damit, dass Laplace sich die Frage stellte, welcher Wert eigentlich im Durchschnitt bei einem Zufallsereignis zu erwarten sei. Dieser „Erwartungswert“ beträgt beim Würfeln beispielsweise 3,5 und ist das arithmetische Mittel, das bei unendlicher Wiederholung des Experiments entsteht: Zählt man die Augen von 10.000 Würfen zusammen und teilt sie durch 10.000, wird der Wert mit großer Wahrscheinlichkeit in der Nähe von 3,5 liegen. Im langfristigen Durchschnitt würfelt man also „dreieinhalb“, obwohl der Würfel selbst diese Augenzahl gar nicht kennt.
Wirft man nun beispielsweise gleichzeitig drei Würfel, können nach den Gesetzen der Kombinatorik 16 verschiedene Mittelwerte entstehen. Erzielt man drei Sechser, ist der Mittelwert sechs; bei drei Einsern beträgt er eins. Dazwischen gibt es 14 weitere mögliche Mittelwerte: 5,666..., 5,333..., 5, 4,666..., 4,333..., 4, 4,666... usw. Betrachtet man nun die absolute Häufigkeitsverteilung, zeigt sich, dass bestimmte Mittelwerte öfter erzielt werden als andere: Mit zunehmender Anzahl Würfe steigt die Wahrscheinlichkeit, dass die Mittelwerte umso häufiger vorkommen, je näher sie am Erwartungswert von 3,5 liegen. Mit der größten Wahrscheinlichkeit werden also die Durchschnittswerte 3,666... und 3,333... erzielt.

Je mehr Würfel gleichzeitig geworfen werden und je größer die Anzahl der Versuche, umso mehr nähert sich die Verteilung der Mittelwerte einer symmetrischen, glockenförmigen Figur:

Dieses Gebilde kannten die Stochastiker bereits. Der nach England geflohene französische Hugenotte Abraham de Moivre hatte es schon um 1730 beschrieben. Heute bezeichnen wir dieses Muster als Normalverteilungs-, Glocken- oder auch Gaußkurve. (Gauß fand als Erster die exakte Funktion, die diese Verteilform beschreibt.) Das der Normalverteilungskurve zugrunde liegende Gesetz ist der Zentrale Grenzwertsatz, den Laplace erstmalig bewies. Er besagt, dass die Stichprobenmittelwerte gegen eine Normalverteilung streben, wenn Umfang und Anzahl der Stichproben gegen unendlich gehen.
Die wichtigste Verteilung in der Natur
Die Normalverteilung ist die wohl wichtigste Verteilform der Natur. Körpergröße, Intelligenzquotient, Blutdruck, Niederschlagsmengen, aber auch Messfehler, Glücksgefühle und die Rentabilitäten von Investitionsentscheidungen sind normalverteilt. Die symmetrische Form bedeutet, dass positive Abweichungen vom Erwartungswert exakt gleich häufig auftreten wie negative. Die Kurve ist auch Ausdruck dessen, was wir üblicherweise als „normal“ empfinden: Das, was auf vieles zutrifft, übersehen wir gewöhnlich; unsere Aufmerksamkeit erregt nur, was davon abweicht.
Wie kommt es zu der verblüffenden Vorherrschaft der Normalverteilung in der Natur? Warum gibt es nicht mehr große Menschen als kleine? Das Geheimnis der Glockenform erschließt sich uns, anhand des Galtonbretts, eine Erfindung des Statistik-Pioniers (und Cousins von Charles Darwin) Francis Galton. Dabei handelt es sich um eine Konstruktion, bei der von oben Bälle auf runde Hölzchen fallen, die symmetrisch in Form eines Dreiecks angeordnet sind.

Die Bälle springen, wenn sie auf die Rundhölzer treffen, mal nach links, mal nach rechts, um dann unten in Silos zu fallen. Mit der Zeit bildet sich in den Silos das Normalverteilungsmuster. So wie Lottokugeln oder ein einzelner Würfel Zufallsmaschinen für Gleichverteilungen sind, ist das Galtonbrett eine Zufallsmaschine für die Normalverteilung. Der Zufall entscheidet in jeder Reihe des Dreiecks mit einer Wahrscheinlichkeit von 50:50 darüber, ob der Ball nach links oder rechts springt. Normalverteilungen entstehen also immer dann, wenn viele kleine, voneinander unabhängige Zufälle ein Ergebnis bestimmen – eine Bedingung, die ganz offenbar in der Natur häufig vorliegt.
Mittelwerte beschreiben Normalverteilungen jedoch noch nicht vollständig. Wenn erwachsene Menschen im Mittel 1,70 m groß sind, ist es ein Unterschied, ob die eine Hälfte der Bevölkerung 1,69 m misst und die andere 1,71 m oder 1,50 m und 1,90 m. Die Größe, die angibt, wie weit ein einzelner Messwert im Durchschnitt vom Durchschnitt abweicht, ist die Standardabweichung.[iii]
Darf man Stichproben trauen?
Wenn wir die durchschnittliche Körpergröße der Menschen in einer Großstadt in Erfahrung bringen möchten, werden wir meist nicht alle Einwohner einzeln vermessen, sondern uns aus praktischen Gründen auf eine zufällige Stichprobe von vielleicht 100 oder 500 Personen beschränken. Das bedeutet aber auch, dass wir den wahren Wert bestenfalls abschätzen können, denn in unserer Stichprobe könnten sich zufällig besonders viele große oder besonders viele kleine Menschen finden. Inwieweit darf man Stichproben also überhaupt vertrauen? Um diese Frage zu beantworten, entwickelte der polnische Mathematiker Jerzy Neyman in den 1930er Jahren ein Verfahren, bei dem er tief in die mathematische Werkzeugkiste griff. Er bediente sich bei so ziemlich allem, was die Mathematik zu bieten hat: Arithmetik, Algebra, Geometrie, Analysis und Stochastik.

Neymans Ansatz, Wahrheit und Wahrscheinlichkeit zu verbinden, beruht auf der Berechnung von Konfidenzintervallen. Seine Methode begegnet uns immer dann, wenn beispielsweise von 95%igen Wahrscheinlichkeiten die Rede ist. Nehmen wir an, dass wir für 100 zufällig ausgewählten Personen eine mittlere Körpergröße von 1,68 m ermitteln, während der tatsächliche Durchschnitt in unserer Stadt 1,70 m beträgt. Nehmen wir weiterhin an, dass die Standardabweichung vom Stichprobenmittel 3 cm beträgt. Das heißt, dass die einzelnen Stichprobenwerte im Durchschnitt 3 cm vom den 1,68 m abweichen. Damit ist es nun möglich eine Aussage darüber zu treffen, mit welcher Wahrscheinlichkeit der (uns unbekannte) wahre Wert von 1,70 m innerhalb einer bestimmten Bandbreite liegt. Das erste Band ist üblicherweise durch die Grenzen der einfachen Standardabweichung „σ“ von +/- 3 cm vom Stichproben-Mittelwert definiert, also der Bereich von 1,65 m bis 1,71 m. Mit Hilfe der Integralrechnung lässt sich ermitteln, dass die durch diese Grenzen definierte Fläche, ungefähr 68 % der Gesamtfläche unter der Normalverteilungskurve beträgt. Der Mittelwert +/- zweifache Standardabweichung deckt bereits gut 95 % der Fläche ab. Dieser Zusammenhang gilt immer, ganz gleich, wie breit die Gaußkurve ist oder wie steil sie verläuft. Mit einer Wahrscheinlichkeit von 68 % liegt also der tatsächliche Mittelwert in dem Bereich von 1,65 m bis 1,71 m und mit 95 %iger Wahrscheinlichkeit zwischen 1,62 m und 1,74 m.

Das Vertrauen in die Konfidenzintervalle ist heute Grundlage sehr weitreichender Entscheidungen, wie etwa die Zulassung neuer Medikamente oder die Bewertung von Indizien in Strafprozessen. Hier trifft Mathematik auf die ethische Frage, wieviel Rest-Zufall man sich leisten will oder darf: Denn von 20 klinischen Studien, die einem Wirkstoff mit „95 %iger Wahrscheinlichkeit den gewünschten Effekt zuschreiben, liegt eine falsch.
Wie uns Statistiken aufs Glatteis führen
Hier kommt ein weiterer Aspekt ins Spiel. Subjektiv empfinden wir 95 % als sehr sicher, während die Aussage 1:20 für uns eher beunruhigend klingt. Beide Perspektiven sind jedoch mathematisch äquivalent. Ähnlich bei der Frage, ob wir uns lieber von einem Chirurgen operieren lassen möchten, dessen Überlebensrate 90 % beträgt, oder von seinem Kollegen, der eine Sterberate von 10 % aufweist. Die meisten Menschen ziehen den ersten Arzt vor, obwohl auch dies mathematisch nicht begründet werden kann. Unsere Fähigkeit, statistische Risiken einzuschätzen, hat offenbar auch etwas damit zu tun, wie die Information präsentiert wird.
Der mit dem Nobelpreis ausgezeichnete israelisch-amerikanische Psychologe Daniel Kahneman hat solche Phänomene untersucht und anhand zahlreicher Beispiele aufgezeigt, dass es um unser statistisches Denken nicht besonders gut bestellt ist. Wir neigen allgemein dazu, aus Zahlen falsche Schlüsse zu ziehen.[iv] So, wie uns das Gespür für die Bedeutung von Exponentialfunktionen fehlt, liegen wir auch meist bei der Einschätzung von Risiken daneben. Es widerspricht unserer Eingebung, dass die Zahlen eins bis sechs jemals im Lotto gezogen werden könnten, dabei ist die Wahrscheinlichkeit hierfür genauso groß, wie für jede beliebige andere Zahlenkombination.[v]
Charles Darwins unorthodoxer Cousin Francis Galton war eine vielseitige Persönlichkeit. Neben geographischen Forschungsreisen nach Afrika beschäftigte er sich unter anderem mit Meteorologie, Psychologie sowie Intelligenzforschung; zudem gilt er als einer der Begründer der Eugenik. Als Statistiker und Mathematiker ist Galton insbesondere bekannt für seine Pionierarbeit bei der Untersuchung mehrdimensionaler Zusammenhänge. Seine Konzepte von Korrelation und Regression sind im heutigen Wissenschaftsbetrieb allgegenwärtig. Korrelationen untersuchen, ob zwischen zwei oder mehr Größen ein Zusammenhang besteht und wie sich dieser mithilfe eines Koeffizienten messen lässt. Die Regressionsanalyse ist der Versuch, diesen Zusammenhang so gut wie möglich in Form einer mathematischen Funktion zu beschreiben – etwa mithilfe der Methode der kleinsten Quadrate, die von dem Franzosen Adrien-Marie Legendre und Gauß unabhängig voneinander in den ersten Jahren des 19. Jahrhunderts entwickelt wurde. Die Methode erlaubt es, einen Funktionsgraphen zu konstruieren, der den Abstand zu allen beobachteten Messwerten minimiert. Der etwas irreführende Begriff Regressionsanalyse geht unmittelbar auf Galton zurück. Bei einem Experiment hatte er festgestellt, dass die Nachfahren großer Erbsen eher zu einer durchschnittlichen Größe tendieren. Obwohl diese „Regression zur Mitte“ eigentlich nur den Zusammenhang zwischen der Größe zweier Hülsenfrucht-Generationen beschrieb, wurde das biologische Phänomen namensgebend für die bei seiner Entdeckung angewandte statistische Methode.
Korrelation und Kausalität
Die Anzahl möglicher Zusammenhänge, die sich so untersuchen lassen, ist schier unendlich. Regressionsanalysen haben beispielsweise gezeigt, dass das Verhältnis von Länge zu Breite steinzeitlicher Faustkeile aus Kenia stark mit den Proportionen des goldenen Schnitts korreliert.[vi] Doch was will uns das sagen? Ein Zusammenhang allein ist noch keine Erkenntnis und Korrelation ist nicht automatisch Kausalität. Die Definition des goldenen Schnitts war den Menschen der Altsteinzeit sicherlich nicht bekannt. Ahnten sie unbewusst eine Ästhetik nach, die sie in der Natur beobachtet hatten? Gibt es eine Verbindung zu einem natürlichen Wachstumsprozess? Hat es etwas mit der Anatomie der menschlichen Hand zu tun? Oder ist das alles einfach nur ein Zufall? Jede dieser Erklärungen ist denkbar.

Seit der Jahrtausendwende ist auch die Informationstechnologie solch verschleierten Zusammenhängen auf der Spur. Sie erlaubt es mittlerweile unvorstellbar große unstrukturierte Datenmengen in kurzer Zeit zu durchleuchten. Wie wir wissen spielen seit wenigen Jahren hier die selbstlernenden Algorithmen der künstlichen Intelligenz eine immer größere Rolle, eine Entwicklung, deren Konsequenzen kaum abzusehen ist (ich möchte mich in einem der kommenden Blogs, diesem Thema ausführlich widmen, ein Kapitel, das nicht in meinem Buch erschienen ist). Das Gold, das in diesen Datenminen geschürft wird, sind verborgene Zusammenhänge, die Vertriebsstrategen, Verwaltungen, Versicherungen, Genetikern und Geheimdiensten wertvolle Einsichten offenbaren. Polizisten können heute mit 95%iger Wahrscheinlichkeit voraussagen, in welchem Stadtviertel der nächste Einbruch verübt wird und Kreditkartenunternehmen prognostizieren anhand von Kontobewegungen ihrer Kunden mit derselben Zuverlässigkeit, ob sich ein Ehepaar in den nächsten drei Jahren scheiden lässt.[vii] Ganz offenbar wissen die Daten mehr über uns als wir selbst. Die Zukunft, die früher in den Sternen lag, lässt sich heute in den Informationspuren lesen, die wir tagtäglich im World Wide Web selbst erzeugen.
Wer mehr wissen will:
Bildnachweise:
Anmerkungen:
[i] Goethe (1795), 17. Kapitel.
[ii] Vgl. Ferguson (2010), S. 170 ff.
[iii] Hinter den beiden „Durchschnitten“ verbergen sich zwei verschiedene Sachverhalte: Beim ersten Durchschnitt handelt es sich gemäß der Formel zur Berechnung der Standardabweichung um ein quadratisches Mittel, während der zweite Durchschnitt ein arithmetisches Mittel darstellt.
[iv] Vgl. Kahneman (2011), S. 172 ff.
[v] Ein weiteres Beispiel ist das Geburtstagsparadoxon. Es besagt, dass bei einer Versammlung von nur 23 Menschen, bereits eine 50 % Wahrscheinlichkeit besteht, dass zwei oder mehr von ihnen am selben Tag Geburtstag haben. Dies lässt sich leicht anhand der Gegenwahrscheinlichkeit überprüfen, also der Wahrscheinlichkeit, dass zwei Menschen nicht am gleichen Tag Geburtstag haben. Für die erste Person beträgt die Wahrscheinlichkeit, an einem der 365 Tage des Jahres Geburtstag zu haben 100 % oder . Die Wahrscheinlichkeit, dass eine zweite Person an einem anderen Tag Geburtstag feiert beträgt , bei der nächsten und so weiter. Multipliziert man diese Wahrscheinlichkeiten für 23 Personen, so erhält man als Gegenwahrscheinlichkeit den Wert 49,27 %. Die Chance auf einen gemeinsamen Geburtstag beträgt somit 50,73 %. P= 1- .
[vi] Vgl. Gowlett (1985) S. 71.
[vii] Vgl. Demandowsky (2010).




Kommentare