Das Gesetz der großen Zahlen ist ein statistisches Theorem, das postuliert, dass sich der Stichprobendurchschnitt von Zufallsvariablen dem theoretischen Durchschnitt mit zunehmender Anzahl von Zufallsvariablen annähert. Mit anderen Worten, je größer eine statistische Stichprobe ist, desto wahrscheinlicher ist es, genauere Ergebnisse des Gesamtbilds zu erhalten. Niedrigere Stichprobenzahlen neigen dazu, das Ergebnis leichter zu verzerren, obwohl sie auch ziemlich genau sein können.
Eine Münze ist ein gutes Beispiel, um das Gesetz der großen Zahlen zu zeigen. Es wird oft in Statistikkursen für Anfänger verwendet, um zu demonstrieren, wie effektiv dieses Gesetz sein kann. Die meisten Münzen haben zwei Seiten, Kopf und Zahl. Wenn die Münze geworfen wird, würde die Logik sagen, dass die Wahrscheinlichkeit, dass die Münze auf der Kopf- oder der Zahlseite landet, gleich groß ist. Dies hängt natürlich von der Ausgewogenheit der Münze, ihren magnetischen Eigenschaften und anderen Faktoren ab, aber im Allgemeinen ist dies richtig.
Wenn eine Münze nur wenige Male geworfen wird, deuten die Ergebnisse möglicherweise nicht darauf hin, dass die Wahrscheinlichkeit, dass sie auf Kopf und Zahl landet, nicht gleich groß ist. Wenn Sie beispielsweise eine Münze viermal werfen, können Sie drei Kopf und eine Zahl gewinnen. Es könnte sogar vier Kopf und keine Zahl ergeben. Dies ist eine statistische Anomalie.
Das Gesetz der großen Zahlen besagt jedoch, dass diese Ergebnisse mit zunehmender Stichprobe höchstwahrscheinlich mit der wahren Darstellung der Möglichkeiten übereinstimmen. Wenn eine Münze 200 Mal geworfen wird, ist es sehr wahrscheinlich, dass die Anzahl der Landungen auf Kopf und Zahl jeweils nahe 100 liegt. Das Gesetz oder die großen Zahlen sagen jedoch nicht voraus, dass jede genau 100 sein wird, nur dass sie wahrscheinlich repräsentativer für den wahren Bereich der Möglichkeiten ist als ein kleinerer Durchschnitt.
Das Gesetz der großen Zahlen zeigt, warum eine adäquate Stichprobe benötigt wird. Statistiken werden verwendet, weil die Zeit nicht ausreicht oder es nicht praktikabel ist, die gesamte Grundgesamtheit als Stichprobe zu verwenden. Eine Bevölkerungsstichprobe bedeutet jedoch, dass es repräsentative Mitglieder der Bevölkerung gibt, die nicht gezählt werden. Um sicherzustellen, dass die Stichprobe die Gesamtpopulation widerspiegelt, ist eine ausreichende Anzahl von Zufallsvariablen erforderlich.
Die Bestimmung der benötigten Stichprobengröße hängt normalerweise von einer Reihe von Faktoren ab, wobei der wichtigste das Konfidenzintervall ist. Ein statistisches Konfidenzintervall ist beispielsweise der Grad der Gewissheit, dass die Grundgesamtheit innerhalb bestimmter Parameter liegt. Das Festlegen eines Konfidenzintervalls von 95 Prozent würde bedeuten, dass 95 Prozent der Bevölkerung mit hinreichender Sicherheit innerhalb dieser Parameter liegen. Die für bestimmte Konfidenzintervalle erforderliche Stichprobe wird durch eine Formel bestimmt, die die Anzahl in der Grundgesamtheit sowie das gewünschte Konfidenzintervall berücksichtigt.
Während das Gesetz der großen Zahlen ein einfaches Konzept ist, können die Sätze und Formeln, die es rechtfertigen, ziemlich komplex sein. Einfach ausgedrückt ist das Gesetz oder große Zahlen die beste Erklärung dafür, warum größere Stichproben besser sind als kleinere. Niemand kann definitiv garantieren, dass eine statistische Stichprobe vollständig genau ist, aber dieses Gesetz hilft, viele ungenaue Ergebnisse zu vermeiden.