Qu’est-ce que la loi des grands nombres ?

La loi des grands nombres est un théorème statistique postulant que la moyenne de l’échantillon de variables aléatoires s’approchera de la moyenne théorique à mesure que le nombre de variables aléatoires augmente. En d’autres termes, plus un échantillon statistique est grand, plus il est probable qu’il obtienne des résultats plus précis de l’image globale. Des nombres d’échantillons plus faibles ont tendance à fausser le résultat plus facilement, bien qu’ils puissent également être assez précis.

Une pièce de monnaie est un bon exemple qui peut être utilisé pour montrer la loi des grands nombres. Souvent, il est utilisé dans les cours de statistiques de niveau débutant pour démontrer à quel point cette loi peut être efficace. La plupart des pièces ont deux faces, des têtes et des queues. Si la pièce est retournée, la logique dirait qu’il y a des chances égales que la pièce atterrisse du côté pile ou face. Bien sûr, cela dépend de l’équilibre de la pièce, de ses propriétés magnétiques et d’autres facteurs, mais cela est généralement vrai.

Si une pièce n’est lancée que quelques fois, les résultats peuvent ne pas indiquer qu’il y a des chances égales qu’elle atterrisse sur pile et pile. Par exemple, lancer une pièce quatre fois peut donner trois faces et une face. Il pouvait même donner quatre têtes et aucune queue. Il s’agit d’une anomalie statistique.

Cependant, la loi des grands nombres dit qu’à mesure que l’échantillon augmente, ces résultats seront très probablement conformes à la véritable représentation des possibilités. Si une pièce est lancée 200 fois, il y a de fortes chances que le nombre de fois qu’elle tombe sur pile et face soit proche de 100 chacune. Cependant, la loi ou les grands nombres ne prédisent pas qu’il sera exactement de 100 chacun, seulement qu’il sera probablement plus représentatif de la véritable gamme de possibilités qu’une moyenne plus petite.

La loi des grands nombres montre pourquoi un échantillon adéquat est nécessaire. Les statistiques sont utilisées parce qu’il n’y a pas assez de temps, ou qu’il n’est pas pratique, d’utiliser l’ensemble de la population comme échantillon. Cependant, un échantillon de population signifie qu’il y aura des membres représentatifs de la population qui ne seront pas comptés. Afin de s’assurer que l’échantillon reflète la population totale, un nombre adéquat de variables aléatoires est nécessaire.

Déterminer la taille d’un échantillon nécessaire dépend normalement d’un certain nombre de facteurs, le principal étant l’intervalle de confiance. Par exemple, un intervalle de confiance statistique est le niveau de certitude que la population se situera dans certains paramètres. La définition d’un intervalle de confiance de 95 % signifierait qu’il existe une certitude raisonnable que 95 % de la population se situera dans ces paramètres. L’échantillon nécessaire pour certains intervalles de confiance est déterminé par une formule qui prend en compte le nombre dans la population ainsi que l’intervalle de confiance souhaité.
Alors que la loi des grands nombres est un concept simple, les théorèmes et les formules qui aident à le justifier peuvent être assez complexes. En termes simples, la loi ou les grands nombres sont la meilleure explication pour laquelle les échantillons plus grands sont meilleurs que les plus petits. Personne ne peut garantir avec certitude qu’un échantillonnage statistique sera complètement exact, mais cette loi permet d’éviter de nombreux résultats inexacts.