La statistique bayésienne est une discipline puissante dans le domaine des mathématiques, avec de larges applications dans de nombreux domaines, y compris la finance, la recherche médicale et les technologies de l'information.
Dans cet article, nous présenterons brièvement certains des principaux mathématiciens qui ont fondé ce domaine.
Avant Bayes
Pour mieux comprendre les statistiques bayésiennes, nous devons remonter au XVIIIe siècle et nous référer au mathématicien De Moivre et à son article
Dans son article, De Moivre a résolu de nombreux problèmes liés à la probabilité et au jeu à son époque.
L'une des questions les plus simples de son article était:
En lisant les problèmes décrits dans
Cela s'exprimerait aujourd'hui en termes mathématiques comme:
Formule
𝑃(𝑋|𝜃)
Cependant, si nous ne savons pas si la pièce est juste?𝜃
?
Près de cinquante ans plus tard, en 1763, un article intitulé
Dans les premières pages de ce document, il y a un article écrit par le mathématicien Richard Price qui résume un article de son ami Thomas Bayes écrit plusieurs années avant sa mort.
En fait, il a évoqué un problème spécifique:
En d'autres termes, après avoir observé un événement, nous déterminons quelle est la probabilité qu'un paramètre inconnuθ
C'est en fait l'un des premiers problèmes liés à l'inférence statistique dans l'histoire et il a donné naissance au terme inverse de probabilité.
Formule
𝑃( 𝜃 | 𝑋)
C'est bien sûr ce que nous appelons la distribution postérieure du théorème de Bayes
Comprenant les motivations derrière la recherche de ces deux anciens ministres,Thomas BayesetRichard Price est là.Mais pour cela, nous devons temporairement mettre de côté quelques connaissances sur les statistiques.
Nous sommes au 18ème siècle où la probabilité devient un domaine de plus en plus intéressant pour les mathématiciens. Des mathématiciens comme de Moivre ou Bernoulli ont déjà montré que certains événements se produisent avec un certain degré de hasard, mais sont toujours régis par des règles fixes. Par exemple, si vous lancez un dé plusieurs fois, un sixième du temps, il tombera sur six. C'est comme s'il y avait une règle cachée qui détermine les chances du destin.
Imaginez que vous soyez un mathématicien et un croyant dévot vivant à cette époque.
C'était en effet la question posée par Bayes et Price eux-mêmes. Ils espéraient que leur solution s'appliquerait directement à prouver que le monde doit être le résultat de la sagesse et de l'intelligence; fournissant donc des preuves de l'existence de Dieu comme cause ultime - c'est-à-dire une cause sans causalité.
Étonnamment, environ deux ans plus tard, en 1774, sans avoir lu le papier de Thomas Bayes, le mathématicien français Laplace a écrit un papier intitulé "Sur les causes des événements par probabilité des événements", qui traite des problèmes de probabilité inverse.
C'est ce que nous connaissons aujourd'hui comme le théorème de Bayes:
Où?P(θ)
est une distribution uniforme.
Nous allons amener les statistiques bayésiennes au présent en utilisant Python et PyMC bibliothèque, et mener une expérience simple.
Supposons qu'un ami vous donne une pièce et vous demande si vous pensez que c'est une pièce juste. Parce qu'il est pressé, il vous dit que vous ne pouvez lancer la pièce que 10 fois. Comme vous pouvez le voir, il y a un paramètre inconnup
dans ce problème, qui est la probabilité de faire une tête en lançant des pièces, et nous voulons estimer la valeur la plus probable de lap
.
(Remarque: Nous ne disons pas que le paramètrep
est une variable aléatoire mais plutôt que ce paramètre est fixe; nous voulons savoir où il est le plus probable entre.)
Pour avoir des vues différentes sur ce problème, nous allons le résoudre sous deux croyances antérieures différentes:
p
Dans ce cas, nous utiliserons ce qu'on appelle un préalable non informatif parce que vous n'avez pas ajouté d'information à vos croyances.p
Dans ce cas, nous utiliserons un préalable informatif.Pour ces deux scénarios, nos croyances antérieures seront les suivantes:
Après avoir lancé une pièce 10 fois, vous avez deux têtes.p
?
Comme vous pouvez le voir, dans le premier cas, notre distribution antérieure de paramètrep
est concentrée à l'estimation de la probabilité maximale (MLE)p=0.2
, qui est une méthode similaire à celle utilisée par l'école de fréquence. Le véritable paramètre inconnu sera dans l'intervalle de confiance de 95%, entre 0,04 et 0,48.
D'autre part, dans les cas où il existe une confiance élevée que le paramètrep
Dans ce cas, le véritable paramètre inconnu sera dans un intervalle de confiance de 95% entre 0,23 et 0,57.
Par conséquent, dans le premier scénario, vous diriez à votre ami avec certitude que cette pièce n'est pas juste, mais dans une autre situation, vous diriez qu'il est incertain qu'elle soit ou non juste.
Comme vous pouvez le voir, même face à des preuves identiques (deux têtes sur dix lancers), sous différentes croyances antérieures, les résultats peuvent varier considérablement; un avantage des statistiques bayésiennes par rapport aux méthodes traditionnelles réside ici: comme la méthodologie scientifique, elle nous permet de mettre à jour nos croyances en les combinant avec de nouvelles observations et preuves.
Dans l'article d'aujourd'hui, nous avons vu les origines de la statistique bayésienne et ses principaux contributeurs.quantdare.com.