La estadística bayesiana es una disciplina poderosa en el campo de las matemáticas, con amplias aplicaciones en muchas áreas, incluidas las finanzas, la investigación médica y la tecnología de la información.
En este artículo, presentaremos brevemente a algunos de los principales matemáticos que fundaron este campo.
Antes de Bayes
Para comprender mejor las estadísticas bayesianas, debemos volver al siglo XVIII y referirnos al matemático De Moivre y su artículo
En su artículo, De Moivre resolvió muchos problemas relacionados con la probabilidad y el juego en su época.
Una de las preguntas más sencillas en su trabajo era:
¿Cuál es la probabilidad de obtener tres caras cuando se lanza una moneda justa tres veces consecutivas?
Al leer los problemas descritos en
Esto se expresaría hoy en términos matemáticos como:
Formulario
𝑃(𝑋|𝜃)
Sin embargo, ¿y si no sabemos si la moneda es justa?𝜃
?
Casi cincuenta años más tarde, en 1763, un artículo titulado
En las primeras páginas de este documento, hay una pieza escrita por el matemático Richard Price que resume un artículo que su amigo Thomas Bayes escribió varios años antes de su muerte.
De hecho, se refirió a un problema específico:
En otras palabras, después de observar un evento determinamos cuál es la probabilidad de que un parámetro desconocidoθ
Este es en realidad uno de los primeros problemas relacionados con la inferencia estadística en la historia y dio lugar al término inversa de probabilidad.
Formulario
𝑃( 𝜃 | 𝑋)
Esto es, por supuesto, lo que llamamos la distribución posterior del teorema de Bayes
Comprendiendo las motivaciones detrás de la investigación de estos dos ministros mayores,Thomas BayesyRichard Price fue el primero.Pero para hacer esto, tenemos que dejar de lado temporalmente algunos conocimientos sobre estadísticas.
Estamos en el siglo XVIII cuando la probabilidad se está convirtiendo en un campo cada vez más interesante para los matemáticos. Matemáticos como de Moivre o Bernoulli ya han demostrado que algunos eventos ocurren con cierto grado de aleatoriedad pero todavía se rigen por reglas fijas. Por ejemplo, si lanzas un dado varias veces, una sexta parte de las veces aterrizará en seis. Es como si hubiera una regla oculta que determine las posibilidades del destino.
Ahora imagine que es un matemático y un devoto creyente que vive en este período. Tal vez esté interesado en entender la relación entre esta regla oculta y Dios.
Esta fue de hecho la pregunta que Bayes y Price se hicieron a sí mismos. Esperaban que su solución se aplicara directamente a probar que el mundo debe ser el resultado de la sabiduría y la inteligencia; por lo tanto, proporcionando evidencia de la existencia de Dios como causa última, es decir, causa sin causalidad.
Sorprendentemente, alrededor de dos años más tarde en 1774, sin haber leído el artículo de Thomas Bayes, el matemático francés Laplace escribió un artículo titulado "Sobre las causas de los eventos por la probabilidad de los eventos", que trata sobre problemas de probabilidad inversa.
Esto es lo que conocemos hoy como el teorema de Bayes:
¿Dónde está?P(θ)
es una distribución uniforme.
Vamos a traer estadísticas bayesianas al presente mediante el uso de Python y PyMC biblioteca, y llevar a cabo un experimento simple.
Supongamos que un amigo te da una moneda y te pregunta si crees que es una moneda justa. porque tiene prisa, te dice que sólo puedes tirar la moneda 10 veces. como puedes ver, hay un parámetro desconocidop
En este problema, que es la probabilidad de obtener cabezas en el lanzamiento de monedas, y queremos estimar el valor más probable de lap
.
(Nota: No estamos diciendo que el parámetrop
es una variable aleatoria, sino más bien que este parámetro es fijo; queremos saber dónde es más probable entre.)
Para tener diferentes puntos de vista sobre este problema, lo resolveremos bajo dos creencias previas diferentes:
p
En este caso, utilizaremos lo que se llama un previo no informativo porque no ha añadido ninguna información a sus creencias.p
Es poco probable que sea menor que 0.3 o mayor que 0.7.Para estos dos escenarios, nuestras creencias previas serán las siguientes:
Después de lanzar una moneda 10 veces, tienes caras dos veces.p
?
Como se puede ver, en el primer caso, nuestra distribución previa de parámetrop
se concentra en la estimación de probabilidad máxima (MLE)p=0.2
El verdadero parámetro desconocido estará dentro del intervalo de confianza del 95%, entre 0,04 y 0,48.
Por otro lado, en los casos en que existe una alta confianza en que el parámetrop
En este caso, el verdadero parámetro desconocido estará dentro de un intervalo de confianza del 95% entre 0.23 y 0.57.
Por lo tanto, en el primer escenario le dirías a tu amigo con certeza que esta moneda no es justa, pero en otra situación dirías que no está seguro de si es justa o no.
Como se puede ver, incluso cuando se enfrentan a pruebas idénticas (dos cabezas de cada diez tiros), bajo diferentes creencias previas, los resultados pueden variar mucho; una ventaja de las estadísticas bayesianas sobre los métodos tradicionales se encuentra aquí: al igual que la metodología científica, nos permite actualizar nuestras creencias combinándolas con nuevas observaciones y pruebas.
En el artículo de hoy, vimos los orígenes de la estadística bayesiana y sus principales contribuyentes.quantdare.com.