HISTORIA DE LA PROBABILIDAD
Aunque el concepto de probabilidad viene de hace miles de años, en realidad la historia de la probabilidad es bastante más breve. Sobre todo, si tenemos en cuenta los avances en materia de teoría de la probabilidad. Unos avances que no comenzaron a ser tangibles hasta que se realizó la primera escritura por parte Gerolamo Cardano.
Habitualmente se concede a Pierre Fermat (1601-1665) y Blaise Pascal (1623-1662), el título de padres de la teoría de la probabilidad. Sin embargo, existen evidencias históricas que nos inclinan a pensar que el primero en poner por escrito el concepto fue Gerolamo Cardano (1501-1576).
Por alguna extraña razón, que aún se desconoce, su obra titulada «Liber de ludo aleae» que significa algo así como «Un libro sobre los juegos de dados» no fue publicada hasta el año 1663. Cuando, en realidad, la obra fue escrita en 1553.
Teniendo en cuenta que las publicaciones de Fermat y Pascal se realizaron hacia el año 1654, es comprensible que la historia les haya reconocido el hallazgo. Es en este punto, donde podemos decir que documentalmente comienza la historia de la probabilidad.
Tras las sucesivas publicaciones de Pierre Fermat (1654), Blaise Pascal (1654) y Gerolamo Cardano (1663) se sucedieron numerosas obras por parte de intelectuales que han llegado a ser muy relevantes en la disciplina.
A principios del siglo XVIII, motivado por la notoriedad que adquirieron los juegos de azar, se publicó un documento titulado «Ars Conjectandi» de Jacob Bernouilli. Una obra publicada a título póstumo, ya que en realidad fue escrita hacia 1690. Tras la muerte de Bernoulli, Abraham de Moivre cogió el testigo, y sentó las bases del Teorema Central del Límite (1733), convirtiéndose así en uno de los referentes de la teoría de la probabilidad. Un Teorema, todo sea dicho, que sería demostrado por Laplace años más tarde.
Tras Moivre, Thomas Bayes (1702-1761) y Joseph Lagrange (1736-1813) realizaron contribuciones muy importantes al campo de la probabilidad.
Con todo, sería Pierre-Simon Laplace (1749-1827) quién impulsaría definitivamente al campo de la probabilidad. Su obra «Théorie analytique des probabilites», traducida como «Teoría analítica de probabilidades» y publicada en 1812 constituyó gran parte de la base sobre la que emerge la teoría de la probabilidad. En ella definía por vez primera el concepto de probabilidad y dedujo el método de mínimos cuadrados ordinarios (MCO) desarrollado antes por Carl Friedrich Gauss (1777-1855) cuando era estudiante.
En esa misma línea, con permiso de Gauss, le corresponde a Laplace la demostración y aplicación de la distribución normal en la teoría de la probabilidad. Gauss, sin lugar a dudas, realiza un aporte tremendo con la distribución normal. Sin embargo, se le debe a Laplace la aplicación en términos probabilísticos.
Con su fallecimiento, la teoría de la probabilidad siguió creciendo. Eso sí, con dificultades. Dificultades que provenían, principalmente, de matemáticos. Consideraban que la teoría de la probabilidad carecía de un teoría robusta y precisa para ser aceptada como parte de las matemáticas.
Motivado por las críticas que recibía el campo de la probabilidad, Andréi Kolmogorov (1903-1987) decidió armarse de valor para cambiar el rumbo de la historia. Hacia 1933 el matemático ruso publicaría una obra titulada «Los fundamentos de la Teoría de la Probabilidad». En ella expuso la axiomática que lleva su nombre y le valió para ser reconocido como una eminencia de la probabilidad.
Simultáneamente, aunque de publicación más tardía, Émilie Borel (1871-1956) ofreció su aportación a la teoría de la probabilidad con su libro «Probabilité et Certitude» publicado en 1950.
Sin duda, Kolmogorov y Borel ofrecieron un marco más preciso que el resto en cuanto a la exposición de la teoría probabilística.
Además de los dos anteriores, destacan las aportaciones, durante todo el siglo XX, de intelectuales como Paul Lévy (1919-1971), Norbert Wiener (1894-1964) o Maurice Fréchet (1878-1973). Para terminar, diremos que existen otros muchos que podríamos incluir en la historia de la probabilidad, pero estos son los más influyentes.
VIDEOS
EXPERIMENTOS ALEATORIOS Y DETERMINISTAS
ESPACIO MUESTRAL Y TIPOS DE SUCESOS
UNIÓN, INTERSECCIÓN Y DIFERENCIA DE SUCESOS
REGLA DE LAPLACE
PROPIEDADES BÁSICAS DE LA PROBABILIDAD
SUCESOS COMPATIBLES E INCOMPATIBLES
EXPERIMENTOS COMPUESTOS
PROBABILIDAD CONDICIONADA
PROBLEMAS PROBABILIDAD CONDICIONADA
TEOREMA DE LA PROBABILIDAD TOTAL
TEOREMA DE BAYES
Como sabrás, en Estadística asignamos a cada posible evento X una probabilidad P(X), un número entre cero (nunca ocurrirá) y uno (seguro que ocurrirá). Es mucho menos conocida una peculiar excepción a la interpretación de esos dos valores y es que, por raro que parezca, en esta rama de las Matemáticas ni el cero ni el uno son siempre lo que parecen. Hay dos ceros y dos unos distintos.
Para entender de qué va este aparente sinsentido, te propongo un reto: ve al mercado más próximo e intenta encontrar una manzana que pese, exactamente, 200 gramos. Ya que las manzanas suelen pesar entre 150 y 230 gramos, no parece tarea imposible.
Tras una ardua búsqueda, es muy posible que des con alguna que se acerque mucho… pero casi seguramente nunca encontrarás una que pese exactamente 200g. Piensa que el peso es una magnitud que puede tener decimales, lo que en matemáticas llamamos un número real: una manzana puede pesar 200,01 gramos o 199,999999978 gramos y, aún así, seguirían existiendo infinitos valores posibles entre esos pesos y el buscado.
Por lo tanto, sólo existe una posibilidad entre infinitas de encontrar nuestro objetivo. Haciendo una interpretación frecuentista de la probabilidad podemos calcular la que corresponde al éxito en nuestra búsqueda:
Esto pinta mal… una probabilidad de cero. ¿Quiere esto decir que es imposible encontrar una manzana de 200 gramos exactos? ¡Para nada! En realidad no existe ninguna ley del Universo que prohíba que existan manzanas con esa propiedad. Así que, estrictamente hablando, sí que sería posible.
A esta aparente contradicción de una probabilidad de cero para describir un hecho no imposible me refería al empezar este artículo diciendo que, en Teoría de Probabilidades, hay “dos ceros distintos”: uno que denota hechos imposibles, y otro que denota hechos casi seguramente imposibles. Aunque este último parezca un término un poco vago, tiene un significado matemático escrupulosamente preciso y muy bien definido, como veremos luego.
Pero sin recurrir a tecnicismos podemos entender intuitivamente estas dos versiones de una “probabilidad cero”:
P(X)=0 significa imposibilidad cuando el hecho X ni siquiera entra en la lista de posibles resultados de un experimento. Por ejemplo, el símbolo de Batman nunca aparecerá al tirar un dado normal.
P(X)=0 significa casi seguramente imposibilidad cuando el hecho sí que entra entre los posibles resultados, pero se trata de un conjunto finito de posibilidades frente a un espacio de posibles resultados infinito. Fíjate en que he dicho conjunto finito. Si el reto de antes fuese encontrar una manzana de 200 gramos con una horquilla de ±1 gramos la historia cambiaría completamente: ahora también habría infinitas posibilidades válidas, con lo que la probabilidad de tener éxito será un número pequeño, pero mayor que cero.
Como quizás te hayas cuestionado ya en este punto, ¿qué ocurre con los hechos contrarios a los casi seguramente posibles? Es decir, ¿qué probabilidad existirá de que no encuentres una manzana del peso indicado?
Sabemos que si un hecho solamente puede cumplirse (X) o no cumplirse (¬X), la suma de ambas probabilidades debe ser uno ya que siempre se cumplirá o uno o el otro – esto es un axioma de la Teoría de Probabilidades y es completamente razonable. Por ello, obtenemos que P(¬X)=1-P(X)=1-0=1. Y sí, existen dos unos distintos, de forma complemente similar a los dos ceros que describí arriba:
Un P(Y)=1 para eventos que son seguros, p.ej. si suelto un objeto en la Tierra éste caerá hacia abajo, después de un día viene otro, la banca siempre gana, etc.
Y otro P(Y)=1 para eventos casi seguramente seguros, como por ejemplo que fallarás al intentar dibujar una recta de exactamente un metro de larga.