Licencia

Propietarios del sitio

  • Antonio Expósito
1. Introducción‎ > ‎

1.1. Historia

 
RESUMEN HISTÓRICO DE LA ESTADÍSTICA

     Hasta el comienzo del siglo XIX no se empieza a utilizar la palabra Estadística en el sentido que le damos hoy día.

     En su origen, el término estadística aparece ligado a la actividad gubernamental y el de estadístico con el de estadista o político. Ello se debía principalmente a que el primer y fundamental uso de la estadística se realizaba por los gobernantes que deseaban conocer la extensión de sus dominios, la población residente en ellos y la cantidad de impuestos que se podían planificar de la población.

     Hasta 1850 la palabra "estadística" se usaba en un sentido diferente del actual, significando básicamente información sobre estaos políticos. Tal información tendía a crecer rápidamente en cantidad y en extensión teniendo que adoptarse formas de recoger la información en tablas, cuadros, gráficos y matrices. Se llegó así de manera natural a que la palabra estadística significase todo el material surgido de la observación del muno aceptándose este uso a partir del siglo XIX.

     En la actualidad el término estadística tiene un sentido más amplio, y se refiere a la misma, como ciencia que estudia el comportamiento de los fenómenos de masas, no ocupándose de comportamientos individuales e incluyendo métodos especiales de elaboración.

     El Diccionario de la Lengua Española considera que el término Estadística procede de estadista, esta voz de estado y estado e la palabra latina "status", o situación en que una persona o cosa, y en especial cada uno de los sucesivos modos de ser de una persona o cosa, sujeta a cambios que influyen en su condición. Se llega a dos acepciones:

- Como censo o recuento de la población, de los recurcos naturales e industriales, del tráfico o de cualquier otra manifestación de un estado, provincia, pueblo o conjunto.

- Estudio de los hechos morales o físicos del mundo que se prestan a numeración o recuento y a comparación de las cifras referentes a ellos.

     Cuando se construyen estadísticas para comparar cifras, aparece de forma natural la existencia de valor medio, concepto que facilitó un campo de investigación a los Aritméticos políticos : Juan Graunt, Petty o Süssmilch.

     Los precursores de la Estadística la entencían como una aritmética de la política. Sus trabajos se referían principalmente a lo que hoy denominamos estadísticas demográficas. Así Gaunt establece las primeras tasas de mortalidad, con intervalos de edades definidos, utilizando para ello los registros de defunciones de Londres. Las tablas de defunciones de Halley son la iniciación de los trabajos actuariales actuales.

 

DESARROLLO EVOLUTIVO

 1ª ETAPA: La estadísticas son tan antiguas como la propia sociedad humana remontándose a las primeras civilizaciones, en donde se hacen los primeros intencos estadísticos con fines fiscales o militares. Se hacían recuentos de poblaciones o censos con fines demográficos, así como inventarios. El cargo de censor era de los más importantes de la administración romana.

2ª ETAPA: Se produce entre los siglos XVIII y XIX y se caracteriza por el esfuerzo en describir y analizar los conjuntos estadísticos, sea cual sea su naturaleza. En 1790 se produce el primer censo en Estados Unidos, realizándola a partir de ese momento decenalmente.

3ª ETAPA: Se aplican a grandes masas de datos técnicas de análisis matemático y probabilístico entre otros.

4ª ETAPA: Es la etapa más moderna y en ella estadística y probabilidad van ligadas a las grandes herramientas de las matemáticas, álgebra, cálculo y análisis.

     Con independencia de todo lo anterior aparece y se desarrolla el cálculo de probabilidades y la inferencia estadística.

 

LA ESTADÍSTICA Y EL CÁLCULO DE PROBABILIDADES.

     Aparece una aportación básica de algunos matemáticos, al ámbito de la estadística fundamentalmente hacia el soglo XVII: El cálculo de probabilidades que se fusionó con las investigaciones de los aritméticos políticos para dar lugar a la Estadística Matemática.

     Se puede considerar que la nueva ciencia se origina con los trabajos de Tartaglia (1550-1557) y de Cardano (1501-1576) relacionados con el juego de dados y la probabilidad de obtención de un resultado concreto.

     En 1654 el caballero de Mére planteó a Pascal, cuestiones relativas a fenómenos de azar, como: En ocho lanzamientos sucesivos de un dado, intenta un jugador obtener un uno, pero el juego se interrumpe después de tres intentos fallidos ¿En qué porporción debe ser compensado el jugador?. Pascal consutó a Fermat y este estudio dio origen al cálculo de probabilidades. pero el primer trabajo publicado formalmente al respecto se debe a Huygens, el cual publicó en 1657 un breve tratado "Sobre los razonamientos relativos al juego de dados", basado en los trabajos de Pascal y Fermat.

     Pascal relacionó el estudio de probabilidades con el triángulo aritmético, del cual descubrión muy destacadas propiedades. Poco después Huygens publicó otro trabajo sobre "Aplicación de las Matemáticas a la probabilidad a la esperanza de vida humana".

     Dentro de la primera etapa del cálculo de probabilidades se debe destacar la obra de Jacobo Bernouilli, y en especial su famos libro "Ars conjectandi" (Arte de conjeturar), en él se establecen los principios fundamentales de dos ramas de las matemáticas, como son el Cálculo de Probabilidades y la Teoría Combinatoria, y en este trabajo se presenta una definición de probabilidad que coincide con la que más adelante se considerará regla o definición de Laplace. En el "Ars Conjectandi" trata la teoría de permutaciones y de combinaciones, desarrolla el teorema binomial y multinomial, y también se desarrolla la ley de los grandes números, o teorema de Bernouilli.

     Abraham de Moivre (1667-1754) publicó un libro llamado "Doctrine of Chances", el cual contiene numerosas cuestiones sobre el juego de dados, el problema de los puntos, extracción de bolas de colores de una bolsa, etc. De Moivre derivaba la teoría de permutaciones y la combinatoria de los principios básicos de la toería de la probabilidad. A De Moivre se le suele atribuir el principio de que la probabilidad de un suceso compuesto es el producto de las probabilidades de los sucesos componentes.

     Los trabajos de De Moivre y de Bayes son el punto de partida de los métodos Bayesianos, de gran interés en la estadística aplicada en las Ciencias Sociales y Biológicas, por ser el planteamiento de las probabilidades inversas.

     Euler y D'Alembert en el siglo de la Ilustración trataron sobre problemas de esperanza de vida, anualiades y loterías y otros aspectos de ciencias sociales y económicas que hoy incluiríamos en Matemáticas Financieras y Econometría. Euler trató en sus trabajos sobre la rentabilidad de imposiciones económicas y abordó a partir de ello, problemas de probabilidad de gran complejidad. Euler contribuyó notablemente a unificar notación y dejar una notación que con pocas variantes se ha mantenido hasta nuestros días. D'Alembert replanteó múltiples problemas de principioes básicos de probabilidad y comenzó una línea de búsqueda de fundamentación axiomática.

     En el siglo XVIII, com problemas como los que se derivaban de la vacunación preventiva frente a la viruela se desarrollaron controversias entre los matemáticos que trataban de aplicar la teoría de probabilidades a los problemas de la vida social. En 1760 Daniel Bernouilli leyó ante la Academia de las Ciencias de París un trabajo sobre las ventajas de la inoculación, en donde se formalizaban conceptos como el de la "vida media" de los individuos de un colectivo o la "vida más probable".

     El conde de Buffon, en su "Histoire Naturelle", introduce el tratamiento de los problemas probabilísticos, basados en consideraciones geométricas, Buffon planteó el prlbema que consideraba un plano horizontal dividido en regiones, por un haz de rectas paralelas equidistantes, sobre el que se lanza al azar una aguja de grosor despreciable. La probabilidad de que la aguja corte a una de las rectas paralelas la calculó Buffon como (2·L)/(pi·d), donde d es la distancia común entre las paralelas y L la longitud de la aguja, siempre que L<d.

     Laplace desde 1774 publicó muchos trabajos sobre la teoría de probabilidades, y se le considera el verdadero creador de la teoría de Probabilidades, finalmente publicó su libro clásico "Theorie Analytique des Probabilites". Laplace sostenía que la teoría de probabilidades era solo sentido común expresado con números. en su libro se muestra en detalle la forma de potenciar con el cálculo analítico el cálculo de probabilidades. Laplace trabajó con las funciones "gamma" y "beta" de Euler y estudió las distribuciones asociadas con detalle, aunque no con la concepción con la que hoy día se puedan tratar. También trabajó en profundidad con la teoría y la función de error. Pero, si cabe, una de sus mayores influencias en la posteridad se debe a que rescató el trabajo de Thomas Bayes (1761) sobre las probabilidades inversas.

     Gauss trabajó con los errores de medida y con los residuos de los errores de medida (aquellos que resultan después de eliminar un ajuste de los datos), y llegó de forma natural al conocimiento de la "curva normal", mediante la forma de distribuirse los errores en las medidas o los valores de las mismas en torno al valor medio, en condiciones especiales que hoy conocemos como "normalidad". No cabe duda que los trabajos de Gauss que posteriormente dieron lugar a la formalización de la distribución normal, han dado lugar al modelo más usado en la Estadística moderna. No se podría hablar de técnicas de control de calidad, por ejemplo, sin estos trabajos de Gauss.

     Ambos autores, Gauss y Laplace, son los creadores del conocido método de mínimos cuadrados, que hacen nacer en el amplio campo de la experimentación de las Ciencias Físico-Naturales, por la necesidad que tienen los científicos de la naturaleza de funcionalizar sus resultados experimentales. Estos trabajos van a constituir el punto de partida de la teoría de la regresión y por ende de los más modernos métodos econométricos, que abandonando el campo de las Ciencias Expermientales, hoy día influyen de forma decisiva en el desarrollo de las ciencias humanas y sociales.

     El momento clave de la unificación de Estadística y Probabilidad se realiza por Quetelet y por los rusos Chebychev (1821-1834) y Markov, además del trabajo del francés Poincaré, que publicó en 1896 un trabajo de síntesis que se denominó "Calcul des Probabilites".

     En 1909 Borel publicó sus "Elements de la Theorie de Probabilities", y es en esta misma época cuando se comienza a aplicar la teoría de probabilidades a la Física, dando lugar a modelos tan completos como los de la Física Estadística, a base de estudiar funciones de distribución específicas para los colectivos de las partículas que trata la física y obtener a partir de estas funciones valores representativos, que son los que los físicos consideran observables macroscópicos. También en esta misma épica se comienza a generalizar la aplicación de los métodos probabilísticos a la Genética.

     En 1901 Gibbs publicó "Elementary Principles in Statistical Mechanics" y en ese mismo año fue fundada la revista "Biometrika" por Karl Pearson. Sir Francis Galton (1822-1911) estudió los fenómenos de regresión en mayor profundidad. En 1900 Pearson popularizó el criterio de la "Chi-cuadrado". En Rusia se comenzó a estudiar el problema de las cadenas de sucesos, elaborando entre 1906 y 1909 una teoría al respecto el matemático A.A. Markov, discípulo de Chevychev. También en Rusia, Kolmogorov contribuyó al progreso del estudio de los fenómenos de Markov y en general al de los procesos estocásticos. Influyó, asimismo, en la elaboración de un modelo axiomático de la teoría de las probabilidades, respondiendo al reto planteado por Hilbert para eliminar numerosas contradicciones en esta ciencia. Para ello hizo uso de la teoría de probabilidades y del concepto de medida de Lebesgue.

     A principios del siglo XX matemáticos como Yule, Box, Piercé y otros de la escuela anglosajona desarrollan entre otros aspectos la teoría de procesos estocásticos, fundamentanto el campo de las Series Temporales que tendrá gran influencia en múltiples campos como la Meteorologia u la Economía.

     Kendall, jenkins, Fisher, Von Mises, etc, configuran el cuerpo teótico de gran amplitud que da lugar a lo que hoy en día conocemos como Estadística Matemática.