historia de la estadística facultad ... - estadistica.net

48
Historia de la Estadística Facultad Ciencias Económicas y Empresariales Departamento de Economía Aplicada Profesor: Santiago de la Fuente Fernández

Upload: others

Post on 23-May-2022

12 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Historia de la Estadística Facultad ... - estadistica.net

                               

Historia de la EstadísticaFacultad Ciencias Económicas y EmpresarialesDepartamento de Economía AplicadaProfesor: Santiago de la Fuente Fernández

Page 2: Historia de la Estadística Facultad ... - estadistica.net
Page 3: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 1

Historia de la EstadísticaFacultad Ciencias Económicas y EmpresarialesDepartamento de Economía AplicadaProfesor: Santiago de la Fuente Fernández

Estadística proviene del término alemán Statistik y significa Ciencia de Estado,por qué en sus orígenes se utilizaba únicamente con fines estatales, al ser losgobiernos de las naciones los que siempre han tenido la necesidad de conocerlas características de la población para gestionar el reparto de tierras o bienes,prestación de servicios públicos, pago de impuestos, etc.

Los gobernantes, por razones de organización, tuvieron y tienen que recoger y procesar lainformación de alguna forma, o hacer estadísticas de la población.

Los Censos son los primeros estudios estadísticos,  se inician en  la Edad Antigua ysiguen actualmente, son estudios descriptivos sobre todos los integrantes de lapoblación. En los Censos se pregunta a toda la población, aportando muchainformación. Tienen el inconveniente que dura mucho tiempo en ejecutarse y elproceso suele ser caro. Después de preguntar hay que procesar los datos.

Para agilizar la recogida de datos y analizar la información recogida de algunascaracterísticas de la población se utilizan los Registros, que son listados en dondelos ciudadanos tienen que inscribirse, como sucede en el nacimiento de un hijo ohija, en un matrimonio o en una defunción, etc.

Con el tiempo surgen las Encuestas como alternativas a los Censos.Las Encuestas recogen información de solo una parte de la población, despuésse generalizan los resultados obtenidos en la muestra para toda la población.George Gallup en 1935 hace sondeos electorales para conocer los gustos de lagente y estudiar la opinión de la masa social en Estados Unidos.

Antes de llegar a las Encuestas fue necesario desarrollar la Teoríade la Probabilidad (rama de las Matemáticas), de la InferenciaEstadística y del Muestreo (rama de las Estadística).

En la Edad Moderna matemáticos como Pierre de Fermat (1601‐1665) y  BlaisePascal (1623‐1662)  iniciaron las bases de la Teoría de la Probabilidad, que se utilizópara  estudiar "fenómenos aleatorios", donde pueden aparecer varios resultados nopudiendo predecirse un resultado particular (lanzamiento de un dado). Despuéscomenzó a aplicarse a sucesos demográficos y económicos.

John Graunt  (1620‐1674) fue el primer demógrafo, fundador de la actual bioestadística y el precursor dela epidemiología, estableció investigaciones actuariales y demográficas.

El profesor alemán Gottfried Achenwall (1719‐1772) acuñó el término de Estadística como ciencia derecopilación y análisis de datos, herramienta muy útil para políticos y gobernantes de una nación.

Page 4: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 2

En la Edad Contemporánea (1789 ‐ actualidad) hay un desarrollo científico y filosóficopropiciando la aplicación de la Estadística a las Ciencias Sociales. Por otra parte,aparecen nuevas técnicas ampliando su utilidad, además de estudios descriptivos,estudiando y cuantificando relaciones entre variables (Análisis de datos).

Se continúan haciendo estudios de Censos. En España:  el Censo de Conde de  Floridablanca (1787)con una finalidad demográfica y  económica y no fiscal.  El Censo de Manuel Godoy (1797)presentando los datos de la población española por Intendencias o provincias.

Los estudios demográficos, económicos y sociales, con fines políticos o no,adquieren cada vez más importancia. El desarrollo de las Matemáticas y deotras Ciencias proporcionan técnicas analíticas que facilitan establecerrelaciones entre variables, el grado de influencia de una variable sobre otray hacer predicciones.

La recogida y procesamiento de la información experimenta un gran avance.

El desarrollo de la Inferencia estadística y del Muestreo hace posible que sepueda estudiar la población a través de solo una parte de ella (se conocecomo Muestra), con ello se facilita y abarata la recogida de datos (son menosindividuos) y procesamiento de los datos (hay menos).

 

Los trabajos de Pierre Simon Laplace ( 1749‐1827) , Johann Carl FriedrichGauss (1777‐1855) y  Adrien Marie Legendre (1752‐1833) desarrollaronconceptos como la teoría de los errores en la observación y el método delos mínimos cuadrados, muy utilizados en el análisis matemático.

El científico belga Lambert Adolphe Jacques Quételet (1796‐1874) fue uno de los primeros en aplicar deforma rigurosa estas nuevas técnicas estadísticas a las Ciencias Sociales, con el objetivo de descubrir lasLeyes Naturales que regían determinados sucesos sociales y demográficos (tasa de criminalidad o denupcialiadad).

A finales del siglo XIX y XX  la Teoría de la Probabilidad y la Estadísticatienen un gran impulso.En Probabilidad destacan los trabajos de Andréi Markov (1856‐1922) yPafnuti Lvóvich Chebyshev (1821‐1894).

En el campo de la Estadística los trabajos de Irving Fisher (1867‐1947)  y de John Wilder Tukey (1915‐2000).

Sir Ronald Aylmer Fisher (1890‐1962) desarrolló ideas originales en el campo de la Inferencia estadística yen el Diseño de Experimentos.

Page 5: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 3

El primer gran avance aparece con la Estadística Paramétrica, estadísticos, como KarlPearson (1857 ‐ 1936) , Irving Fisher (1867‐1947) y William Sealy Gosset (1876 ‐ 1937) ,junto con otros, crearon procedimientos de decisión estadística (estimación puntual,estimación por intervalos y contrastes de hipótesis) con supuestos prefijados sobre ladistribución de las variables analizadas, en especial el supuesto de normalidad.

El segundo gran avance consiste en introducir la Estadística No Paramétrica,considerando que el Método Paramétrico se fundamentaba en tomar decisiones conunos criterios que no eran ciertos, era necesario  construir procedimientos de decisiónque no dependieran de supuestos tan exigentes. Se crearon estadísticos con unadistribución dependiente de los cálculos realizados en la muestra, no de la distribuciónde la población.

El tercer gran avance surge con la simulación, el remuestreo y  las posibilidades quebrindan   la informática y la programación. Estos procedimientos simulando permitenencontrar la distribución del estadístico de cualquier test bajo el supuesto de ser ciertala hipótesis nula.  Se desarrollan  estadísticos considerando la muestra como unapoblación,  para después, desde esta población artificial, generar posibles muestras bajolas condiciones que se quiera.

De este modo, se puede encontrar cuál es la distribución simulada de un estadístico y construir intervalosde confianza, realizar contrastes de hipótesis, etc.

      

En la Edad Antigua (desde el nacimiento de la escritura hasta la Caída delImperio Romano en el 476 d. C.) la actividad estadística consistió en elaborarCensos de población y de tierras. La finalidad de los Censos era obtener datossobre personas que podrían ir al ejército, establecer reparto de tierras uotros bienes  y  facilitar gestiones tributarias.

BABILONICOS:  Hacía el año 3.000 a.C. los babilonios utilizaban pequeñas tablillas de                          arcilla para recopilar datos en tablas sobre la producción agrícola y de                          los artículos vendidos o cambiados mediante el trueque.

En Egipto la actividad estadística comenzó en la Dinastía I (3050 ‐ 2890 a. C.) ,según el historiador griego Herodoto, algunos faraones ordenaban Censos deriqueza y población para planificar la construcción de pirámides.En la Dinastía XIX, el faraón Ramsés II (1279‐1214 a. C.) mandó elaborar unCenso para establecer un nuevo reparto de tierras.

En China, el emperador Yao mandó elaborar un Censo general (2238 a. C.)  recogiendo datossobre la actividad agrícola, comercial  e industrial.

Page 6: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 4

En Asiria (Alta Mesopotamia),  el rey Sargón II fundó la Biblioteca Asurbanipal enNinive, donde se guardaron una recopilación de hechos históricos, religiosos,importantes datos estadísticos sobre producción, cuentas; así como también datos demedicina, astronomía, etc.

Grecia tuvo importantes observaciones estadísticas en lo que refiere a distribuciónde terreno, servicio militar, etc. Destacar entre los griegos a Sócrates, Herodoto yAristóteles, quienes a través de sus escritos incentivaron la Estadística por suimportancia para el Estado.

Los griegos efectuaron Censos periódicamente con fines tributarios, sociales (división de tierras) y militares(cálculo de recursos y hombres disponibles). La investigación histórica revela que se realizaron 69 censospara calcular los impuestos, determinar los derechos de voto y ponderar la potencia guerrera.

Los romanos, maestros de la organización política, fueron quienes mejor supieron emplearlos recursos de la Estadística. El rey romano Servio Tulio (578  – 535 a.C.) elaboró un Catastro de todos los dominios deRoma. Mandó crear un registro en el que los propietarios debían inscribir sus fincas,personal de servidumbre, esclavos y bestias de tiro que se poseyeran.

Los Censos y  la actividad Estadística tuvieron especial importancia. Cada cinco años se establecieron registrosde nacimientos, defunciones y matrimonios, se elaboraron recuentos periódicos sobre el ganado y riquezascontenidas en las tierras conquistadas.

Durante la Edad Media (476 –1453 d.C.) se realizaron muy pocas operacionesEstadísticas, con las notables excepciones del Censo de tierras pertenecientes ala Iglesia compiladas por Pipino el Breve en el 758, el  Censo de Carlomagno en el762 de tierras pertenecientes a la Iglesia y en 1085 el Registro de propiedades,extensión y valor de las tierras de la Iglesia de Guillermo I el Conquistador.

Destacar el trabajo de Isidoro de Sevilla que en su obra Originum sive Etymologiarum(634), más conocida bajo su título abreviado Las Etimologías, recopiló una extraordinariacantidad de datos, resultando ser la obra más consultada y copiada por los estudiosos dela Europa medieval hasta la recepción de la ciencia árabe.

En la Edad Moderna (1454 ‐ 1789)  la obtención de información es através de los  Censos.

Durante este período en España destacar, entre otros, el Censo de Pecheros (1528) durante el reinado deCarlos I, el Censo de los Obispos (1587) durante el reinado de Felipe II, el Censo de los Millones (1591)donde Felipe II como consecuencia de la pérdida de la Armada Invencible aprueba a travésde las Cortes de Castilla un donativo extraordinario de ocho millones de ducados a pagar en seisanualidades desde el segundo semestre de 1590, o el Censo del Conde de Aranda (1768) con objetivosdistintos de los anteriores censos de vecinos.

Page 7: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 5

En la década de 1500  la epidemia en Inglaterra origina que comiencen a publicarse semanalmente datossobre defunciones, y en 1662 apareció el primer estudio estadístico notable de población añadiendo datosde nacimientos por sexo, titulado Observations on the London Bills of Mortality.

Por el año 1540 el alemán Sebastian Münster (1488 ‐ 1562) realizó unacompilación estadística de los recursos nacionales, adjuntando datos sobreorganización política, instrucciones sociales, comercio y poderío militar. Duranteel siglo XVII aportó indicaciones más concretas de métodos de observación yanálisis cuantitativo y amplió los campos de la Inferencia y la Teoría Estadística.

La Iglesia después del Concilio de Trento (1545 ‐ 1563) estableció una organizaciónarchivística obligando al registro de nacimientos, matrimonio y defunciones.

Científicos de la talla de Leonardo da Vinci (1452 ‐ 1519), Nicolás Copérnico (1473 ‐ 1543) , John Neper (1550‐ 1617) , Sir Francis Bacon (1561 ‐ 1626) , Galileo Galilei (1564 ‐ 1642),  William Harvey (1578 ‐ 1657) , y RenéDescartes (1596 ‐ 1650), hicieron grandes aportaciones al método científico, de tal forma que cuando secrearon los Estados Nacionales y surgió con fuerza el comercio internacional existía ya un método capaz deaplicarse a los datos económicos.

En 1662, el capitán John Graunt (1620 ‐ 1674) usó documentos que abarcaban treinta años y efectuópredicciones sobre el número de personas que morirían de varias enfermedades y sobre las proporciones denacimientos de varones y mujeres que cabría esperar.El trabajo de Graunt, condensado en su obra Natural and Political Observations Made Upon the Bills ofMortality  (Observaciones Naturales y Políticas hechas sobre las Cuentas de Mortalidad) fue un esfuerzoinnovador en el análisis estadístico.

El primer empleo de los datos estadísticos para fines ajenos a la política tuvo lugar en 1691  a cargo delprofesor alemán Gaspar Neumann (1648 ‐ 1715).Los procedimientos de Neumann fueron conocidos por el astrónomo inglés Edmund Halley (1656 ‐ 1742) ,quien los aplicó al estudio de la vida humana. Sus cálculos sirvieron de base para las tablas de mortalidad quehoy utilizan todas las compañías de seguros.

Matemáticos como Pierre de Fermat (1607‐1665) y Blaise Pascal (1623 ‐ 1662) sentaronlas bases de la Teoría de la Probabilidad,utilizada para estudiar fenómenos aleatorios.

El profesor alemán Gottfried Achenwall (1719 –1772) acuñó el término "Estadística" como ciencia derecopilación y análisis de datos.

Page 8: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 6

Al principio de la  Edad Contemporánea (1789 ‐ Actualidad)  secomienzan a asentar las bases teóricas de la Teoría de Probabilidadescon los trabajos de Joseph‐Louis Lagrange (1736 ‐ 1813) , Pierre‐Simonde Laplace (1749‐1827) , Carl Friedrich Gauss (1777 ‐ 1855) y SiméonDenis Poisson (1781 ‐ 1840).

Previamente, destacar el descubrimiento de la distribución normal por Abraham de Moivre (1667 ‐ 1754),distribución que será posteriormente "redescubierta" por Gauss y Poisson.

En el período (1800 ‐ 1820) sedesarrollaron dos conceptosfundamentales para la Teoría Estadística:la teoría de los errores de observación queaportan Laplace y Gauss, y la teoría de losMínimos cuadrados realizada por Laplace,Gauss y  Legendre.

Previamente, destacar el descubrimiento de la distribución normal por Abraham de Moivre (1667 ‐ 1754),Sir Francis Galton (1822 ‐ 1911) ideó el método conocido como correlación que tenía por objeto medir lainfluencia relativa de los factores sobre las variables. De aquí partió el desarrollo del coeficiente decorrelación creado por Karl Pearson (1857 ‐ 1936) y otros estudiosos de la ciencia biométrica, tales comoJohn Pease Norton, Richard Hooker y George Udny Yule, que efectuaron amplios estudios sobre la medidade las relaciones.

Establecidas las bases de la Teoría de Probabilidades surgieron la Estadística Moderna y suempleo en el Análisis de Experimentos con los trabajos de Francis Galton y Karl Pearson.Este último publicó en 1892 el libro The Grammar of Science (La Gramática de la Ciencia),  yfue él quien ideó el conocido test de Chi‐cuadrado. El hijo de Pearson, Egon SharpePearson  (1895 ‐ 1980) y el matemá co polaco Jerzy Neyman (1894‐1981) puedenconsiderarse los fundadores de las pruebas modernas de contraste de hipótesis.

Ronald Arnold Fisher (1890 ‐ 1962)  es la figura más importante de la Estadística,situándola como una poderosa herramienta de Análisis de Experimentos. Desarrolló elanálisis de varianza y fue pionero en el desarrollo de numerosas técnicas de AnálisisMultivariante y en la introducción del método de Máxima Verosimilitud para laestimación de parámetros. Su libro Statistical Methods for Research Workers (Métodosestadísticos para los investigadores), publicado en 1925, ha sido probablemente el librode Estadística más utilizado a lo largo de muchos años.

La Escuela rusa de Matemáticas y Estadística,  desde finales delsiglo XVIII y comienzos del XIX, aportó destacados científicos,resaltando a Pafnuti Lvóvich Chebyshev (1821 ‐ 1849), AndréiAndréyevich Márkov (1856 ‐ 1922) y Aleksandr Liapunov (1857 ‐1918), y posteriormente las de Aleksandr Khinchin (1894 ‐ 1959)y  Andrey Nikoláyevich Kolmogorov (1903 ‐ 1987).

Page 9: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 7

Jean Paul Benzécri (1932 ‐ 2019)  y  John Wilder Tukey (1867‐1947)  fueron  pioneros en relacionar laEstadística en función de computadoras. Mejoraron, adaptaron y crearon nuevas técnicas y  herramientasgráficas para estudiar grandes volúmenes de datos.

Actualmente, en todos los países hay oficinas de Estadística y otros organismossimilares que se encargan de elaborar estadísticas oficiales del país, como puedenser, tasa de paro, índices de precios, índice de actividad económica, etc.

La oficina de Estadística de España es el INE (Instituto Nacional de Estadística), además hay otros organismos(Ministerios) que elaboran estadísticas nacionales.

Page 10: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 8

Historia de la EstadísticaFacultad Ciencias Económicas y EmpresarialesDepartamento de Economía AplicadaProfesor: Santiago de la Fuente Fernández

                     CIENTÍFICOS QUE CONTRIBUYERON AL DESARROLLO DE LA ESTADÍSTICA

Fermat (1601‐1665) Graunt (1620‐1674) Pascal (1623‐1662) Huygens (1629‐1695)

Neumann (1648‐1715) Bernoulli (1654‐1705) Moivre (1667‐1754) Bayes (1702‐1761)

Achenwall (1719‐1772) Laplace (1749‐1827) Legendre (1752‐1833) Gauss (1777‐1857)

Bessel (1784‐1846) Quételet (1796‐1874) Cournot (1801‐1877) Morgan (1806‐1871)

Page 11: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 9

Boole (1815‐1864) Chebyshev (1821‐1894) Galton (1822‐1911) Dedekind (1831‐1916)

Laspeyres (1834‐1913) Kiær (1838‐1919) Peirce (1839‐1914) Edgeworth (1845‐1926)

Pareto (1848‐1923) Paasche (1851‐1925) Markov (1856‐1922) Lyapunov (1857‐1918)

Pearson (1857‐1936) Spearman (1863‐1945) I. Fisher (1867‐1947) Bowley (1869‐1957)

Yule (1871‐1951) Borel (1871‐1956) Gosset (1876‐1937) Snedecor (1881‐1974)

Page 12: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 10

von Mises (1883‐1953) Gini (1884‐1965) Thurstone (1887‐1955) Weibull (1887‐1979)

Chapman (1888‐1970) R. Fisher (1890‐1962) Shewhart (1891‐1967) Wilcoxon (1892‐1965)

Bonferroni (1892‐1960) Cramér (1893‐1985) Neyman (1894‐1981) Hotelling (1895‐1973)

Pearson (1895‐1990) Smirnov (1900‐1966) McNemar (1900‐1986) Gallup (1901‐1984)

       Wald (1902‐1950) Yates (1902‐1994) von Neumann (1903‐1957) Kolmogórov (1903‐1987)

Page 13: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 11

Mann (1905‐2000) Scheffé (1907‐1977) Kendall (1907‐1983) Cochran (1909‐1980)

Wolfowitz (1910‐1981) Haenszel (1910‐1998) Bartlett (1910‐2002) Wallis (1912‐1998)

Friedman (1912‐2006) Levene (1914‐2003) Tukey (1915‐2000) Whitney (1915‐2007)

Darling (1915‐2014) Siegel (1916‐1961) H. Simon (1916‐2001) Anderson (1916‐2016)

Savage (1917‐1971) Hurwicz (1917‐2008) Lehmann (1917‐2009) Mantel (1919‐2002)

Page 14: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 12

Kruskal (1919‐2005) Box (1919‐2013) Kaplan (1920‐2006 ) Rao (1920 ‐ )

Dunnett (1921‐2007) Brown (1921‐2014) Hodges (1922‐2000) Wilk (1922‐2013)

Cohen (1923‐1998) Olkin (1924‐2016) Cox (1924 ‐ ) Lilliefors (1928‐2008)

Nash (1928‐2015) Goodman (1928‐ 2020) Somers (1929‐ 2004) Jenkins (1932‐ 1982)

Benzécri (1932‐2019) Tiao (1933 ‐ ) Sen (1937 ‐) Bradley (1938 ‐ )

Page 15: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 13

Pierre de Fermat (1601‐1665)

Inició junto a Blaise Pascal la Teoría de las Probabilidades. Es más conocido por susaportaciones a la Teoría de los Números, en particular por el conocido como "últimoteorema de Fermat".

John Graunt (1620‐1674)

Estadístico inglés fundador de la bioestadística y precursor de la epidemiología. Susactividades sociales en Londres le permitieron acceder a los boletines de mortalidad(Bills of Mortality) que fueron la base documental sobre la que estableció susinvestigaciones estadísticas, actuariales y demográficas.

Blaise Pascal (1623‐1662)

Matemático, físico, filósofo, teólogo y apologista francés. Sus importantescontribuciones a la Teoría de la Probabilidad, a la Matemática y a la Historia Naturalincluyen el diseño y construcción de calculadoras mecánicas. Con investigacionessobre los fluidos y la aclaración de conceptos como la presión y el vacío.

Cristiaan Huygens (1629‐1695)

Astrónomo, físico, matemático e inventor neerlandés. Con importantesaportaciones a la Teoría de la Probabilidad, explicó la naturaleza de los anillos deSaturno, descubridor de Titán, inventó el reloj de péndulo moderno, formuló lanaturaleza ondulatoria de la luz, perfeccionó el telescopio y estableció las leyes delchoque entre cuerpos elásticos.

Gaspar Neumann (1648‐1715)Profesor y clérigo alemán de Breslau, con un interés científico especial en las tasasde mortalidad de la ciudad dando lugar al tratado " Reflexionen über Leben und Todbey denen in Breslau Geborenen und Gestorbenen" que envió a Leibniz. En 1706 fueelegido miembro de la Academia de Ciencias de Berlín.

Jacob Bernoulli (1654‐1705)

Destacado matemático y científico suizo. A partir de los planteamientos de Leibnizdesarrolló problemas de cálculo infinitesimal. En 1690 inició la técnica para resolverecuaciones diferenciales separables.

Su obra más importante fue Ars Conjectandi (Arte de la Conjetura), un trabajo pionero en la Teoríade la Probabilidad.  Resultado de su trabajo son los términos ensayo de Bernoulli y números deBernoulli.

Page 16: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 14

Abraham de Moivre (1667‐1754)

Matemático francés, conocido por la fórmula de Moivre y por su trabajo en ladistribución normal y probabilidad. Publicó el libro de probabilidad The Doctrine ofChances. Fue elegido miembro de la Royal Society de Londres en 1697

.Thomas Bayes (1702‐1761)

Matemático británico y ministro presbiteriano. Su obra más conocida es elTeorema de Bayes. Estudió el problema de la determinación de la probabilidad delas causas a través de los efectos observados. El teorema que planteó se refiere a laprobabilidad de un suceso condicionado por la ocurrencia de otro suceso.

Concretamente, resuelve el problema conocido como «de la probabilidad inversa»Fue uno de los primeros en utilizar la probabilidad inductivamente y establecer una base matemáticapara la inferencia probabilística. Miembro de la Royal Society desde 1742.

Godofredo Achenwall (1719‐1772)

Economista prusiano, conocido como el "inventor de la estadística". Escribió obrassobre la historia de los Estados europeos: "Elementos de Estadística de losprincipales Estados de Europa" y "Principios de Economía Política".

Destacar su trabajo en la estadística cuántica.  En el planteamiento global de los diferentes paíseseuropeos, describe el estado de su agricultura, las manufacturas y el comercio, y con frecuenciasuministra estadísticas en relación con estas materias.

Los economistas alemanes reclamaron por él el título de "padre de la estadística", siendocuestionado por escritores ingleses alegando que había reclamaciones anteriores en ese sentido.

Pierre Simon Laplace (1749‐1827)

Astrónomo, físico y matemático francés. Continuador de la mecánica newtoniana,descubrió y desarrolló la transformada de Laplace y la ecuación de Laplace, comoestadístico sentó las bases de la teoría analítica de la probabilidad; y como astrónomoplanteó la teoría nebular sobre la formación del sistema solar.

Su antiguo alumno Napoleón Bonaparte en 1805  le otorgó la Legión de honor y el título de condedel Imperio en 1806. Publicó "Teoría analítica de las probabilidades, 1812" y el "Ensayo filosóficosobre la probabilidad, 1814".En 1816 fue elegido miembro de la Academia Francesa. En 1817, tras la restauración de losBorbones,  fue nombrado marqués.

Page 17: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 15

Adrien Marie Legendre (1752‐1833)

Destacado matemático francés,  con importantes contribuciones a la estadística, a lateoría de números, al álgebra abstracta y al análisis matemático. Intervino engeodesia y en la comisión que estableció el metro como unidad de medidainternacional.

En 1811 concibió la función gamma, e introdujo el símbolo Γ . Desarrolló y fue el primero en publicarel Método de los mínimos cuadrados (Méthode des moindres carrés), en un apéndice de su librosobre la "Trayectoria de los cometas", adelantándose a Gauss, que al parecer había llegado a losmismos resultados con anterioridad. Este método tiene un gran número de aplicaciones en regresiónlineal, procesamiento de señales, estadística y ajuste de curva.  .Desarrolló un impresionante trabajo sobre funciones elípticas, incluyendo la clasificación deintegrales elípticas. Señalar los polinomios de Legendre, soluciones a la ecuación diferencial deLegendre que se utiliza con frecuencia en aplicaciones de física e ingeniería. En mecánica, creó latransformada de Legendre, utilizada para pasar de la formulación lagrangiana a la formulaciónhamiltoniana de la mecánica clásica.

Johann Carl Friedrich Gauss (1777‐1855)

Matemático, astrónomo, y físico alemán,  con contribuciones significativas en la teoríade números, el análisis matemático, la geometría diferencial, la estadística, el álgebra,la geodesia, el magnetismo y la óptica. En vida ya era considerado como "Príncipe delas Matemáticas".

Sus trabajos matemáticos revolucionaron la aritmética, la astronomía y la estadística.

En 1801 publicó el libro "Disquisitiones arithmeticae", con seis secciones dedicadas a la teoría denúmeros, proporcionando a esta rama de las matemáticas una estructura sistematizada.  Ese mismoaño predijo la órbita de Ceres aproximando parámetros por mínimos cuadrados.

Hacia 1820 mientras trabajaba en la determinación matemática de la forma y el tamaño del globoterráqueo, desarrolló distintas herramientas para el tratamiento de datos. La más importante fue lafunción gaussiana o campana de Gauss, que constituye uno de los pilares de la estadística.

En 1835 introduce la Ley de Gauss, una de las contribuciones más importantes en el campo delelectromagnetismo.

Friedrich Wilhelm Bessel (1784‐1846)

Matemático y astrónomo alemán, introdujo la corrección de Bessel, utilizando(n − 1) en lugar de n en las fórmulas de la varianza muestral y de la desviación típicamuestral (siendo n el número de observaciones de una muestra). Sistematizador delas funciones de Bessel (descubiertas por Daniel Bernoulli). En Astronomía fue elprimero en determinar el paralaje de una estrella.

Lambert Adolphe Jacques Quételet  (1796‐1874)

Matemático sociólogo, estadístico, astrónomo y naturalista belga. Aplicó los métodosestadísticos a las Ciencias Sociales. En 1834 fue nombrado secretario permanente dela Real Academia de Bélgica. En 1853 presidió el primer Congreso Internacional deEstadística y participó en la primera Conferencia Marítima Internacional en Bruselaspara promover el intercambio de datos meteorológicos.

Esta cooperación condujo en 1873 a la creación de la Organización Meteorológica Internacional.Fue el primer miembro no estadounidense de la American Statistical Association.  

Page 18: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 16

Antoine Augustin Cournot (1801‐1877)

Matemático y economista francés impulsor del marginalismo, se le considera comoel matemático que comenzó la sistematización formal de la economía. Fue elprimero en utilizar funciones matemáticas para describir conceptos económicoscomo la demanda, la oferta o el precio. Contribuyó notablemente a la cienciaestadística, sus aportes tuvieron mucha influencia sobre Jevons, Walras y Marshall.

Analizó los mercados monopolistas, estableciendo el punto de equilibrio del monopolio, llamado elpunto de Cournot. También estudió el duopolio y el oligopolio.Cournot  plantea un modelo sencillo de duopolio donde el producto es homogéneo y las empresasactúan sobre las cantidades, a diferencia de Bertrand, que afirma que las empresas actúan sobre losprecios.El modelo de Cournot de 1838, el modelo de Bertrand de 1883 y el de Edgeworth de 1887 (unaadaptación del modelo de Bertrand, suponiendo que la capacidad productiva es limitada) sirven paraseñalar y comprender los conceptos esenciales del mercado oligopolístico.

Augustus De Morgan (1806‐1871)

Matemático y lógico británico nacido en la India, primer presidente de la SociedadMatemática de Londres. Conocido por formular las llamadas Leyes de  "De Morgan"y establecer un concepto riguroso del procedimiento, inducción matemática. En1847 publica un trabajo notable por su desarrollo del silogismo.

En 1849 publica un trabajo titulado "Trigonometry and Double Algebra", la primera parte es untratado de trigonometría, y la segunda un tratado de álgebra generalizada, a la que llamó "Álgebradoble". En 1860 descubrió el álgebra de relaciones en su obra "Syllabus of a Proposed System ofLogic", prueba crítica del Principia Mathematica de Bertrand Russell y Alfred North Whitehead.De Morgan promovió la obra del matemático indio Ramchundra, supervisó la publicación de su libro"Máximos y mínimos, 1859" en Londres.

George Boole (1815‐1864)

Matemático y lógico británico. Como inventor del álgebra de Boole, que marca losfundamentos de la aritmética computacional moderna, es considerado como unode los fundadores del campo de las ciencias de la computación.

Su obra fue extensa:  En 1847 publicó The Mathematical Analysis of Logic (Análisis matemático de lalógica), donde desarrolló un sistema de reglas que le permitían expresar, manipular y simplificarproblemas lógicos y filosóficos cuyos argumentos admiten dos estados (verdadero o falso) porprocedimientos matemáticos.En 1857 su tratado "On the Comparison of Transcendents, with Certain Applications to the Theory ofDefinite Integrals" (Comparación de transcendentes, con ciertas aplicaciones a la teoría de integralesdefinidas), estudiando la suma de residuos de una función racional. Entre otros resultados, probó laconocida como identidad de Boole.En 1859 un Tratado de ecuaciones diferenciales "A Treatise on Differential Equations"  y en 1860 unTratado del cálculo de las diferencias finitas  "A Treatise on the Calculus of Finite Differences".

Page 19: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 17

Pafnuti Lvóvich Chebyshev (1821‐1894)Matemático ruso, su principal contribución al conocimiento es en el área de laprobabilidad y estadística con la desigualdad que lleva su nombre.En matemáticas destacan sus trabajos sobre Distancia de Chebyshev, Función deChebyshev (en teoría de números), los Polinomios de Chebyshev y la Integral deChebyshev.

Entre sus estudiantes señalar a Aleksandr Korkin, Aleksandr Liapunov y Andréi Márkov.

Francis Galton (1822‐1911)

Investigador inglés, fue el primero en aplicar métodos estadísticos para el estudiode las diferencias humanas y la herencia de la inteligencia, introdujo el uso decuestionarios y encuestas para recoger datos sobre las comunidades humanas,necesarios para sus trabajos genealógicos y biográficos y para sus estudiosantropométricos.

Sus investigaciones fueron fundamentales para la constitución de la ciencia de la estadística:

Inventó  el uso de la línea de regresión, siendo el primero en explicar el fenómeno de la regresión ala media.

En las décadas de 1870 y 1880 fue pionero en el uso de la distribución normal. Inventó la máquinaQuincunx, un instrumento para demostrar la ley del error y la distribución normal.

Descubrió las propiedades de la distribución normal bivariada y su relación con el análisis deregresión.

En 1888 introdujo el concepto de correlación, posteriormente desarrollado por Pearson y Spearman

En 1901, fue cofundador de la revista científica Biometrika, junto con Karl Pearson y Walter Weldon.

Julius Wilhelm Richard Dedekind  (1831‐1916)

Matemático alemán, dejó una huella muy importante en los elementos de lamatemática, conocido sobre todo por su aportación a los fundamentos del sistemanumérico (definiciones de los números reales y naturales), aunque su principalcontribución como investigador fue en el terreno del álgebra y sobre todo la teoríade números algebraicos.

Ernst Louis Étienne Laspeyres (1834‐1913)

Economista, administrador público y estadístico alemán, conocido sobre todo porel desarrollo en 1871 de la fórmula y el método para determinar el índice deprecios, que se utiliza para el cálculo de la tasa de inflación.El índice de Laspeyres, es una forma de mostrar la evolución en el tiempo, a partirde un año base, de un conjunto de magnitudes, ponderando en cada una suimportancia dentro del conjunto.

Los índices de precios al consumo en muchos países se elaboran actualmente utilizando el índice deLaspeyres.

Page 20: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 18

Anders Nicolai Kiær  (1838‐1919)

Estadístico noruego que propuso por primera vez utilizar una muestrarepresentativa para recopilar información sobre una población, en lugar de unaencuesta de enumeración completa.En 1877 fue nombrado director de la oficina recién creada de Estadística deNoruega.

Charles Sanders Peirce (1839‐1914)

Científico estadounidense, lógico matemático y un fundador de la estadística.,Introduce el pragmatismo y padre de la semiótica moderna o teoría de los signos.Su trabajo fue relevante para muchas áreas del conocimiento, tales comoastronomía, metrología, geodesia, matemáticas, lógica, filosofía, teoría e historiade la ciencia, semiótica, lingüística, econometría y psicología.

Francis Ysidro Edgeworth  (1845‐1926)

Economista y estadístico británico, su teorema del límite se relaciona con elequilibrio de la oferta y la demanda en un mercado libre. En 1897 mostró cómola competencia de precios entre dos empresas con limitaciones de capacidad y /o curvas de costos marginales crecientes resulta en una indeterminación.Durante el período (1912–1914) desempeñó el cargo de presidente de la RoyalStatistical Society.

Vilfredo Federico Pareto (1848‐1923)

Ingeniero, sociólogo, economista y filósofo italiano. En 1909 introdujo el índicede Pareto (medida de la desigualdad de la distribución del ingreso) y mostró elmodo de distribución de la riqueza (distribución de Pareto).En sus estudios sobre la eficiencia económica y distribución de la renta introducela "Eficiencia u Óptimo de Pareto" con aplicaciones en ingeniería y diferentesciencias sociales.

Una de sus aportaciones importantes a la teoría neoclásica es la Curva de Indiferencia (The Curve ofIncomes):  Una curva de indiferencia es un conjunto de puntos en el espacio de bienes ‐ o conjuntosde bienes ‐ entre los que el consumidor se siente indiferente.

Hermann Paasche (1851‐1925)

Estadístico y economista alemán, conocido por su índice Paasche, queproporciona un cálculo del índice de precios. Se diferencia del índice deLaspeyres en que utiliza una ponderación del período actual.El índice de precios de Paasche tiende a subestimar los aumentos de precios,se fundamenta en que un mayor consumo de bienes indicará precios relativosreducidos.

Page 21: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 19

Andréi Andréyevich Márkov (1856‐1922)

Matemático ruso conocido por sus trabajos en la teoría de los números y lateoría de probabilidades. Tiene aportaciones muy importantes en diversoscampos de las matemáticas:  En sus trabajos sobre fracciones continuas, obtuvoresultados relacionados con la teoría de la probabilidad.  En 1887 completó laprueba que permitía generalizar el teorema central del límite y que ya habíaavanzado Chebyshev.

La aportación más conocida se encuentra en su trabajo teórico en el campo de los procesos en losque están involucrados componentes aleatorios (procesos estocásticos),  introduciendo uninstrumento matemático que se conoce como Cadenas de Márkov.

En la actualidad, las Cadenas de Márkov son una herramienta esencial en disciplinas como laeconomía, la ingeniería, la investigación de operaciones y muchas otras.En estadística, el Teorema de Gauss‐Márkov, formulado por Carl Friedrich Gauss y Andréi Márkov,tiene una amplia aplicación en un modelo lineal general (MLG).

Aleksandr Mijáilovich Lyapunov (1857‐1918)

Matemático y físico ruso. Ha cobrado una gran relevancia su trabajo en el campode las ecuaciones diferenciales, la teoría del potencial, la estabilidad de sistemasy la teoría de la probabilidad. Fue miembro honorario de muchas universidades,miembro honorario de la Academia de Roma y miembro de la  la Academia deCiencias en París.

En la teoría de la probabilidad, generalizó los trabajos de Chebyshev y Márkov, y demostró elTeorema  Central del Límite en condiciones más generales que sus predecesores. El método defunciones características que utilizó para la demostración encontró más tarde un uso generalizadoen la teoría de la probabilidad.

Creó la teoría moderna de la estabilidad de un sistema dinámico, introdujo la función de Lyapunov, laestabilidad de Lyapunov, exponente de Lyapunov, tiempo de Lyapunov o teorema de Lyapunov‐Malkin. Se le debe también la Ecuación de Lyapunov en teoría del control, así como los fractales deMarkus‐Lyapunov (fractales bifurcacionales derivados de la función logística).

Karl Pearson (1857‐1936)

Extraordinario científico, matemático y pensador británico, estableció ladisciplina de la estadística matemática. Desarrolló una intensa investigaciónsobre la aplicación de los métodos estadísticos en la biología y fue el fundadorde la bioestadística. Los análisis de Pearson se han revelado comoimprescindibles para una correcta interpretación de los datos estadísticos.

A partir de 1890 estableció la disciplina de la estadística matemática, su investigación colocó en granmedida las bases de la estadística del siglo XX, definiendo los significados de análisis de la regresión,desviación estándar, correlación, la teoría de la probabilidad, elaborando los métodos gráficos ymuestreo aleatorio.En 1900 publicó su prueba de Chi‐cuadrado, una medida de la bondad de una cierta distribución alajustarse a un grupo determinado de datos. La prueba permite determinar, entre otras cosas, si doscaracteres hereditarios eran transmitidos de forma dependiente o independiente.

En 1901, fue cofundador de la revista científica Biometrika, junto con Francis Galton (del que fuealumno) y Walter Weldon.

Page 22: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 20

Charles Edward Spearman (1863‐1945)

Psicólogo inglés, pionero en el desarrollo del análisis factorial y del coeficiente decorrelación. Desarrolló importantes modelos en el ámbito de la inteligenciahumana, formulando que la inteligencia se compone de un factor general G yotros factores específicos.

Fue el primer autor en ofrecer una definición psicométrica sostenible de la inteligencia, y esconsiderado el padre de la teoría clásica de los tests. Propuso la idea de que el comportamientointeligente es generado por una cualidad singular dentro del cerebro humano.

A partir de este concepto, que llamaría inteligencia general o simplemente G desarrolló una nuevatécnica estadística que le permitiera analizar las correlaciones entre distintas variables, el llamadoanálisis factorial. Esta técnica demostraba que todas las medidas en las pruebas mentales estabanpositivamente correlacionadas. A pesar de que los teóricos de la inteligencia múltiple rechazan suinterpretación, no cabe duda de que el análisis factorial es una de las herramientas más importantesdel siglo XXI para la investigación en inteligencia.

Irving Fisher (1867‐1947)

Economista, estadístico, inventor, y eugenista estadounidense que contribuyó adifundir las ideas económicas neoclásicas en Estados Unidos. Célebre por sustrabajos sobre el capital y por contribuir a las modernas teorías monetarias sobrela inflación. Incorporó formulaciones muy modernas para su época:  fue elinventor de los índices económicos y un pionero de la econometría.

Varios conceptos estadísticos toman su nombre:  la ecuación de Fisher, la hipótesis de Fisher, la tasade Fisher y el teorema de separabilidad de Fisher.

En su más importante obra de economía, The Making of Index Numbers (1922), desarrolló la idea deestablecer números índices como técnica para medir valores bursátiles y precios de mercancías.

Entre sus obras,  Mathematical Investigations in the Theory of Value and Prices (1892) , The Natureof Capital and Income (1906) ,  Rate of Interest (1907) , The Theory of Interest (1930) , Booms andDepressions (1932) ,  100% Money (1935) y The Theory of Constructive Income Taxation (1942).

Arthur Lyon Bowley (1869‐1957)

Estadístico y economista inglés que trabajó en Estadística Económica y fuepionero en el uso de técnicas de muestreo en encuestas sociales. En teoríaestadística siguió los trabajos de Karl Pearson, George Udny Yule y Francis YsidroEdgeworth. Sus enseñanzas presagiarían futuros desarrollos en Análisisexploratorio de datos luego popularizados por John Wilder Tukey.

Sus Elementos de Estadística se considera como el primer libro de texto sobre estadística en inglés.En él se describen las técnicas de la estadística descriptiva muy útil para la economía y las cienciassociales.

Page 23: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 21

George Udny Yule  (1871‐1951)

Estadístico escocés, pionero en la estadística moderna, haciendo contribucionesfundamentales a la teoría de correlación, regresión lineal y series históricas. Entresus trabajos, la distribución de Yule‐Simon, la distribución discreta toma su nombrey el de Herbert Alexander Simon.

Yule estaba interesado en aplicar técnicas estadísticas a los problemas sociales y rápidamente seconvirtió en miembro de la Royal Statistical Society. 

En 1897‐1899, Yule escribió artículos importantes sobre correlación y regresión. En 1900 trabajó enuna teoría de la asociación paralela, su enfoque de la asociación era bastante diferente al de Pearsony las relaciones entre ellos se deterioraron. 

En la década de 1920 escribió tres artículos influyentes sobre el análisis de series temporales, sobreel problema de la correlación temporal (1921) y un método de investigación de periodicidades enseries perturbadas  (1927) con especial referencia al número de manchas solares de Wolfer, paramodelar la serie temporal de manchas solares utilizó un modelo autorregresivo en lugar del métododel periodograma establecido de Franz Arthur Friedrich Schuster.

Fue pionero en el uso de procesos estocásticos de apego preferencial para explicar el origen de ladistribución de la ley de potencia.

Félix Édouard Justin Émile Borel (1871‐1956)

Matemático y político francés, uno de los pioneros de la teoría de la medida(junto a Henri Lebesgue y René Louis Baire) y sus aplicaciones a la Teoría de laProbabilidad, con aportaciones en la estrategia de Teoría de Juegos. Trabajó enseries convergentes y teoría de funciones. Con un trabajo divulgativo entre (1913‐1914) relacionó la geometría hiperbólica y la relatividad especial. Sus aportacionesculminaron con el Teorema de Heine‐Borel.

George Waddel Snedecor (1881‐1974)

Matemático y estadístico estadounidense. Fundó el primer departamentoacadémico de estadística de los Estados Unidos, y fue un pionero de la modernaestadística aplicada en los EE.UU.Su libro de Métodos estadísticos (1938)  se convirtió en un recurso esencial, en ladécada de 1970 fue el libro más frecuentemente citado.

Contribuyó a los fundamentos del análisis de la varianza, análisis de datos, diseño de experimentos ymetodología estadística. Da nombre a la Distribución F que lleva su nombre.

Page 24: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 22

William Sealy Gosset (1876‐1937)

Matemático y químico inglés, conocido por su sobrenombre Student. Publicó elerror probable de una medida y en casi todos sus artículos publicados en larevista Biometrika firmaba con el seudónimo Student (estudiante).Fue Ronald Aylmer Fisher, al recibir correspondencia de Gosset con las tablasde Student, quien apreció la importancia de los trabajos en muestras pequeñasal considerar que había efectuado una revolución lógica.

Fisher introdujo la forma "t " debido a que se ajustaba a su teoría de grados de libertad.

La distribución t de Gosset comenzó a conocerse como la distribución t de Student. Fisher esresponsable también de la aplicación de la "distribución t" a la regresión.

Los residuos estudentizados, aunque fueron introducidos por otros, reciben su nombre en honor aStudent, la idea es ajustar la base del concepto usando  las desviaciones estándar estimadas.

El germen de la distribución t de Student se inicia a principios del siglo XX con los trabajos de Gosseten la compañía cervecera Guinness en Dublín.

La investigación sobre el efecto de diversas condiciones del suelo y del tipo de cebada sobre elrendimiento de los cultivos y la calidad de la cerveza, para lo que contaba con muestras pequeñas,de alrededor de diez datos. La población de la que se extraían las muestras no se conocía demasiadobien, por lo que su varianza se estimaba a partir de la varianza de las muestras.

Gosset se dio cuenta de que las medias de sus muestras no seguían una distribución de probabilidadnormal, y desarrolló una distribución más adecuada. Como los datos con los que realizó las pruebaseran confidenciales y no debían caer en manos de la competencia, evitó que pudieran relacionarsecon su compañía publicándolos con el seudónimo Student (estudiante).

Richard Edler von Mises (1883‐1953

Físico y matemático austríaco que trabajó en mecánica de sólidos, mecánica defluidos, aerodinámica, estadística y teoría de la probabilidad. Propuso unaaxiomatización de la teoría de la probabilidad basada en el concepto deprobabilidad definida como valor límite de la frecuencia relativa. Desarrolló, junto aHarald Cramér, el test no paramétrico de bondad de ajuste Cramér‐von Mises.

En mecánica del sólido deformable dio una interpretación de la fractura a partir de energía elástica(Criterio de Von Mises) que sustituyó al más tosco Criterio de Tresca. Da también nombre a latensión de Von Mises, una medida escalar de dicha energía.

Fue el hermano más joven del economista liberal clásico Ludwig Heinrich Edler von Mises, quedefendía que el protagonista de la economía es el emprendedor, de manera que tendrá éxitosiempre que los precios generados en el mercado cubran sus pérdidas, de este modo iránarruinándose los empresarios menos competitivos favoreciendo la innovación y el progreso.

Page 25: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 23

Corrado Gini  (1884‐1965)

Estadístico, demógrafo y sociólogo italiano que definió el índice de concentración ocoeficiente de Gini, utilizado universalmente como medida de la equidad en ladistribución de las rentas de una sociedad.Sus principales aportaciones científicas pertenecen al campo de la estadística: en lateoría de las distribuciones, en la estimación de parámetros en la medida del valory márgenes de error de variables, medidas de variabilidad, etc.

En el campo de la demografía prestó una atención especial a los fenómenos migratorios. Desarrollóuna teoría del metabolismo social que proporciona una visión cíclica del desarrollo de la población, yun conjunto de teorías que denominaba fisiopatología económica para el estudio de las crisiseconómicas y sociales.

En 1926, fue nombrado Presidente del Instituto Central de Estadística en Roma, quien Gini organizócomo centro único de los servicios estadísticos italianos.

Louis Leon Thurstone (1887‐1955)

Ingeniero mecánico y psicólogo estadounidense conocido por ser el psicometristamás famoso de su tiempo. Trabajó en el estudio de la psicometría, la psicofísica y lacreación de pruebas para la medición de la inteligencia humana con métodoscuantitativos. Desarrolló métodos estadísticos para realizar medidas psicológicas,evaluar actitudes y capacidades mentales, entre muchas otras contribuciones.

Introdujo el desarrollo de nuevas técnicas analíticas de factores para determinar el número y lanaturaleza de las construcciones latentes dentro de un conjunto de variables observadas.

En su obra "Multiple Factor Analysis" se plantea un análisis factorial con más de un factor común y seintroducen la estructura simple y las rotaciones de factores. La existencia de varias dimensioneslatentes hacía imposible una ordenación de los individuos en función de su inteligencia.

Incorporó la media estandarizada y la desviación estándar de las puntuaciones de CI que se utilizanen la actualidad, a diferencia del sistema de prueba de inteligencia utilizado originalmente porAlfred Binet. También es conocido por el desarrollo de la escala Thurstone.

Ernst Hjalmar Waloddi Weibull (1887‐1979)

Ingeniero, científico y matemático sueco, es conocido por su trabajo en el área de lafatiga de materiales y en estadística por la distribución de Weibull (1939).La distribución de Weibull se utiliza:  en análisis de la supervivencia, teoría de valoresextremos, meteorología, telecomunicaciones, sistemas de radar para simular ladispersión de la señal recibida, para modelar la distribución de la velocidad del

viento, en seguros para modelar el tamaño de las pérdidas, en la hidrología para analizar variablesaleatorias como valores máximos de la precipitación y la descarga de ríos, y para describir épocas desequía.

Page 26: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 24

Sydney Chapman (1888‐1970)

Matemático y geofísico británico, conocido por sus trabajos en procesosestocásticos. En el estudio de los procesos de Andréi Andréyevich Márkov,Chapman y el ruso Andréi Nikoláyevich Kolmogórov desarrollaronindependientemente el conjunto fundamental de igualdades conocido como"ecuación de Chapman‐Kolmogórov".

Su implicación por la geofísica le llevó a estudiar las tormentas magnéticas y las variaciones delcampo magnético de la Tierra, descubriendo que el campo geomagnético se genera al menos enparte en la atmósfera.

Ronald Aylmer Fisher (1890‐1962)

Estadístico y biólogo inglés, por su trabajo en estadística, ha sido descrito como"un genio que casi sin ayuda creó las bases de la ciencia estadística moderna" y"la figura más importante de las estadísticas del siglo XX". Entre sus grandescontribuciones desarrolló: el análisis de la varianza (ANOVA, 1921) y  principiosdel diseño de experimentos (1923‐1924).

En genética,  su trabajo utilizó las matemáticas para combinar la genética mendeliana y la selecciónnatural; esto contribuyó al renacimiento del darwinismo en la revisión de principios del siglo XX de lateoría de la evolución conocida como síntesis moderna. Por sus contribuciones a la biología, Fisherha sido llamado "el mayor de los sucesores de Darwin". 

Siendo un opositor prominente a la estadística bayesiana, Fisher fue el primero en utilizar el término"bayesiano" en 1950.

En 1956 publica el libro "Statistical Methods and Scientific Inference", dando la impresión de ser unmanual para principiantes más que un libro de texto, pero en eso radicó su éxito.

A lo largo del libro, anima a trabajar con ejemplos, discute problemas prácticos y términos teóricos,todo a partir de ejemplos numéricos. En él se separa de los matemáticos diciendo que en estadísticahay que hacer razonamiento inductivo, en lugar de razonamiento deductivo, para lo cual esnecesaria una gran formación matemática, para aplicarla y obtener conclusiones de los datos conque se trabaja.

Contribuciones a la Inferencia Estadística:  Publicó 140 artículos sobre genética, 129 sobre estadísticay 16 sobre otros temas. Las contribuciones que más impacto ha producido serían:  La calibración delnivel de significación con el p‐valor, la diferencia entre muestra y población, el método de la máximaverosimilitud, la construcción de estimadores, el análisis de la varianza y el diseño de experimentos.

Page 27: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 25

Walter Andrew Shewhart  (1891‐1967

Físico, ingeniero y estadístico estadounidense, a veces conocido como el padre delcontrol estadístico de la calidad.Mientras Shewhart trabajaba para la Western Electric, su innovador trabajo decontrol de calidad se centró en la reducción de la variación y gráficos. Su trabajoalteró el curso de la historia industrial, encabezó una revolución de la calidad y lanzóla calidad como profesión.

Definió el problema de la variabilidad del proceso en términos de causas asignables y el azar, y seencargó de establecer los principios esenciales del control de la variación a través de la aplicación degráficos de control.

En 1931, publicó el trabajo "Control de Economista de Calidad de productos manufacturados".Se desafió el enfoque basado en la inspección de la calidad e introdujo la era moderna de la gestiónde la calidad. El libro popularizó el control estadístico y su uso luego se extendió en toda la industria.

A partir de la década de 1930, los intereses de Shewhart se expandieron de calidad industrial a laspreocupaciones más amplias de la ciencia y la inferencia estadística..

Shewhart fue el núcleo de un grupo del  departamento de garantía de calidad de Bell Hawthorne,formado, entre otros, por Harold French Dodge y Harry Romig.

Se desarrollaron los conceptos básicos del muestreo de aceptación, tales como: riesgo delconsumidor, riesgo del productor, doble muestreo, porcentaje de tolerancia de lote defectuoso ylímite de calidad saliente promedio.

Frank Wilcoxon (1892‐1965)

Químico y estadístico estadounidense, aportó el desarrollo de dos pruebasestadísticas no paramétricas:  la prueba de la suma de los rangos de Wilcoxon yla prueba de los signos de Wilcoxon. Ambas pruebas son alternativas a la prueba tde Student.

Carlo Emilio Bonferroni (1892‐1960)

Matemático italiano, conocido por la  prueba de Bonferroni, también conocidacomo "corrección de Bonferroni" o "ajuste de Bonferroni". Es una prueba decomparación múltiple utilizada en el análisis de la varianza.Otras pruebas de comparación múltiple son:  la prueba de Scheffé, la prueba deTukey‐Kramer y la prueba de Dunnett. La prueba de Bonferroni es demasiadoconservadora y puede que no alcance algunos resultados significativos.

Harald Cramér (1893‐1985)

Matemático sueco, conocido por el coeficiente V de Cramér y la prueba Cramér‐von Mises (1920‐1930).El coeficiente V cuantifica la relación de asociación entre dos o más variables parala prueba de la Chi‐cuadrado, varía entre cero y uno (siendo cero un valor nulo deasociación.

El test Cramér‐von Mises es una prueba de análisis de la varianza que se utiliza para obtener labondad de ajuste entre una distribución teórica comparada con una distribución empírica, o paracomparar dos distribuciones empíricas. La prueba  es una alternativa al test de Kolmogórov‐Smirnov.La generalización de las dos muestras se debe a Theodore Wilbur Anderson.

Page 28: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 26

Jerzy Neyman (1894‐1981)

Matemático y estadístico polaco, es uno de los principales arquitectos de laestadística moderna, introdujo el concepto moderno de intervalo de confianza,desarrolló (junto a Egon Sharpe Pearson, hijo de Karl Pearson) la teoría de laprueba de hipótesis estadísticas creando lema de Neyman‐Pearson, hizoaportaciones en diseños de experimentos y teoría del muestreo.

Al desarrollar su teoría, Neyman y Pearson reconocieron la necesidad de incluir hipótesis alternativasy observaron los errores al probar hipótesis sobre valores de población desconocidos basados enobservaciones de muestra que estaban sujetas a variación.

Al desarrollar su teoría, Neyman y Pearson reconocieron la necesidad de incluir hipótesis alternativasy observaron los errores al probar hipótesis sobre valores de población desconocidos basados enobservaciones de muestra que estaban sujetas a variación.

Al error de rechazar una hipótesis verdadera le designaron como error tipo uno y al error de aceptaruna hipótesis falsa como error tipo dos.

Dieron importancia a la probabilidad de rechazar una hipótesis cuando es falsa. Llamaron a estaprobabilidad el poder de prueba.

Propusieron el término, 'región crítica' para denotar un conjunto de valores estadísticos de muestraque conducen al rechazo de la hipótesis que se está probando.

El 'tamaño' de una región crítica es la probabilidad de cometer un error tipo uno, al que llamaronnivel de significancia.

Llamaron hipótesis simple a una hipótesis que especifica completamente una distribución deprobabilidad. Una hipótesis que no es una hipótesis simple es una hipótesis compuesta.  De estemodo, una hipótesis sobre la media de una distribución normal con una desviación estándarconocida, por ejemplo, es una hipótesis simple. La hipótesis es una hipótesis compuesta si sedesconoce la desviación estándar.

Después de haber establecido una base matemática sólida para su teoría, la aplicaron al problema dedos muestras (1930) y al problema de k muestras (1931).

En uno de sus artículos conjuntos (1933) utilizaron la "razón de verosimilitud" para establecer uncriterio objetivo para determinar la mejor región crítica (en el sentido del poder de la prueba) paraprobar una hipótesis simple y una hipótesis compuesta.  A partir de entonces, cambiaría el estudiode las pruebas de hipótesis estadísticas.

Harold Hotelling (1895‐1973)

Matemático, estadístico e influyente economista estadounidense, conocido enestadística por introducir la distribución T‐cuadrado, desarrollada como unageneralización de la t de Student,  se utiliza en contraste de hipótesis y enregiones de confianza. También introdujo el análisis de la correlación canónica(una extensión de la regresión múltiple).

Hotelling fue crucial para el desarrollo y crecimiento de la economía matemática. Varias áreas deinvestigación activa estuvieron influenciadas con sus aportaciones:  la Ley de Hotelling, el Lema deHotelling y la Regla de Hotelling.

Entre sus alumnos de estadística, Milton Friedman (Nobel de Economía, 1976) y  Kenneth JosephArrow (Nobel de Economía, 1972) y  Abraham Wald.

Page 29: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 27

Egon Sharpe Pearson (1895‐1980)

Estadístico británico (hijo del estadístico Karl Pearson),conocido por el desarrollo delLema de Neyman‐Pearson. Sucedió a su padre como profesor de estadística en elUniversity College de Londres y como editor de la revista Biometrika.

El Lema de Neyman‐Pearson establece cómo encontrar la prueba más poderosa de una hipótesisnula simple contra una alternativa simple. Muestra que, para tal prueba, la región crítica tiene unlímite en el que la razón de verosimilitud es constante.

Nikolai Vasilyevich Smirnov (1900‐1966)

Matemático ruso, sus importantes trabajos en estadística matemática y teoría de  laprobabilidad se dedicaron a la investigación de distribuciones límite mediante elcomportamiento asintomático de integrales múltiples a medida que la multiplicidadaumenta con el límite. Fue uno de los creadores de los métodos no paramétricos yde la teoría de distribuciones límite de estadística de orden.

Junto con el matemático ruso Andréi Nikoláyevich Kolmogórov, Smirnov desarrolló la prueba deKolmogórov‐Smirnov , a veces llamado criterio de consentimiento de Kolmogórov, y participó en lacreación del test de Cramér‐von Mises‐Smirnov.

El test de Kolmogórov‐Smirnov (prueba K‐S), es una prueba no paramétrica que determina la bondadde ajuste de dos distribuciones de probabilidad entre sí, es un test más sensible a los valorescercanos a la mediana que a los extremos de la distribución. En caso de querer verificar la normal deuna distribución, la prueba de Hubert Lilliefors Whitman conlleva algunas mejoras con respecto a lade Kolmogórov‐Smirnov; y, en general, el test de Shapiro–Wilk o la prueba de Anderson‐Darling  sonopciones más potentes.

Quinn Michael McNemar (1900‐1986)

Psicólogo y estadístico estadounidense, conocido por su trabajo en pruebas de CI,por la prueba de McNemar (1947)  y por su libro Psychological Statistics (1949).

La prueba de McNemar se utiliza con datos nominales emparejados, se aplica a tablas decontingencia 2 × 2 con un rasgo dicotómico con pares de sujetos emparejados, para determinar si lasfrecuencias marginales de fila y columna son iguales (es decir, sí existe "homogeneidad marginal").

En las ciencias médicas los parámetros comúnmente utilizados para evaluar una prueba dediagnóstico son la sensibilidad y la especificidad. La sensibilidad es la capacidad de una prueba paraidentificar correctamente a las personas con la enfermedad. La especificidad es la capacidad de laprueba para identificar correctamente a quienes no tienen la enfermedad. La prueba de McNemarcompara la sensibilidad y la especificidad de dos pruebas de diagnóstico en el mismo grupo depacientes.

Page 30: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 28

George Horace Gallup (1901‐1984)

Periodista, matemático y estadístico estadounidense. En 1935 fundó el AmericanInstitute of Public Opinion, Instituto de Opinión Pública estadounidense, pararealizar sondeos electorales en Estados Unidos, conocer los gustos de la gente yestudiar la opinión de la masa social. Fue pionero en la medición de la audienciatanto de radio como de televisión mediante encuestas.

Los métodos de análisis de Gallup, basados en las encuestas y la explotación estadísticas de susresultados, fueron requeridos por numerosas empresas para conocer los signos de la demanda yadaptar sus ofertas.

Abraham Wald (1902‐1950)

Matemático húngaro que hizo importantes contribuciones a la teoría de ladecisión, estadística, programación lineal, geometría y econometría y  fundó lateoría del análisis secuencial (aplicada a la II Guerra Mundial para mejorar losestudios de control de la calidad).

Propuso varias aplicaciones matemáticas a la economía de cierta relevancia, siendo colaborador deOskar Morgenstern (fundó el campo de teoría de juegos y sus aplicaciones económicas, con elmatemático John Von Neumann).   

Se interesó en la Econometría, proponiendo modelos para suavizar la estacionalidad de las seriestemporales. En 1939 creó  la "Prueba de Wald" utilizada en una gran variedad de modelos,incluyendo modelos con variables dicotómicas y modelos con variables continuas.

Aportó soluciones de unicidad a los modelos de equilibrio general competitivo de Marie Ésprit LéonWalras  y los posteriores de Kenneth Joseph Arrow (Nobel Economía, 1972)  y Gérard Debreu (NobelEconomía, 1983), así como para el modelo de duopolio al estilo de Antoine Augustin Cournot. Noobstante, se centró en un modelo derivado del de Walras‐Cassel.

Frank Yates (1902‐1994)

Estadístico inglés,  en 1934  introdujo la corrección de continuidad de Yates parapasar de una distribución de probabilidad discreta a una  distribución deprobabilidad continua. Se aplica también en la prueba de Chi‐cuadrado en tablasde contingencia 2x2.

Durante la Segunda Guerra Mundial trabajó en la disciplina que más tarde recibiría el nombre deInvestigación Operativa.

Frank Yates y Ronald Fisher en 1934 demostraron una larga data sobre los cuadrados latinos de 6 × 6y publicaron un volumen extremadamente importante de tablas estadísticas.

En 1945 contribuyó a la incipiente computación estadística.

Page 31: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 29

John von Neumann (1903‐1957)

Matemático húngaro, considerado como uno de los matemáticos más importantesdel siglo XX, realizó contribuciones fundamentales en estadística, teoría de juegos,ciencias de la computación, análisis funcional, análisis numérico, economía, físicacuántica, cibernética, hidrodinámica y muchos otros campos.

Incorporó una prueba de autocorrelación "Razón de von Neumann", utilizada cuando losestimadores obtenidos con mínimos cuadrados no son de varianza mínima, aunque sean insesgados(las pruebas t y  F dejen de ser válidas).

Propuso el lenguaje de la teoría de juegos y la teoría del equilibrio general para la economía.

En 1928  estableció el teorema del "minimax", que establece que en ciertos juegos de suma cero,que involucran información perfecta (cada jugador conoce de antemano la estrategia de suoponente y sus consecuencias), existe una estrategia que permite a ambos jugadores minimizar sumáxima pérdida. Este trabajo culminó en 1944 con el libro clásico "Theory of Games and EconomicBehavior" (Teoría de juegos y comportamiento económico), escrito con Oskar Morgenstern, fue elprimero en emplear el método de prueba, utilizado en teoría de juegos, conocido como Inducciónhacia atrás (backward induction).

En 1937 da solución a la existencia de situaciones de equilibrio en modelos matemáticos dedesarrollo del mercado basado en oferta y demanda (descrito por Léon Walras en 1874).Primero reconoció que el modelo tendría que estar expresado por medio de inecuaciones y no deecuaciones (como solía hacerse), y aplicó un teorema de punto fijo (derivado del trabajo delmatemático holandés Luitzen Egbertus Jan Brouwer).La importancia perdurable del trabajo en equilibrio general y la metodología de los teoremas depunto fijo es resaltada por la concesión del Premio Nobel de Economía (1972).

Introdujo la "Máquina de von Neumann" en ciencia computacional, virtualmente cada computadorapersonal, microcomputadora, minicomputadora y supercomputadora es una máquina de vonNeumann.Creó el campo de los autómatas celulares sin computadores, construyendo los primeros ejemplos deautómatas autorreplicables con lápiz y papel.  El concepto de constructor universal fue presentadoen su trabajo póstumo "Teoría de los autómatas autorreproductivos". El término «máquina de vonNeumann» se refiere alternativamente a las máquinas autorreplicativas, para aprovechar elcrecimiento exponencial de tales mecanismos.Donald Ervin Knuth  (experto en ciencias de la computación, famoso por su fructífera investigacióndentro del análisis de algoritmos y compiladores) considera a von Neumann el inventor del conocidoalgoritmo merge sort, en el cual la primera y segunda mitad de un array (vector) se clasificanrecursivamente por separado y luego se fusionan juntas.

Page 32: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 30

Andrey Nikolaevich Kolmogórov (1903‐1987)

Matemático ruso, con grandes aportaciones en teoría de la probabilidad ytopología. Estructuró el sistema axiomático de la teoría de la probabilidad,utilizando el lenguaje teoría de conjuntos. Trabajó en lógica constructivista;en series de Fourier; en turbulencias y mecánica clásica.Fundó la teoría de la complejidad algorítmica.

En 1924 publicó la potente "Desigualdad de Kolmogórov" desarrollando una nueva metodología quesería muy fructífera en el futuro.

En 1931 publicó "Métodos Analíticos en la Teoría de las Probabilidades" estudiando, en formaabstracta, lo que actualmente se denominan "Procesos de Markov", este trabajo sentó las basesteóricas necesarias para el futuro desarrollo de esta rama de las matemáticas.

En 1933 publicó el libro "Fundamentos de la Teoría de la Probabilidad", presenta la construcciónaxiomática de la teoría de probabilidades que actualmente es ampliamente aceptada. Desarrolla deforma clara y matemáticamente precisa los principales conceptos que ofrecen base para lafundamentación de los Procesos Estocásticos.

Desarrolló una teoría para la programación de instrucciones, y elaboró un procedimiento paraconducir la información a través de los canales de comunicación. Después centró su investigación enel área de la turbulencia, donde sus publicaciones a partir de 1941 tuvieron una influenciasignificativa en este campo.

En 1949 publicó, junto a  su alumno Boris Vladimirovich Gnedenko, el libro "Distribuciones Limitespara Sumas de Variables Aleatorias Independientes",  cuyo centro es la noción de ley infinitamentedivisible y ley de estabilidad.

En mecánica clásica,  es más conocido por el Teorema de Kolmogórov‐Arnold‐Moser (presentado porprimera vez en 1954 en el Congreso Internacional de Matemáticos). En 1957 resolvió el decimotercerproblema de Hilbert (un trabajo conjunto con su alumno Vladímir Ígorevich Arnold).

En 1963, Kolmogórov expone la idea de proporcionar una base algorítmica a las nociones básicas dela Teoría de Información y la Teoría de Probabilidades. Surge así la idea de complejidad algorítmicade un objeto, que hoy se conoce como complejidad según Kolmogórov.

Otros conceptos o resultados que aporta: Ecuación de Fischer‐Kolmogórov, Axiomas de Kolmogórov,Teorema de continuidad de Kolmogórov, Teorema de Fréchet‐Kolmogórov, Teorema desuperposición de Kolmogórov, Espacio de Kolmogórov, Paradoja de Borel‐Kolmogórov.

Henry Berthold Mann (1905‐2000)

Matemático y estadístico austríaco, en teoría de números aditivos demostró la"Conjetura de Schnirelmann‐Landau" sobre la densidad asintótica de conjuntos desumas, estableciendo el "Teorema de Mann (1942)". En 1949 publicó  "Análisis ydiseño de experimentos:  Análisis de varianza y análisis de diseños de varianza",primer libro matemático sobre el diseño de experimentos.

Desarrolló la prueba no paramétrica "U de Mann‐Whitney", junto a su alumno Donald RansomWhitney, que se aplica a muestras independientes para comparar dos grupos (o condiciones otratamientos), mientras que la "Prueba de rango o signo de Frank Wilcoxon" se aplica a muestrasemparejadas o dependientes.

Page 33: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 31

Henry Scheffé (1907‐1977)

Estadístico estadounidense, con importantes contribuciones  a las pruebas de hipótesisno paramétricas, conocido por el Teorema de "Lehmann‐Scheffé", desarrollado junto aErich Leo Lehmann, y el "Método de Scheffé" para ajustar los niveles de significancia enun análisis de regresión lineal para tener en cuenta las comparaciones múltiples.

Maurice George Kendall (1907‐1983)

Matemático inglés, introdujo en 1938  el "Coeficiente de correlación tau de Kendall",denominado "Coeficiente τ de Kendall", aunque Gustav Theodor Fechner  habíapropuesto una medida similar en 1897 en el contexto de series de tiempo.

Es una prueba no paramétrica para medir la asociación ordinal entre dos cantidades medidas.Una medida de correlación de rango:  Intuitivamente, la correlación de Kendall entre dos variablesserá alta cuando las observaciones tengan un rango similar (idéntico para una correlación de 1)  ybajo cuando las observaciones tienen un rango diferente (completamente diferente para unacorrelación de ‐1).

William Gemmell Cochran (1909‐1980)

Matemático y estadístico escocés, conocido por:  La "Prueba C de Cochran",  paradecidir si una sola estimación de una varianza (o una desviación estándar) essignificativamente más grande que un grupo de varianzas (o desviaciones estándar)con el que la estimación única se supone que debe ser comparable.

"Prueba Q de Cochran", prueba estadística no paramétrica para verificar si k tratamientos tienenefectos idénticos."Teorema de Cochran", utilizado para justificar los resultados relacionados con las distribuciones deprobabilidad de estadísticas que se utilizan en el análisis de varianza."Prueba Cochran–Mantel–Haenszel", utilizada en el análisis de datos categóricos estratificados ocoincidentes.

William Manning Haenszel (1910‐1998)

Epidemiólogo estadounidense, junto con William Gemmell Cochran y  NathanMantel,  introdujó la prueba "Cochran‐Mantel‐Haenszel ", utilizada en el análisisde datos categóricos estratificados o coincidentes. Permite a un investigadorprobar la asociación entre un tratamiento binario y un resultado binario, como elestado de caso o control, mientras se tiene en cuenta la estratificación.

La prueba CMH maneja tamaños de estratos arbitrarios, a diferencia de la prueba de Quinn MichaelMcNemar que solo puede manejar pares.

Page 34: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 32

Jacob Wolfowitz (1910‐1981)

Matemático estadounidense de origen polaco, con importantes contribuciones enteoría de la decisión, estadística no paramétrica, análisis secuencial y teoría de lainformación.

En inferencia no paramétrica presenta formas de calcular los intervalos de confianza que no sonnecesariamente de ancho fijo, basado en las observaciones empíricas independientes distribuidas demanera idéntica en  la distribución F.En un artículo de 1942 introduce por primera vez la palabra "no paramétrico".

Incorporó la prueba de "Rachas de Wald‐Wolfowitz", lleva los nombres de Abraham Wald y JacobWolfowitz, que permite contrastar la hipótesis nula de que dos muestras independientes procedende poblaciones con distribuciones contínuas idénticas contra la hipótesis alternativa de que laspoblaciones difieren en algún aspecto, que puede ser tanto la tendencia central como cualquier otracaracterística.La prueba de Kolmogórov‐Smirnov es más poderosa que la prueba de Wald‐Wolfowitz para detectardiferencias entre distribuciones que difieren únicamente en su ubicación.La prueba de Rachas de Wald – Wolfowitz se ha ampliado para su uso con varias muestras.

En teoría de la información, iniciada por Claude Elwood Shannon, hizo importantes contribuciones ensu libro "Teoremas de codificación de la teoría de la información".

Maurice Stevenson Bartlett (1910‐2002)

Estadístico inglés, con contribuciones en análisis de datos, teoría de lainferencia estadística y análisis multivariado. Conocido por  la "Prueba deBartlett" para estudiar la homocedasticidad (homogeneidad).En análisis de la varianza ANOVA se supone que las varianzas de k muestrasprovienen de poblaciones con la misma varianza (homocedasticidad), la"Prueba de Bartlett" se utiliza para verificar esta suposición.

La prueba es sensible a las desviaciones de la normalidad, cuando las muestras provienen dedistribuciones no normales, entonces la prueba de Bartlett puede ser simplemente para probar lano‐normalidad.  La "Prueba de Levene" y  la  "Prueba Brown‐Forsythe", menos sensibles a lasdesviaciones de la normalidad, son alternativas a la "Prueba de Bartlett".

Wilson Allen Wallis (1912‐1998)

Economista y estadístico estadounidense,  conocido por la "Prueba Kruskal‐Wallis",desarrollada junto a William Kruskal, método no paramétrico para probar si ungrupo de datos proviene de la misma población. Intuitivamente, es idéntico alANOVA con los datos reemplazados por categorías. Es una extensión de la pruebade la "U de Mann‐Whitney " para tres o más grupos.

Al ser una prueba no paramétrica, no asume normalidad en los datos, en oposición al tradicionalANOVA. Sí asume, bajo la hipótesis nula, que los datos vienen de la misma distribución, violando conel supuesto el principio de  heterocedasticidad  (la varianza de los errores no es constante en todaslas observaciones realizadas).

Page 35: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 33

Milton Friedman (1912‐2006)

Economista y  estadístico estadounidense,  uno de los economistas másinfluyentes del siglo XX. Fundador de la Escuela de Economía de Chicago(defensora del libre mercado), junto a Ludwig Von Mises y Friedrich Hayek.Premio Nobel de Economía de 1976.

Desarrolló  la "Prueba de Friedman", prueba no paramétrica de comparación de tres o más muestrasrelacionadas.  Se utiliza para comparar más de dos mediciones de rangos (medianas) y determinarque la diferencia no se deba al azar (que la diferencia sea estadísticamente significativa).El método consiste en ordenar los datos (considerando la existencia de datos idénticos) por filas obloques, reemplazándolos por su respectivo orden.

Howard  Levene (1914‐2003)

Estadístico y genetista estadounidense, conocido por desarrollar la "Prueba deLevene", utilizada para probar homocedasticidad  (homogeneidad) de las varianzasde dos o más poblaciones, se basa en la distribución F.

Algunos procedimientos estadísticos asumen que las varianzas de las poblaciones de las que seextraen diferentes muestras son iguales, la prueba de Levene evalúa este supuesto.Cuando el p‐valor resultante de la prueba es inferior a cierto nivel de significación (típicamente 0,05)se rechaza la hipótesis nula de igualdad de varianzas.

John Wilder Tukey (1915‐2000)

Estadístico estadounidense, conocido por introducir el algoritmo para el cálculode la Transformada de Fourier discreta y trabajos en topología. Acuñó muchostérminos estadísticos que actualmente son de uso común.En 1946 introdujo la palabra "bit" como contracción de "dígito binario".

En 1958, en el American Mathematical Monthly,  planteó  por primera vez el término "Software deComputación" (Computer Software).

Creó el método "Lines Media‐Media" para obtener la línea de regresión.

En 1970, contribuyó significativamente en la "Estimación Jackknife", técnica para corregir el sesgo deestimación, aproximación lineal del Bootstrapping.

En 1977 introdujo el diagrama de caja y bigotes o Blox plot.

Propuso el uso de la mediana móvil (running median) para el análisis de series de tiempos, quederivó en el filtro mediano, usado en el tratamiento de señales en ingeniería, y también en eltratamiento de imágenes como filtro alisador (smoothing filter).

Incorporó la "Prueba Tukey" para comparar la media entre cada combinación de grupos por pares,utilizada conjuntamente con ANOVA, en experimentos que implican un número elevado decomparaciones.  Su cálculo resulta sencillo porque define un solo comparador, resultante delproducto del error estándar de la media por el valor tabular en la tabla de Tukey, usando comonumerador el número de tratamientos y como denominador los grados de libertad del error.

La prueba Tukey se usa en experimentos que implican un número elevado de comparaciones demedias o se desea usar un test más riguroso que la "Prueba Duncan".

Se conoce como "Prueba de Tukey‐Kramer" cuando las muestras no tienen el mismo número dedatos.

Page 36: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 34

Donald Ransom Whitney  (1915‐2007)

Matemático y estadístico estadounidense, conocido por desarrollar la prueba noparamétrica "U de Mann‐Whitney", junto con Henry Berthold Mann, que se aplicaa muestras independientes para comparar dos grupos (o condiciones otratamientos). Es el equivalente no paramétrico de la Prueba t de Student.

Mientras que la "Prueba de rango o signo de Frank Wilcoxon" se aplica a muestras emparejadas odependientes.

Donald Allan Darling (1915‐2014)

Estadístico estadounidense, en 1952 publicó la  prueba no paramétrica de"Anderson‐Darling", junto a Theodore Wilbur Anderson, que determina si unamuestra de datos dada se ajusta a una distribución de probabilidad conocida.

Es una de las tres pruebas no paramétricas diseñadas para detectar la normalidad de los datos, juntoa las pruebas de "Kolmogórov‐Smirnov" y  de "Shapiro‐Wilk".

La prueba de "Anderson‐Darling" se ve gravemente afectada con los empates en los datos debido ala poca precisión. Cuando existe un número significativo de vínculos, rechazará con frecuencia losdatos como no normales, independientemente de que se ajusten a la distribución normal.

Sidney Siegel (1916‐1961)

Psicólogo estadounidense conocido por su trabajo en la divulgación de estadísticas noparamétricas para su uso en las ciencias del comportamiento. Publicó en 1960, en elJournal of the American Statistical Association, junto a John Wilder Tukey, la pruebaestadística no paramétrica "Siegel‐Tukey" con aplicación a datos medidos al menos enuna escala ordinal. Prueba las diferencias de escala entre dos grupos.

La prueba determina si uno de los dos grupos de datos tiende a tener valores más dispersos que elotro. En consecuencia, la prueba determina si uno de los dos grupos tiende a moverse, a veces a laderecha, a veces a la izquierda, pero alejándose del centro (de la escala ordinal).

Herbert Alexander Simon (1916‐2001)

Economista, politólogo y teórico de las ciencias sociales estadounidense. Nobel deEconomía en 1978. Es innovador en teoría de juegos y estrategias racionales. Susprincipales contribuciones fueron en los campos del equilibrio general y laeconometría.

Pionero en el campo de la inteligencia artificial, creó con Allen Newell,  los programas Logic TheoryMachine (1956) y General Problem Solver (GPS) (1957).  Desarrolló, junto a Edward Feigenbaum(padre de los sistemas expertos), la teoría EPAM (Perceptor Elemental y Memorizador), una de lasprimeras teorías del aprendizaje que se implementará como un programa de computadora.

El trabajo de Simon ha influido fuertemente en John Mighton, impulsor de un programa que halogrado un éxito significativo en la mejora del rendimiento en matemáticas entre los estudiantes deprimaria y secundaria.

Page 37: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 35

Theodore Wilbur Anderson (1916‐2016)

Matemático y estadístico estadounidense que se especializó en el análisis de datosmultivariados. En 1958 publicó el libro "Una introducción al análisis multivariante",convirtiéndose en una guía para generaciones de estadísticos teóricos, planteandola prueba de hipótesis a través de pruebas de razón de verosimilitud y propiedadesde las funciones de potencia.

Planteó, junto a Donald Allan Darling, la  prueba de "Anderson‐Darling", que determina si unamuestra de datos dada se ajusta a una distribución de probabilidad conocida.

Estructuró, junto al estadístico indio Raghu Raj Bahadur, el algoritmo "Anderson‐Bahadur ", que seutiliza en estadística e ingeniería para resolver problemas de clasificación binaria cuando los datossubyacentes tienen distribuciones normales multivariadas con diferentes matrices de covarianza.

Leonard Jimmie Savage (1917‐1971)

Matemático estadounidense, en 1954 publica "The Foundations of Statistics",  dondeexpone ideas sobre la estadística bayesiana y, en particular, explica su teoría de laprobabilidad subjetiva y una función de utilidad (von Neumann y Oskar Morgensternhabían introducido un caso especial de función de utilidad en Teoría de Juegos).

En varios artículos se relaciona con la inferencia estadística,  introdujó pruebas de hipótesisbayesianas y la estimación bayesiana,  oponiéndose a las opiniones de Ronald Fisher y Jerzy Neyman.

En Teoría de la Decisión propuso el "Modelo de Savage" o mínima penalización,  que se basa en unadualidad, se busca la máxima ganancia a través de la mínima perdida. Para cada una de lassoluciones hay diferentes  resultados,  se consideran todos los escenarios (columnas)  comoreferente y dentro de éstos, para cada solución se elige el mayor valor para restarlo de cada valordentro de esa misma columna.

Pierre Simon Laplace planteó en 1825 el criterio de "Razón insuficiente", como a priori no existeninguna razón para suponer que un estado se puede presentar antes que los demás, se puedeconsiderar que todos los estados tienen la misma probabilidad de ocurrencia.  Es decir, la ausenciade conocimiento sobre el estado de la naturaleza equivale a afirmar que todos los estados sonequiprobables.Así, para un problema de decisión con n posibles estados de la naturaleza, se asigna la probabilidad1/n a cada uno de ellos.

Leonid Hurwicz  (1917‐2008)

Economista y matemático de origen polaco,  con importantes contribuciones enDiseño de Mecanismos y Teoría de la Empresa. Pionero en el valor de la Teoría deJuegos y sus aplicaciones. Nobel de Economía en 2007. Trabajó con Kenneth JosephArrow (Nobel Economía, 1972) en programación no lineal.

La programación no lineal es un método que optimiza, ya sea maximizando o minimizando, unafunción objetivo teniendo en cuenta distintas restricciones dadas. Se caracteriza porque la funciónobjetivo, o alguna de las restricciones, pueden ser no lineales.

En 1951 aportó en Teoría de la Decisión el "Modelo de Hurwicz", criterio intermedio entre el modeloMaximin (pesimista) de Wald y el modelo Maximax (optimista), como hay pocas personas que sontan extremadamente pesimistas u optimistas como sugieren dichos criterios,  considera que eldecisor debe ordenar las alternativas de acuerdo con una media ponderada de los niveles deseguridad y optimismo.

Page 38: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 36

Erich Leo Lehmann (1917‐2009)

Estadístico estadounidense, con importantes contribuciones a las pruebas dehipótesis no paramétricas. Planteó el "Teorema de Lehmann–Scheffé", junto aHenry Scheffé, que determina el estimador insesgado de varianza mínima.

Formuló el "Estimador de Hodges‐Lehmann", junto a Joseph Lawson Hodges, que para  poblacionesno simétricas estima la " pseudo‐mediana". Es un estimador robusto y no paramétrico del parámetrode localización de una población.

En poblaciones que son simétricas alrededor de una mediana, como la distribución normal(Gaussiana) o la distribución t de Student, el estimador de Hodges‐Lehmann es una estimaciónconsistente y mediana de la media de la población.Para poblaciones no simétricas, el estimador de Hodges‐Lehmann estima la " pseudo‐mediana", queestá estrechamente relacionada con la mediana de la población

Se propuso originalmente para estimar el parámetro de localización de poblacionesunidimensionales, pero se ha utilizado para muchos más propósitos,  como para estimar lasdiferencias entre los miembros de dos poblaciones. Se ha generalizado a partir de poblacionesunivariadas a poblaciones multivariadas, que producen muestras de vectores.

Se basa en la "Prueba de los rangos con signo" de Frank Wilcoxon,  fue un ejemplo temprano de unestimador basado en el rango, una clase importante de estimadores tanto en estadística noparamétrica como en estadística robusta (alternativa a los métodos estadísticos clásicos).

También recibe el nombre de "Estimador de Hodges‐Lehmann‐Sen",  al ser propuestoindependientemente en 1963 por Pranab Kumar Sen y por Joseph Hodges y Erich Leo Lehmann.

Nathan Mantel (1919‐2002)

Bioestadístico estadounidense, introdujo el "Test de Mantel" de la correlaciónentre dos matrices, y la prueba de Cochran‐Mantel‐Haenszel", junto a WilliamManning Haenszel  y William Gemmell Cochran, que se utiliza en el análisis dedatos categóricos estratificados o emparejados.

La  prueba permite probar la asociación entre un tratamiento binario y un resultado binario, como elestado de caso o control, teniendo en cuenta la estratificación.  A diferencia de la prueba de QuinnMcNemar que solo puede manejar pares, la prueba CMH maneja tamaños arbitrarios de estratos.

La prueba de Cochran Mantel‐Haenszel (CMH) y sus extensiones pueden combinar datos de variasfuentes o grupos evitando la confusión. A menudo se utiliza en estudios observacionales en los queno se puede controlar la asignación aleatoria de sujetos a diferentes tratamientos, pero se puedenmedir las covariables de confusión.

William Henry Kruskal (1919‐2005)

Matemático y estadístico estadounidense, introdujo en estadística no paramétrica,junto a Wilson Allen Wallis, la prueba de "Kruskal‐Wallis",  que prueba si un grupo dedatos proviene de la misma población.

Intuitivamente, es idéntico al ANOVA con los datos reemplazados por categorías. Es una extensión dela prueba de la "U de Mann‐Whitney" para 3 o más grupos

Al ser una prueba no paramétrica no asume la normalidad en los datos, en oposición al tradicionalANOVA, este supuesto se esquiva con datos heterocedásticos (la varianza de los errores no esconstante en todas las observaciones realizadas).

Page 39: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 37

George Edward Pelham Box (1919‐2013)

Estadístico británico, trabajó en las áreas de control de calidad, análisis de seriestemporales, diseño de experimentos, y la inferencia bayesiana. Es una de lasmentes más brillantes de la estadística del siglo XX.Publicó, junto a George Tiao, "Bayesian Inference in Statistical Analysis”,  libroinfluyente en muchos estadísticos.

En análisis discriminante introdujo, la  prueba "M de Box" compara la covarianza entre grupos,contrasta la igualdad de las matrices de varianzas‐covarianzas poblacionales.

En series temporales, la prueba "Q de Ljung‐Box", junto a Greta Marianne Ljung.

En diseño de experimentos, la prueba "Box‐Behnken", junto a Donald Behnken, para mejorar elrendimiento del análisis conjunto en estudios experimentales de mercado.

Edward Lynn Kaplan  (1920‐2006)

Matemático estadounidense. En 1958,  junto a Paul Meier, desarrolló el método de"Kaplan‐Meier", estimador no paramétrico de la función de supervivencia, unmétodo para medir cuántos pacientes sobreviven a un tratamiento médico de unaduración a otra, teniendo en cuenta que la población de la muestra cambia a lolargo de tiempo.

El estimador admite una representación gráfica por medio de una función escalonada.

En las enfermedades crónicas, tales como el cáncer, la supervivencia se mide como una probabilidadde permanecer vivo durante una determinada cantidad de tiempo. Típicamente, el pronóstico delcáncer se valora determinando el porcentaje de pacientes que sobrevive al menos cinco añosdespués del diagnóstico.

La prueba de "Kaplan‐Meier" calcula la supervivencia cada vez que un paciente muere, se utilizacuando la muestra es menor de 30 o para muestras mayores cuando se conocen los tiemposindividuales de los censurados y no censurados.

Calyampudi Radhakrishna Rao (1920 ‐ )

Estadístico indio, alumno de Ronald Aylmer Fisher, hizo aportaciones en la calidad delos estimadores, como  la "Cota de Cramér‐Rao", junto a Harald Cramér, que expresauna cota inferior para la varianza de un estimador insesgado, partiendo de lainformación de Fisher; y el "Teorema de Rao‐Blackwell", junto a David Harold

Blackwell, que transforma un estimador crudo arbitrario en uno optimizado mediante el criterio delerror cuadrático medio u otro similar.

Desarrolló trabajos en análisis multivariante y geometría diferencial.

Charles William Dunnett ( (1921‐2007)

Estadístico canadiense, introdujo el "Contraste Dunnett",  un método decomparaciones múltiples, comparando distintos tratamientos con un controlutilizado en determinados campos de investigación, por ejemplo en estudiosepidemiológicos.

El contraste de Duncan utiliza, como el test HSD (Honestly Significant Difference) de John WilderTukey, la distribución del recorrido estudentizado. Se diferencia de ese test en que su aplicación essecuencial, en el sentido de no utilizar un único valor crítico para todas las diferencias de medias,como el de Tukey, sino un valor crítico que depende del número de medias comprendido entre lasdos medias que se comparan, habiendo ordenado previamente las medias en orden creciente.

Page 40: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 38

Morton B. Brown (1921‐2014)

Introdujo en análisis de la varianza la prueba "Brown‐Forsythe" para la igualdad demedias cuando las varianzas son distintas. Se utiliza siempre que se necesita probarel supuesto de igualdad de varianzas.

Al realizar un análisis de la varianza (ANOVA) de una vía o de un factor entre grupos, se supone quelas varianzas son iguales. Cuando esto no ocurre, la prueba F de Fisher no es válida. El test de"Brown‐Forsythe" es una prueba robusta que se basa en las diferencias absolutas dentro de cadagrupo de la mediana del grupo. Es una modificación de la prueba de "Levene", que utiliza la media.

La prueba "Brown‐Forsythe" es una alternativa adecuada a la prueba de "Bartlett" para varianzasiguales, ya que no es sensible a la falta de normalidad y tamaños de muestra desiguales.

Joseph Lawson Hodges (1922‐2000)

Estadístico estadounidense, conocido por sus contribuciones con el "Estimador deHodges‐Lehmann", el algoritmo del  "Vecino más cercano", junto Evelyn Fix (1904‐1965), publicado en el innovador artículo "Discriminatory Analysis. NonparametricDiscrimination: Consistency  Properties" (Análisis discriminatorio. Discriminación noparamétrica: Propiedades de Consistencia), y el "Estimador de Hodges".

Estimador no paramétrico de "Hodges‐Lehmann", propuesto en 1963 por Joseph Lawson Hodges  yErich Leo Lehmann, es un estimador robusto de localización de una población. Para poblacionessimétricas alrededor de una mediana, como la distribución normal o la t de Student, es unaestimación consistente y mediana de la media de la población. En poblaciones no simétricas estimala "pseudo‐mediana", relacionada estrechamente con la mediana de la población.También se le conoce como el "Estimador de Hodges‐Lehmann‐Sen", al ser propuesto de formaindependiente por Pranab Kumar Sen.

El algoritmo no paramétrico del "Vecino más cercano" fue uno de los primeros algoritmos utilizadospara determinar una solución para el "problema del viajante", genera rápidamente un camino corto,pero generalmente no ideal.Un método importante que se convertiría en una pieza clave de las tecnologías del aprendizajeautomático, el algoritmo de los "k vecinos más cercanos".El algoritmo fue ampliado por Thomas M. Cover (1938‐2012),  siendo una de las principalesmotivaciones teóricas para el uso de "Métodos de Kernel" no lineales en aplicaciones de aprendizajeautomático.

El "Estimador de Hodges" es un estimador supereficiente (más preciso), alcanza una varianzaasintótica menor que estimadores eficientes regulares. En general, cualquier estimadorsupereficiente puede superar a un estimador regular como máximo en un conjunto de medidas deLebesgue cero.

El Análisis Discriminantes es una técnica multivariante de clasificación, con el objetivo de obteneruna función capaz de clasificar a un nuevo individuo a partir del conocimiento de los valores deciertas variables discriminadoras.

El Análisis Clusters y el Análisis Discriminante son métodos de clasificación de individuos encategorías. La principal diferencia entre ellos estriba en que en el análisis discriminante se conoce apriori el grupo de pertenencia, mientras que el análisis cluster sirve para formar grupos(conglomerados, clusters, racimos, etc.) lo más homogéneos posibles.

El Análisis Discriminante define una regla o esquema de clasificación que permita predecir lapoblación a la que es más probable que tenga que pertenecer una nueva observación.El "Vecino más próximo o cercano" mide la proximidad entre dos grupos calculando la distanciaentre sus objetos más próximos o la similitud entre sus objetos más semejantes.

Page 41: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 39

Martin Bradbury Wilk (1922‐2013)

Estadístico canadiense, conocido por desarrollar en 1965, junto a Samuel SanfordShapiro, la prueba no paramétrica  de "Shapiro‐Wilk" para contrastar la normalidadde un conjunto de datos (cuando el tamaño de la muestra es menor que 50, enmuestras grandes es equivalente al test de Kolmogórov‐Smirnov).

Desarrolló, con Ramanathan Gnanadesikan (1932‐2015), varias técnicas gráficas importantes para elanálisis de datos, que incluyen los gráficos de probabilidad "Q‐Q" y "P‐P".

La idea básica de los métodos "Q‐Q" y "P‐P" consiste en representar, en un mismo gráfico, los datosempíricos observados, frente a los datos que se obtendrían en una distribución normal teórica. Si ladistribución de la variable es normal, los puntos quedarán cerca de una línea recta. Es frecuenteobservar una mayor variabilidad (separación) en los extremos.

El gráfico de probabilidad "Q‐Q",  Q viene de cuantil,  es un método para el diagnóstico dediferencias de los cuantiles entre la distribución de probabilidad de una población de la que se haextraído una muestra aleatoria y la distribución normal usada para la comparación.

El gráfico de probabilidad "P‐P" es similar al "Q‐Q", la diferencia es que confronta las proporcionesacumuladas de una variable que se ha extraído una muestra aleatoria con las proporciones de unadistribución normal.

Jacob Cohen (1923‐1998)

Psicólogo y estadístico estadounidense, dio su nombre a medidas como la "kappade Cohen", "d de Cohen" y "h de Cohen".

Desarrolló trabajos sobre el poder estadístico (potencia de una prueba de hipótesis) y el tamaño delefecto (número que mide la fuerza de la relación entre dos variables en una población, o unaestimación basada en una muestra de esa cantidad), que ayudaron a sentar las basesdel metaanálisis estadístico actual y métodos de estimación de estadísticas (conjunto de métodos deanálisis de datos relacionados con los tamaños del efecto).

El Coeficiente "kappa de Cohen" es una medida que ajusta el efecto del azar en la proporción de laconcordancia observada para elementos cualitativos (variables categóricas). 

La "d de Cohen" es una medida del tamaño del efecto como diferencia de medias estandarizada.Informa de cuántas desviaciones típicas de diferencia hay entre los resultados de los dos grupos quese comparan (grupo experimental y grupo de control, o el mismo grupo antes y después de laintervención).

La "h de Cohen" es una medida de distancia entre dos proporciones o probabilidades, se puedeutilizar para describir la diferencia entre dos proporciones (pequeña, mediana o grande), determinarsi la diferencia entre dos proporciones es significativa, o para calcular el tamaño de la muestra paraun estudio futuro.Al medir la diferencia entre dos proporciones, se puede utilizar como prueba de hipótesis.Entendiendo que una diferencia estadísticamente significativa entre dos proporciones significa que,dados los datos, es probable que exista una diferencia en las proporciones de la población. Sinembargo, la diferencia puede ser demasiado pequeña para ser significativa. Por otro lado, cuantificael tamaño de la diferencia por lo que permite decidir si es significativa.

Page 42: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 40

Ingram Olkin (1924‐2016)

Estadístico estadounidense,  conocido por el desarrollo de análisis estadístico paraevaluar las políticas, en particular la educativa, y por sus contribuciones almetaanálisis, la educación estadística, el análisis multivariante, y la teoría de lamayorización. Introdujo la prueba "Kaiser‐Meyer‐Olkin (KMO)", medida de cuánadecuados son los datos para el análisis factorial.

La prueba mide la adecuación del muestreo para cada variable en el modelo y para el modelocompleto.  El estadístico es una medida de la proporción de varianza entre variables que podrían servarianza común. Cuanto menor sea la proporción, más adecuados serán sus datos para el análisisfactorial.

El Análisis Factorial (AF) y el Análisis de Componentes Principales (ACP) están muy relacionados, sonuna técnica de análisis multivariante de reducción de datos.

El método de Componentes Principales (ACP) tiene como objetivo transformar un conjunto devariables originales, en un nuevo conjunto de variables (sin perder información), combinación linealde las originales, denominadas componentes principales (factores).Trata de hallar estos componentes o factores, que se caracterizan por estar incorrelacionadas entresí, que sucesivamente expliquen la mayor parte de la varianza total. El primer factor o componenteserá aquel que explica una mayor parte de la varianza total, el segundo factor sería aquel que explicala mayor parte de la varianza restante, es decir, de la que no explicaba el primero y asísucesivamente. De este modo sería posible obtener tantos componentes como variables originalesaunque esto en la práctica no tiene sentido.

El Análisis Factorial  (AF) busca factores que expliquen la mayor parte de la varianza común,distinguiendo varianza común y varianza única.La varianza común es la parte de la variación de la variable que está compartida con las otrasvariables y se puede cuantificar con la denominada "comunalidad".  La varianza única es la parte dela variación de la variable que es propia de esa variable.

Diferencias entre ACP y AF:  El Análisis de Componentes Principales no hace distinción entre los dostipos de varianzas de AF, busca hallar combinaciones lineales de las variables originales queexpliquen la mayor parte de la variación total. Mientras que el Análisis Factorial pretende hallar unnuevo conjunto de variables, menor en número que las variables originales, que exprese lo que escomún a esas variables.

En algunos programas, como el SPSS, ambas técnicas están dentro del mismo procedimiento general.Existen varios contrastes que pueden realizarse para evaluar sí el modelo factorial (o la extracción delos factores) en su conjunto es significativo.

El test KMO (Kaiser, Meyer y Olkin) relaciona los coeficientes de correlación  jhr  y  los coeficientes de

correlación parcial  jha , entre las variables  jX y  hX .

Con un valor próximo a 1 del test KMO  se tiene una correlación alta,  con KMO 0,9≥  la correlaciónes muy buena, con KMO 0,8≥  la correlación es notable, con KMO 0,7≥  la correlación es mediana,con KMO 0,6≥  la correlación es baja, y muy baja para  KMO 0,5.<

Page 43: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 41

David Roxbee Cox (1924 ‐ )

Estadístico inglés, conocido por sus trabajos en la regresión de Cox (análisis de lasupervivencia),  procesos estocásticos, diseño experimental y análisis de databinaria. Editor de la revista Biometrika entre (1966‐1991).

La regresión de Cox, conocida como modelo del riesgo proporcional, es una técnica inferencial quese utiliza para modelar los riesgos que afectan a la supervivencia de una población de sujetos.

El modelo genera una función de supervivencia que pronostica la probabilidad de que se hayaproducido el evento de interés en un momento dado t  para determinados valores de las variablespredictoras.

La forma de la función de supervivencia y los coeficientes de regresión de los predictores se estimanmediante los sujetos observados. Después, se puede aplicar el modelo a los nuevos casos que tenganmediciones para las variables predictoras.

Señalar que la información de los sujetos censurados, es decir, aquellos que no han experimentadoel evento de interés durante el tiempo de observación, contribuye de manera útil a la estimación delmodelo.

Hubert Lilliefors Whitman (1928‐2008)

Estadístico estadounidense, conocido por introducir la "Prueba de Lilliefors. Encálculos estadísticos fue uno de los pioneros de la Tecnología Informática, a finalesde 1960 utilizó una computadora para calcular la "Distribución de Lilliefors".

Fue alumno del criptoanalista y matemático estadounidense Solomon Kullback (1907‐1994), queintrodujo, junto a Richard A. Leibler (1914‐22003), la "Divergencia Kullback‐Leibler" o "Entropíarelativa", una medida de cómo una distribución de probabilidad es diferente de una segundadistribución de probabilidad de referencia.

La "Prueba de Lilliefors" es una prueba de normalidad basada en la prueba de "Kolmogórov‐Smirnov", que utiliza para probar la hipótesis nula de que los datos provienen de una población condistribución normal con varianza desconocida.

Cuando la prueba de "Kolmogórov‐Smirnov" es la normal y se estiman sus parámetros, los valorescríticos se obtienen aplicando la corrección de significación propuesta por Lilliefors.

La tabla para la  "Distribución de Lilliefors" se calcula mediante el Método de Montecarlo(introducido por Stanisław Marcin Ulam y  John von Neumann).

John Forbes Nash (1928‐2015)

Matemático estadounidense, experto en teoría de juegos, geometría diferencial yecuaciones en derivadas parciales. Premio Nobel de Economía (1994) , junto aReinhard Selten y John Charles Harsanyi, y Premio Abel (2015).

Identificó puntos básicos sobre estrategias y posibilidades de predicción del comportamiento que sedan en juegos no cooperativos.

El denominado "Equilibrio de Nash" define la confrontación entre la cooperación y el deseo deobtener el máximo beneficio.

Los notables logros de Nash inspiraron a generaciones de matemáticos, estadísticos, economistas ycientíficos. Ganó un lugar especial en la historia por sus contribuciones revolucionarias en áreas tandiversas de las matemáticas como teoría de juegos, geometría, topología y ecuaciones diferencialesparciales.

Page 44: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 42

Leo Aria Goodman (1928‐2020)

Estadístico estadounidense,  conocido por desarrollar métodos estadísticos para lasciencias sociales y  herramientas para que los investigadores analicen datoscategóricos y datos de encuestas estadísticas.

Introdujo, junto a William Henry Kruskal, dos medidas basadas en la reducción del error (RPE):  La"Lambda de Goodman‐Kruskal" y  la "Tau de Goodman‐Kruskal", y una medida de correlación derango "Gamma de Goodman‐Kruskal" para variables en escala ordinal.

La "Tau de Goodman‐Kruskal" se basa en la asignación aleatoria de las categorías. Mide la mejoraporcentual en la capacidad de predicción de la variable dependiente (variable de columna o fila)dado el valor de otras variables (variables de fila o columna).

La "Lambda de Goodman‐Kruskal" se basa en las probabilidades modales. Mide la mejora porcentualen la probabilidad de la variable dependiente (variable de columna o fila) dado el valor de otrasvariables (variables de fila o columna).

La "Gamma de Goodman‐Kruskal" es una medida de la correlación de rango, mide la fuerza deasociación de los datos de tabla cruzada cuando ambas variables se miden en escala ordinal,  varíaentre  1− y  1+ , se puede interpretar como la reducción proporcional del error cometido al predecirel ordenamiento de los casos de una variable mediante el conocimiento de la ordenación en la otravariable.

Robert Hough Somers (1929‐2004)

Sociólogo y estadístico estadounidense,  en 1962 introdujo la "d de Somers", unamedida de dependencia entre variables ordinales.

Es una medida de asociación para datos ordinales, el estadístico considera que las variables puedenser simétricas o dependientes. En el primer caso, el estadístico "d de Somers" coincide con la "Tau‐bde Kendall". En el segundo supuesto, se diferencia del estadístico "Gamma" en que incluye losempates de la variable que considera dependiente.Toma valores entre ‐1 y +1, y alcanza los valores extremos cuando existe concordancia o discordanciaperfecta, valores próximos a 0 indican ausencia de asociación.

Gwilym Jenkins (1932‐1982)

Ingeniero de sistemas y estadístico británico, desarrolló, con George Edward PelhamBox, el método de "Box‐Jenkins" en el análisis de series de tiempo.

El método "Box‐Jenkins" se aplica a los modelos autorregresivos de media móvil ARMA (doscomponentes:  autorregresiva AR, y media móvil MA) o a los modelos autorregresivos integrados demedia móvil ARIMA (tres componentes: AR autorregresiva,  integrado I, y medias móviles MA) paraencontrar el mejor ajuste de una serie temporal de valores, con el objetivo de que los pronósticossean más acertados

La estimación de los parámetros de los modelos de "Box‐Jenkins" es un problema no lineal bastantecomplicado. La estimación de parámetros lo realiza un programa de software estadístico.

Page 45: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 43

Jean Paul Benzécri (1932‐2019)

Matemático y estadístico francés, desarrolló técnicas estadísticas, destacando la delanálisis de correspondencias. Fundador, entre 1960‐1990,  de la escuela francesa deanálisis estadístico de datos.

El análisis de correspondencias (AC) es una técnica multivariante descriptiva, utilizada en el estudiode tablas de contingencia y es conceptualmente similar al análisis de componentes principales, sediferencia porque identifica las dimensiones básicas mediante el análisis de tablas de contingencia ocorrespondencias obtenidas del cruce de las categorías de las variables cualitativas (escala nominal yordinal) observadas en una muestra

El análisis de correspondencias asume que las variables son nominales y permite describir lasrelaciones entre las categorías de cada variable, así como la relación entre las variables. Además, sepuede utilizar para analizar cualquier tabla de medidas de correspondencia que sean positivas.

Cuando en el estudio hay implicadas más de dos variables, se utiliza el análisis de correspondenciasmúltiple. Si se deben escalar las variables de forma ordinal, se utiliza el análisis de componentesprincipales categórico.

George C Tiao (1933 ‐ )

Economista inglés,  con importantes investigaciones en análisis bayesiano, análisisde series temporales y el estudio estadístico de los datos meteorológicos yclimatológicos. Fue uno de los creadores del prestigioso  NBER/NSF Time SeriesSeminar y el fundador de la conferencia anual Making Statistics more effective inschools of business.

Durante (1962‐1972) fue uno de los pioneros en el campo del análisis bayesiano gracias a una laborde investigación reflejada en 25 artículos en las mejores revistas de Estadística y en un libro escritoconjuntamente con George Edward Pelham Box.

La mayoría de las agencias de Estadística y  Bancos Centrales de los países  industrializados utilizansus procedimientos para desestacionalizar las series temporales económicas.

Desarrolló, junto a Box, el análisis de intervención, empleando el modelamiento ARIMA propuestoinicialmente por Box y Tiao (1965) y en 1970 por Box y Jenkins. Fue responsable del procedimientopara detectar sucesos atípicos en series temporales y evaluar sus efectos.

Desarrolló, junto a Box, el análisis de intervención. Siendo responsable del procedimiento paradetectar sucesos atípicos en series temporales y evaluar sus efectos.

Sus trabajos en el estudio de los datos meteorológicos y climatológicos han afectado a la políticaindustrial y energética de todos los países industrializados, es miembro del equipo que descubrió ymidió los cambios en la capa de ozono.

Entre otras contribuciones importantes, creó una Escuela de Investigación para promocionar elconocimiento y la investigación estadística en Asía (China y Taiwan).                                                             

Fundó The International Chinese Statistical Associationy , así como la revista Statistica Sinica, la másprestigiosa sobre Estadística creada en los últimos 50 años.

Page 46: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 44

Pranab Kumar Sen (1937 ‐ )

Estadístico indio, con importantes contribuciones a la investigación estadística,incluidas la estadística de orden, la no paramétrica,  inferencia sólida, métodossecuenciales, bioestadística, ensayos clínicos, estudios bioambientales y labioinformática. Coeditor fundador de dos revistas: Sequential Analysis y Statisticsand Decisions, y Journal of Statistical Planning and Inference.

En estadística no paramétrica introdujó, junto al econométrico holandés Henri Theil, el estimador"Theil‐Sen" para ajustar de manera robusta una línea a puntos de muestra en el plano (regresiónlineal simple) eligiendo la mediana de las pendientes de todas las líneas a través de pares de puntos.Este estimador se calcula de manera eficiente y es sensible a valores atípicos, significativamente máspreciso que la regresión lineal simple no robusta (mínimos cuadrados) para datos asimétricos yheterocedásticos, compitiendo bien contra mínimos cuadrados para datos distribuidos normalmenteen términos de poder estadístico.                                                                                                                           Se le considera la técnica no paramétrica más popular para estimar una tendencia lineal.

Desarrolló, de forma independiente a Hodges y Erich Leo Lehmann, el estimador no paramétrico de"Hodges‐Lehmann‐Sen", estimador robusto del parámetro de localización de una población.                  En poblaciones que son simétricas alrededor de una mediana, como la distribución normal o ladistribución t de Student, es un estimador consistente y mediana de la media de la población.                En poblaciones no simétricas, estima la "pseudo‐mediana", que se encuentra estrechamenterelacionada con la mediana de la población.                                                                                                        Tiene aplicaciones para estimar las diferencias entre los miembros de dos poblaciones.                            Se ha generalizado a partir de poblaciones univariadas a poblaciones multivariadas, que producenmuestras de vectores.

Bradley Efron (1938 ‐ )

Estadístico estadounidense,  en 1979 desarrolló  la técnica de remuestreoBootstrapping (o bootstrap) para aproximar la distribución en el muestreo de unestadístico. Se utiliza frecuentemente para aproximar el sesgo o la varianza de unanálisis estadístico, así como para construir intervalos de confianza o realizarcontrastes de hipótesis sobre parámetros de interés.

El bootstrap fue una de las primeras técnicas estadísticas de uso intensivo de computadoras,sustituyendo a derivaciones algebraicas con simulaciones por ordenador basadas en datos.                     Tiene un impacto importante en el campo de la estadística y prácticamente en todos los ámbitos desu aplicación.

En el mundo de Big Data, cuando no solo la ciencia, sino también la tecnología y la economía sealimentan de grandes cantidades de datos, el trabajo de David Roxbee Cox y Bradley Efron adquiereaún más importancia al trabajar con conjuntos de datos cada vez más grandes. Cox y Efronpublicaron sus contribuciones más célebres en la década de 1970.

Desarrolló métodos estadísticos que han resultado imprescindibles para obtener resultados fiablesen muchas áreas:  medicina, astrofísica, y  física de partículas.

Page 47: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 45

Page 48: Historia de la Estadística Facultad ... - estadistica.net

                                                       Portal Estadística Aplicada:  Historia de la Estadística 46

Historia de la EstadísticaFacultad Ciencias Económicas y EmpresarialesDepartamento de Economía AplicadaProfesor: Santiago de la Fuente Fernández