estadisticaIIPDF generado usando el kit de herramientas de fuente abierta mwlib. Ver http://code.pediapress.com/ para mayor información. PDF generated at: Fri, 16 Mar 2012 14:17:20 UTC Contenidos Artículos Prueba F de Fisher Distribución F Análisis de la varianza Distribución χ² Contraste de hipótesis Hipótesis nula Distribución normal Distribución de probabilidad Variable aleatoria Varianza Función de densidad de probabilidad Probabilidad Teoría de la probabilidad Distribución binomial R (lenguaje de programación) Esperanza matemática Teoría de la medida Distribución de probabilidad continua Distribución exponencial Distribución gamma Distribución t de Student Distribución de Poisson Desviación estándar Intervalo de confianza Población estadística Muestra estadística Estadístico muestral Tamaño de la muestra Teorema del límite central Ronald Fisher 1 1 3 6 9 14 15 33 35 40 43 45 50 52 55 59 61 64 66 68 69 72 76 80 83 84 86 88 91 93 Referencias Fuentes y contribuyentes del artículo Fuentes de imagen, Licencias y contribuyentes 97 99 Licencias de artículos Licencia 100 En estadística aplicada se prueban muchas hipótesis mediante el test F.Prueba F de Fisher 1 Prueba F de Fisher En estadística se denomina prueba F (de Fisher) a cualquier prueba en la que el estadístico utilizado sigue una distribución F si la hipótesis nula no puede ser rechazada. Distribución F Fisher-Snedecor Función de densidad de probabilidad Función de distribución de probabilidad Parámetros Dominio grados de libertad . quizás. El test entonces se basa en un cociente modificado de la suma de cuadrados de residuos de los dos modelos como sigue: Dadas n observaciones. el test F puede resolverse mediante un proceso directo. entre ellas: • La hipótesis de que las medias de múltiples poblaciones normalmente distribuidas y con la misma desviación estándar son iguales. uno de los cuales restringe uno o más de los coeficientes de regresión conforme a la hipótesis nula. En muchos casos. la más conocida de las hipótesis verificada mediante el test F y el problema más simple del análisis de varianza. • La hipótesis de que las desviaciones estándar de dos poblaciones normalmente distribuidas son iguales. el test F puede calcularse como El valor resultante debe entonces compararse con la entrada correspondiente de la tabla de valores críticos. Esta es. donde el modelo 1 tiene k coeficientes no restringidos. y el modelo 0 restringe m coeficientes. Se requieren dos modelos de regresión. Distribuciones relacionadas • es una distribución ji-cuadrada cuando para . d2) viene dada por para todo número real x ≥ 0. También se le conoce como distribución F de Snedecor (por George Snedecor) o como distribución F de Fisher-Snedecor. Véase el test F. y • U1 y U2 son estadísticamente independientes. Una variable aleatoria de distribución F se construye como el siguiente cociente: donde • U1 y U2 siguen una distribución chi-cuadrado con d1 y d2 grados de libertad respectivamente.Distribución F 2 Función de densidad (pdf) Función de distribución (cdf) Media para Moda para Varianza para Coeficiente de simetría para Usada en teoría de probabilidad y estadística. La función de densidad de una F(d1. la distribución F es una distribución de probabilidad continua. donde d1 y d2 son enteros positivos. ji-cuadrada y F • [4] Calcular la probabilidad de una distribución F-Snedecor con R (lenguaje de programación) . especialmente en el análisis de varianza. La distribución F aparece frecuentemente como la distribución nula de una prueba estadística. y B es la función beta. La función de distribución es donde I es la función beta incompleta regularizada. t. Enlaces externos • Tabla de valores críticos de una distribución F [1] • Prueba de significación mediante la distribución F [2] • Distribution Calculator [3] Calcula las probabilidades y valores críticos para las distribuciones normal. a la función de pronóstico la podemos llamar "Y prima": Podemos resumir que las puntuaciones observadas equivalen a las puntuaciones esperadas. y X el valor que toma la variable independiente. debido al uso de la distribución F de Fisher como parte del contraste de hipótesis. según terminología inglesa) es una colección de modelos estadísticos y sus procedimientos asociados. Por tanto. sería una constante que en la recta de regresión equivale a la ordenada en el origen. el análisis de la varianza (ANOVA. gov/ div898/ handbook/ eda/ section3/ eda3673. php Análisis de la varianza En estadística. ANalysis Of VAriance. en el cual la varianza está particionada en ciertos componentes debidos a diferentes variables explicativas..1: Por tanto. nist. htm http:/ / home. com/ mestadisticos/ T7DContinuas/ node17. podemos operar con esta ecuación de la siguiente forma: 1) Restamos a ambos lados de la ecuación (para mantener la igualdad) la media de la variable dependiente: 2) Substituimos el error por la ecuación resultante de despejar la ecuación 1.Distribución F 3 Referencias [1] [2] [3] [4] http:/ / www. El primer concepto fundamental es que todo valor observado puede expresarse mediante la siguiente función: Donde Y sería el valor observado (variable dependiente). vias. net/ sisa/ signhlp. y es una variable aleatoria que añade a la función cierto error que desvía la puntuación observada de la puntuación pronosticada. html http:/ / cajael. clara. más el error aleatorio: (1. Y reorganizando la ecuación: Ahora hay que tener en cuenta que la media de las puntuaciones observadas es exactamente igual que la media de las puntuaciones pronosticadas: Por tanto: . itl. Fisher en los años 1920 y 1930 y es algunas veces conocido como "Anova de Fisher" o "análisis de varianza de Fisher". Las técnicas iniciales del análisis de varianza fueron desarrolladas por el estadístico y genetista R.1) Sabiendo este concepto. A. Introducción El análisis de la varianza parte de los conceptos de regresión lineal.. htm http:/ / www. org/ simulations/ simusoft_distcalc. es otra constante que equivale a la pendiente de la recta. la idea básica del análisis de la varianza es comparar la variación total de un conjunto de muestras y descomponerla como: Donde: es un número real relacionado con la varianza. (Modelo 1) 2. El Modelo de efectos mixtos describen situaciones que éste puede tomar. es un número real relacionado con la varianza. El Modelo de efectos aleatorios asume que los datos describen una jerarquía de diferentes poblaciones cuyas diferencias quedan restringidas por la jerarquía. que es el caso más sencillo. Visión general Existen tres clases conceptuales de estos modelos: 1. no se anulen: 4 Y desarrollamos el cuadrado: Podemos ver que tenemos los numeradores de las varianzas. Ejemplo: Si el método de enseñanza es analizado como un factor que puede influir donde están presentes ambos tipos de factores: fijos y aleatorios. El Modelo de efectos fijos asume que los datos provienen de poblaciones normales las cuales podrían diferir únicamente en sus medias. (Modelo 2) 3. excepto en el último término. Así lo que un simple test a partir de la F de Snedecor puede decidir si el factor o tratamiento es estadísticamente significativo. "tratamiento" o tipo de situación. (Modelo 3) . que es una Suma Cruzada de Cuadrados (el numerador de la covarianza). Ejemplo: El experimentador ha aprendido y ha considerado en el experimento sólo tres de muchos más métodos posibles.. es el número de mediciones en cada situación se hacen o número de valores disponibles para cada valor del factor. pero al no estar divididas por el número de casos (n). que mide la variación debida al "factor". al hacer el sumatorio.Análisis de la varianza Podemos ver que nos han quedado 3 puntuaciones diferenciales. Ahora las elevamos al cuadrado para que posteriormente. que mide la variación dentro de cada "factor". la covarianza entre el error y la variable independiente es cero). En el caso de que la diferencia debida al factor o tratamiento no sean estadísticamente significativa puede probarse que las varianzas muestrales son iguales: Donde: es el número de situaciones diferentes o valores del factor se están comparando. Por tanto: O lo mismo que: de un factor. "tratamiento" o tipo de situación estudiado. las llamamos Sumas de Cuadrados. el método de enseñanza es un factor aleatorio en el experimento. y la covarianza en este caso es cero (por las propiedades de la regresión lineal. Pruebas de significación El análisis de varianza lleva a la realización de pruebas de significación estadística. Tablas ANOVA Una vez que se han calculado las sumas de cuadrados. puede resultar apropiado un análisis de regresión lineal) El número de grados de libertad (gl) puede separarse de forma similar y corresponde con la forma en que la distribución chi-cuadrado (χ² o Ji-cuadrada) describe la suma de cuadrados asociada. permaneciendo la "variable respuesta" con una distribución normal. usando la denominada distribución F de Snedecor. que adopta la siguiente forma: . El ejemplo más simple es el de estimar la media desconocida de una población compuesta de individuos diferentes y en el que esas diferencias se mezclan con los errores del instrumento de medición. teóricamente infinitos. Como ejemplo.Análisis de la varianza 5 Supuestos previos El ANOVA parte de algunos supuestos que han de cumplirse: • • • • La variable dependiente debe medirse al menos a nivel de intervalo. cada uno de los cuales le afecta sólo a la media. del factor de estudio. los grados de libertad y la F. por lo que cualquier variación observada en las puntuaciones se deberá al error experimental. se procede a elaborar una tabla que reuna la información. mostramos el modelo para un ANOVA simplificado con un tipo de factores en diferentes niveles. (Si los niveles son cuantitativos y los efectos son lineales. Independencia de las observaciones. La distribución de los residuales debe ser normal. Este modelo se supone cuando el investigador se interesa únicamente por los niveles del factor presentes en el experimento. 'sum of squares') en componentes relativos a los factores contemplados en el modelo. Homocedasticidad: homogeneidad de las varianzas. La técnica fundamental consiste en la separación de la suma de cuadrados (SS. Este modelo se supone cuando el investigador está interesado en una población de niveles. Tipos de modelo Modelo I: Efectos fijos El modelo de efectos fijos de análisis de la varianza se aplica a situaciones en las que el experimentador ha sometido al grupo o material analizado a varios factores. denominada "Tabla de Análisis de varianza o ANOVA". Modelo II: Efectos aleatorios (componentes de varianza) Los modelos de efectos aleatorios se usan para describir situaciones en que ocurren diferencias incomparables en el material o grupo experimental. las medias cuadráticas. de los que únicamente una muestra al azar (t niveles) están presentes en el experimento. Probabilidad y Estadística [Schaum's Outline of Theory and Problems of Probability and Statistics]. Distribución χ² Distribución χ² (ji-cuadrado) Función de densidad de probabilidad Función de distribución de probabilidad . Análisis de la varianza». Spiegel. Madrid: La Muralla S. R. 335-371.A. pp. Schaum. A. Tejedor Tejedor (1999). «9. ISBN 84-7635-388-X.. Schiller.Análisis de la varianza 6 Fuente de variación Suma de cuadrados Grados de libertad Intergrupo t-1 Cuadrado medio F Intragrupo o Error N-t Total N-1 Referencias Bibliografía • M. Schaum (2ª edición). J. México D. • F.R. ISBN 978-970-10-4231-1.F. J. Análisis de varianza. Srinivasan (2007).: McGraw-Hill. es una distribución de probabilidad continua con un parámetro que representa los grados de libertad de la variable aleatoria donde aleatoria son variables aleatorias normales independientes de media cero y varianza uno. llamada Chi cuadrado o Ji cuadrado. Es conveniente tener en cuenta que la letra griega χ se transcribe al latín como chi[1] y se pronuncia en castellano como ji. la distribución χ² (de Pearson). El que la variable tenga esta distribución se representa habitualmente así: .Distribución χ² 7 Parámetros Dominio Función de densidad (pdf) grados de libertad Función de distribución (cdf) Media Mediana Moda Varianza Coeficiente de simetría Curtosis Entropía Función generadora de momentos (mgf) Función característica aproximadamente if for En estadística. Demostración .[2][3] Propiedades Función de densidad Su función de densidad es: donde es la función gamma. Distribución χ² 8 si Z es tipo N(0,1) viene dada por La función densidad de Despejando y teniendo en cuenta contribuciones positivas y negativas de z: La función distribución de Aplicando transformada de Laplace viene dada por su convolución Aplicando antitransformada se obtiene f(x;k) Función de distribución acumulada Su función de distribución es donde es la función gamma incompleta. El valor esperado y la varianza de una variable aleatoria X con distribución χ² son, respectivamente, k y 2k. Relación con otras distribuciones La distribución χ² es un caso especial de la distribución gamma. De hecho, Como consecuencia, cuando , la distribución χ² es una distribución exponencial de media . Cuando k es suficientemente grande, como consecuencia del teorema central del límite, puede aproximarse por una distribución normal: Aplicaciones La distribución χ² tiene muchas aplicaciones en inferencia estadística. La más conocida es la de la denominada prueba χ² utilizada como prueba de independencia y como prueba de bondad de ajuste y en la estimación de varianzas. Pero también está involucrada en el problema de estimar la media de una población normalmente distribuida y en el problema de estimar la pendiente de una recta de regresión lineal, a través de su papel en la distribución t de Student. Aparece también en todos los problemas de análisis de varianza por su relación con la distribución F de Snedecor, que es la distribución del cociente de dos variables aleatorias independientes con distribución χ². Distribución χ² 9 Referencias [1] Lectiones: Textos clasicos para aprender Latin I (http:/ / books. google. com/ books?id=ZQxvTp0CInUC& printsec=frontcover& hl=es#v=onepage& q=ch ph tomadas del griego& f=false) [2] Omniglot, greek alphabet (http:/ / www. omniglot. com/ writing/ greek. htm) [3] Omniglot, spanish alphabet (http:/ / www. omniglot. com/ writing/ spanish. htm) Enlaces externos • (http://cajael.com/mestadisticos/T7DContinuas/node7.php)Calcular la probabilidad de una distribución de Pearson con R (lenguaje de programación) Contraste de hipótesis Dentro de la inferencia estadística, un contraste de hipótesis (también denominado test de hipótesis o prueba de significación) es un procedimiento para juzgar si una propiedad que se supone cumple una población estadística es compatible con lo observado en una muestra de dicha población. Fue iniciada por Ronald Fisher y fundamentada posteriormente por Jerzy Neyman y Karl Pearson. Mediante esta teoría, se aborda el problema estadístico considerando una hipótesis determinada alternativa cierto número de experimentos. Está fuertemente asociada a los considerados errores de tipo I y II en estadística, que definen respectivamente, la posibilidad de tomar un suceso falso como verdadero, o uno verdadero como falso. Existen diversos métodos para desarrollar dicho test, minimizando los errores de tipo I y II, y hallando por tanto con una determinada potencia, la hipótesis con mayor probabilidad de ser correcta. Los tipos más importantes son los test centrados, de hipótesis y alternativa simple, aleatorizados, etc. Dentro de los tests no paramétricos, el más extendido es probablemente el test de la U de Mann-Whitney. y una hipótesis , y se intenta dirimir cuál de las dos es la hipótesis verdadera, tras aplicar el problema estadístico a un Introducción Si sospechamos que una moneda ha sido trucada para que se produzcan más caras que cruces al lanzarla al aire, podríamos realizar 30 lanzamientos, tomando nota del número de caras obtenidas. Si obtenemos un valor demasiado alto, por ejemplo 25 o más, consideraríamos que el resultado es poco compatible con la hipótesis de que la moneda no está trucada, y concluiríamos que las observaciones contradicen dicha hipótesis. La aplicación de cálculos probabilísticos permite determinar a partir de qué valor debemos rechazar la hipótesis garantizando que la probabilidad de cometer un error es un valor conocido a priori. Las hipótesis pueden clasificarse en dos grupos, según: 1. Especifiquen un valor concreto o un intervalo para los parámetros del modelo. 2. Determinen el tipo de distribución de probabilidad que ha generado los datos. Un ejemplo del primer grupo es la hipótesis de que la media de una variable es 10, y del segundo que la distribución de probabilidad es la distribución normal. Aunque la metodología para realizar el contraste de hipótesis es análoga en ambos casos, distinguir ambos tipos de hipótesis es importante puesto que muchos problemas de contraste de hipótesis respecto a un parámetro son, en realidad, problemas de estimación, que tienen una respuesta complementaria dando un intervalo de confianza (o conjunto de intervalos de confianza) para dicho parámetro. Sin embargo, las hipótesis respecto a la forma de la distribución se suelen utilizar para validar un modelo estadístico para un fenómeno aleatorio que se está estudiando. Contraste de hipótesis 10 Planteamiento clásico del contraste de hipótesis Se denomina hipótesis nula a la hipótesis que se desea contrastar. El nombre de "nula" significa “sin valor, debe identificarse con la hipótesis de no cambio (a partir de la representa la hipótesis que mantendremos a no ser que los datos nunca se considera efecto o consecuencia”, lo cual sugiere que opinión actual); no diferencia, no mejora, etc. indiquen su falsedad, y puede entenderse, por tanto, en el sentido de “neutra”. La hipótesis probada, aunque puede ser rechazada por los datos. Por ejemplo, la hipótesis de que dos poblaciones tienen la misma media puede ser rechazada fácilmente cuando ambas difieren mucho, analizando muestras suficientemente grandes de ambas poblaciones, pero no puede ser "demostrada" mediante muestreo, puesto que siempre cabe la posibilidad de que las medias difieran en una cantidad lo suficientemente pequeña para que no pueda ser detectada, aunque la muestra sea muy grande. A partir de una muestra de la población en estudio, se extrae un estadístico (esto es, una valor que es función de la muestra) cuya distribución de probabilidad esté relacionada con la hipótesis en estudio y sea conocida. Se toma entonces el conjunto de valores que es más improbable bajo la hipótesis como región de rechazo, esto es, el conjunto de valores para el que consideraremos que, si el valor del estadístico obtenido entra dentro de él, rechazaremos la hipótesis. La probabilidad de que se obtenga un valor del estadístico que entre en la región de rechazo aún siendo cierta la hipótesis puede calcularse. De esta manera, se puede escoger dicha región de tal forma que la probabilidad de cometer este error sea suficientemente pequeña. Siguiendo con el anterior ejemplo de la moneda trucada, la muestra de la población es el conjunto de los treinta lanzamientos a realizar, el estadístico escogido es el número total de caras obtenidas, y la región de rechazo está constituida por los números totales de caras iguales o superiores a 25. La probabilidad de cometer el error de admitir que la moneda está trucada a pesar de que no lo está es igual a la probabilidad binomial de tener 25 "éxitos" o más en una serie de 30 ensayos de Bernoulli con probabilidad de "éxito" 0,5 en cada uno, entonces: 0,0002, pues existe la posibilidad, aunque poco probable, que la muestra nos dé más de 25 caras sin haber sido la moneda trucada. Procedimientos de prueba Un procedimiento de prueba es una regla con base en datos muestrales, para determinar si se rechaza Ejemplo Una prueba de : p = .10 contra : p < .10, podría estar basada en el examen de una muestra aleatoria de es verdadera, E(X) = np = 200(.10) = 20, mientras, es verdadera. Un valor de x ligeramente debajo de así que es razonable rechazar solo si x es de no será rechazada si si x≤15 y no rechazar n = 200 objetos. Representamos con X el número de objetos defectuosos de la muestra, una variable aleatoria binomial; x representa el valor observado de X. si podemos esperar menos de 20 objetos defectuosos si 20 no contradice de manera contundente a . considerablemente menor que 20. Un procedimiento de prueba es rechazar x= 16, 17,…, 199 o 200. Un procedimiento de prueba se especifica por lo siguiente: otra forma. En este caso, la región de rechazo esta formada por x = 0, 1, 2, …, y 15. 1. Un estadístico de prueba: una función de los datos muestrales en los cuales se basa la decisión de rechazar o no rechazar . 2. Una región de rechazo, el conjunto de todos los valores del estadístico de prueba para los cuales rechazada. Entonces, la hipótesis nula será rechazada si y solo si el valor observado o calculado del estadístico de prueba se ubica en la región de rechazo será Contraste de hipótesis En el mejor de los casos podrían desarrollarse procedimientos de prueba para los cuales ningún tipo de error es posible. en el enfoque moderno. estamos implícitamente considerando como hipótesis alternativa “ambas poblaciones tienen distinta media”. corrientemente basada en un estadístico. Supongamos. se enfrenta a otra hipótesis que denominaremos hipótesis alternativa y que se denota . prueba o test para dichas hipótesis sería una función de la muestra de la siguiente forma: Donde debemos aceptar . En los casos en los que no se especifica es falsa”. se conoce. cuya distribución con respecto a . lo que casi nunca es práctico. la hipótesis nula. de manera explícita. a partir de una muestra de lanzamientos realizados. Podemos. no se consideran relevantes. De manera explícita o implícita. Estas probabilidades de error son representadas por α y β. Cabría realizar otras hipótesis. podemos considerar que ha quedado definida implícitamente como “ Si por ejemplo deseamos comprobar la hipótesis de que dos distribuciones tienen la misma media. La dificultad al usar un procedimiento basado en datos muestrales es que debido a la variabilidad en el muestreo puede resultar una muestra no representativa. (o que no hay evidencia estadística contra ). pero. Un buen procedimiento es aquel para el cual la probabilidad de cometer cualquier tipo de error es pequeña. Pero esto puede alcanzarse solo si una decisión se basa en un examen de toda la población. sin embargo considerar casos en los que no es la simple negación de . respectivamente. que se la denomina región de rechazo. basta con escoger el estadístico del contraste de tal manera que la probabilidad de que T(X) caiga en su interior sea baja cuando se da . A (aceptar ) y . que las hipótesis nula y alternativa tienen la formulación siguiente: Un contraste. Supongamos por ejemplo que sospechamos que en un juego de azar con un dado. a los efectos del estudio que se pretende realizar. Nuestra hipótesis nula podría ser “el dado no está trucado” que intentaremos contrastar. contra la hipótesis alternativa “el dado ha sido trucado a favor del 6”. La elección de un valor particular de corte de la región de rechazo fija las probabilidades de errores tipo I y II. Se escoge significa que debemos rechazar la hipótesis nula. En y la región de rechazo . a la que se denota habitualmente por . este está trucado para obtener 6. Un test de hipótesis se entiende. también. como una función de la muestra. esencia. para construir el test deseado. 11 Enfoque actual de los contrastes de hipótesis El enfoque actual considera siempre una hipótesis alternativa a la hipótesis nula. Supongamos que se tiene una muestra de una población en estudio y que se han formulado hipótesis sobre un parámetro Supongamos que se dispone de un estadístico relacionado con la distribución estadística de la población. aunque a veces se usan el 10% (0. cuando ésta Cuando es necesario diseñar un contraste de hipótesis. su valor se suele denotar por la letra griega α. Contraste uniformemente más potente En el caso de que las hipótesis sean compuestas. esto es. β.01) para adoptar condiciones más relajadas o más estrictas. es aumentar el tamaño muestral. α. probabilidad de error de tipo II. esto es. En este caso el Lema de Neyman-Pearson garantiza la existencia de un contraste de máxima potencia y determina cómo construirlo. esto es. que no se limiten a especificar un único posible valor del parámetro. Si se trata de contrastar dos hipótesis sencillas sobre un parámetro desconocido. esto es: En este caso. a la probabilidad de escoger es cierta . El recurso para aumentar la potencia del contraste. es preferible. se diseñan los contrastes de tal manera que la probabilidad α sea el 5% (0. sería deseable hacerlo de tal manera que las probabilidades de ambos tipos de error fueran tan pequeñas como fuera posible. las probabilidades α y β ya no están unívocamente determinadas.05). se habrá optado por una de las dos hipótesis. se denota por β la probabilidad de cometer el error de tipo II. menor probabilidad β de incurrir en el error de tipo II. disminuir la probabilidad del error de tipo I. Usualmente. sino que sean del tipo: donde y son conjuntos de varios posibles valores. α. o . conduce a incrementar la probabilidad del error de tipo II. Contraste más potente El concepto de potencia nos permite valorar cual entre dos contrastes con la misma probabilidad de error de tipo I. se denomina Potencia del contraste al valor 1-β. θ.Contraste de hipótesis 12 Errores en el contraste Una vez realizado el contraste de hipótesis. del tipo: Se trata de escoger entre todos los contrastes posibles con α prefijado aquel que tiene mayor potencia. y en las mismas condiciones.1) o 1% (0. En este caso se dice que un contraste tiene tamaño α si . con una muestra de tamaño prefijado. disminuir β. Se pueden dar los cuatro casos que se exponen en el siguiente cuadro: es cierta Se escogió Se escogió No hay error Error de tipo I es cierta Error de tipo II No hay error Si la probabilidad de cometer un error de tipo I está unívocamente determinada. esto es. sino que tomarán diferentes valores según los distintos valores posibles de θ. Sin embargo. y la decisión escogida coincidirá o no con la que en realidad es cierta. lo que en la práctica conlleva un incremento de los costes del estudio que se quiere realizar. Atolladeros del pensamiento aleatorio: Batallas en torno de la prueba estadística. es/ dep/ mate/ estadistica2/ sec1_3. para todo valor es mayor o igual que el de cualquier otro contraste del mismo tamaño. Por ello. En resumen. Se define entonces 13 y. [3] Referencias [1] http:/ / www. si la máxima probabilidad de cometer un error de tipo I cuando la hipótesis nula es cierta es α. Enlaces externos • Inferencia estadística. html [3] http:/ / carlosreynoso. la probabilidad de discriminar que la hipótesis alternativa es cierta para cada valor posible de θ dentro de los valores posibles de esta misma hipótesis. cumpliéndose determinadas propiedades de las distribuciones de probabilidad implicadas y para ciertos tipos de hipótesis. ar/ atolladeros-del-pensamiento-aleatorio-batallas-en-torno-de-la-prueba-estadistica . se puede extender el Lema para obtener el contraste uniformemente más potente del tamaño que se desee. como ensayos clínicos de nuevos medicamentos. la moderna Filosofía de la ciencia desarrolla el concepto de falsabilidad de las teorías científicas basándose en los conceptos de la inferencia estadística en general y de los contrastes de hipótesis. como la inferencia estadística en general. apuntes del Departamento de Matemáticas de la Universidad de La Coruña [1] • HESTADIS . Sin embargo. puesto que para cada posible valor de θ en la hipótesis alternativa se tendría una probabilidad distinta de cometer un error de tipo II. se puede considerar β como una función de θ. udc. Es claro que el caso del contraste uniformemente más potente para hipótesis compuestas exige el cumplimiento de condiciones más exigentes que en el caso del contraste más potente para hipótesis simples. la función de potencia del contraste es entonces esto es. html [2] http:/ / www. son herramientas de amplio uso en la ciencia en general. Se dice que un contraste es uniformemente más potente de tamaño α cuando. En particular.Contraste de hipótesis esto es. no existe un equivalente al Lema de Neyman-Pearson para el caso general. cuando se desea optar entre dos posibles teorías científicas para un mismo fenómeno (dos hipótesis) se debe realizar un contraste estadístico a partir de los datos disponibles sobre el fenómeno que permitan optar por una u otra. encuestas. com. se trata de un contraste que garantiza la máxima potencia para todos los valores de θ en la hipótesis alternativa. En estas circunstancias. Las técnicas de contraste de hipótesis son también de amplia aplicación en muchos otros casos. control de calidad. vaxasoftware. sí existen muchas condiciones en las que. com/ soft_edu/ hestadis. En este contexto.Cálculo del contraste de hipótesis para la media con varianza poblacional conocida (gratuito) [2] • Carlos Reynoso . Aplicaciones de los contrastes de hipótesis Los contrastes de hipótesis. etcétera . no habrá diferencias entre las medias de esta variable para cada región. Cuando se la utiliza. una hipótesis nula es una hipótesis construida para anular o refutar. Ejemplos • Hipótesis nula para la distribución ji-cuadrado: «Si este material genético segrega en proporciones mendelianas. O entre el muestral respecto al poblacional.» • Hipótesis nula para la distribución t de Student: «Si la humedad no influye sobre el número de huevos por desove. Enlaces externos • Carlos Reynoso: Atolladeros del pensamiento aleatorio .Hipótesis nula 14 Hipótesis nula En estadística. la hipótesis nula se presume verdadera hasta que una prueba estadística en la forma de una prueba empírica de la hipótesis indique lo contrario. no habrá diferencias entre las frecuencias observadas (Oi) y las frecuencias esperadas (Ei). con el objetivo de apoyar una hipótesis alternativa. com.Batallas en torno de la prueba estadística de la hipótesis nula en ciencias sociales [1] Referencias [1] http:/ / carlosreynoso. ar/ atolladeros-del-pensamiento-aleatorio-batallas-en-torno-de-la-prueba-estadistica/ .» Plantea la nula diferencia entre el valor observado y el especificado. Distribución normal 15 Distribución normal Distribución normal La línea verde corresponde a la distribución normal estándar Función de densidad de probabilidad Función de distribución de probabilidad Parámetros Dominio Función de densidad (pdf) Función de distribución (cdf) Media Mediana Moda Varianza Coeficiente de simetría Curtosis Entropía Función generadora de momentos (mgf) 0 0 . lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. distribución de Gauss o distribución gaussiana. a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales. La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro. Para la explicación causal es preciso el diseño experimental. caracteres fisiológicos como el efecto de un fármaco. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una supuesta "normalidad". la distribución normal aparece como el límite de varias distribuciones de probabilidad continuas y discretas. por la enorme cantidad de variables incontrolables que en ellos intervienen. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos. La distribución normal también es importante por su relación con la estimación por mínimos cuadrados. nivel de ruido en telecomunicaciones. errores cometidos al medir ciertas magnitudes. la estadística es un modelo matemático que sólo permite describir un fenómeno. En probabilidad. De hecho. cuando la distribución de la población de la cual se extrae la muestra no es normal.[1] Además. etc. sociales y psicológicos. uno de los métodos de estimación más simples y antiguos.Distribución normal 16 Función característica En estadística y probabilidad se llama distribución normal. de ahí que al uso de la estadística en psicología y sociología sea conocido como método correlacional. caracteres sociológicos como el consumo de cierto producto por un mismo grupo de individuos. Por ejemplo. la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas. caracteres psicológicos como el cociente intelectual. Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal son: • • • • • • • caracteres morfológicos de individuos como la estatura. sin explicación alguna. La distribución normal también aparece en muchas áreas de la propia estadística. Esta curva se conoce como campana de Gauss. La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales. . la distribución muestral de las medias muestrales es aproximadamente normal. el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes. también pueden darse para su definición la función de distribución.[4]Esta atribución del nombre de la distribución a una persona distinta de su primer descubridor es un claro ejemplo de la Ley de Stigler. En este caso la función de densidad tiene la siguiente expresión: . descubridor de la distribución normal El nombre de "campana" viene de Esprit Jouffret que usó el término "bell surface" (superficie campana) por primera vez en 1872 para una distribución normal bivariante de componentes independientes. Definición formal Hay varios modos de definir formalmente una distribución de probabilidad. Función de densidad Se dice que una variable aleatoria continua X sigue una distribución normal de parámetros μ y σ y se denota X~N(μ. de 1738. De forma equivalente. El nombre de "distribución normal" fue otorgado independientemente por Charles S.Distribución normal 17 Historia La distribución normal fue presentada por primera vez por Abraham de Moivre en un artículo del año 1733. que afirmaba haber usado el método desde 1794. en el contexto de cierta aproximación de la distribución binomial para grandes valores de n. más abajo. la función característica y la función generatriz de momentos.[2] que fue reimpreso en la segunda edición de su The Doctrine of Chances. Peirce. El nombre de Gauss se ha asociado a esta distribución porque la usó con profusión cuando analizaba datos astronómicos[3] y algunos autores le atribuyen un descubrimiento independiente del de De Moivre.[cita requerida] A pesar de esta terminología. Su resultado fue ampliado por Laplace en su libro Teoría analítica de las probabilidades (1812). La forma más visual es mediante su función de densidad. Laplace usó la distribución normal en el análisis de errores de experimentos. σ) si su función de densidad está dada por: donde μ (mu) es la media y σ (sigma) es la desviación estándar (σ2 es la varianza). entre otros. El importante método de mínimos cuadrados fue introducido por Legendre en 1805. Francis Galton y Wilhelm Lexis hacia 1875. Abraham de Moivre. y en la actualidad se llama Teorema de De Moivre-Laplace. otras distribuciones de probabilidad podrían ser más apropiadas en determinados contextos.[5] Se llama distribución normal "estándar" a aquélla en la que sus parámetros toman los valores μ = 0 y σ = 1. véase la discusión sobre ocurrencia. lo justificó rigurosamente en 1809 asumiendo una distribución normal de los errores. los momentos. Gauss. las cuales son todas ellas transformaciones simples de . Esto no quiere decir meramente que no se conoce. sino que se ha probado la inexistencia de tal función. expresarse así: El complemento de la función de distribución de la normal estándar. especialmente en textos de ingeniería. expresarse como: Esta función cuantil se llama a veces la función probit. 18 Función de distribución La función de distribución de la distribución normal está definida como sigue: Por tanto. Esto representa la cola de probabilidad de la distribución gaussiana. como simplemente función Q.[8] La inversa de la función de distribución de la normal estándar (función cuantil) puede expresarse en términos de la inversa de la función de error: y la inversa de la función de distribución puede.Distribución normal Su gráfica se muestra a la derecha y con frecuencia se usan . . No hay una primitiva elemental para la función probit.tablas para el cálculo de los valores de su distribución. a veces.. la función de distribución de la normal estándar es: Esta función de distribución puede expresarse en términos de una función especial llamada función error de la siguiente forma: y la propia función de distribución puede. .. se denota con frecuencia [6][7] . por consiguiente. También se usan ocasionalmente otras definiciones de la función Q. y es referida. Existen varios métodos exactos para aproximar la función cuantil mediante la distribución normal (véase función cuantil). por consiguiente. Para una distribución normal. el límite superior se obtiene como sigue: De forma similar. series de Taylor. la función característica se obtiene reemplazando t por it en la función generadora de momentos. la función generadora de momentos es: como puede comprobarse completando el cuadrado en el exponente. series asintóticas y fracciones continuas. tales como integración numérica. usando y la regla del cociente. la función característica es[9] .Distribución normal Los valores Φ(x) pueden aproximarse con mucha precisión por distintos métodos. Resolviendo para proporciona el límite inferior. De este modo. Para una distribución normal. donde i es la unidad imaginaria. Funciones generadoras Función generadora de momentos La función generadora de momentos se define como la esperanza de e(tX). Límite inferior y superior estrictos para la función de distribución Para grandes valores de x la función de distribución de la normal estándar está muy cerca de 0. Usando el cambio de variable v = u²/2. Los límites elementales es muy próxima a 1 y 19 en términos de la densidad son útiles. Función característica La función característica se define como la esperanza de eitX. 44% de la distribución. 3. dada por . entonces distribución χ² con n grados de libertad. μ + 3σ] se encuentra comprendida. 7. Distribución de probabilidad alrededor de la media en una distribución N(μ. Si distribución de Cauchy es un tipo especial de distribución cociente. μ. son variables normales estándar independientes. • Su diferencia está normalmente distribuida con • Si las varianzas de X e Y son iguales. entonces la media muestral y la varianza muestral son independientes. 2. aproximadamente. entonces: • Su suma está normalmente distribuida con U = X + Y ~ N(μx + μy. σ2) y a y b son números reales. en el intervalo [μ . 4. σx2) e Y ~ N(μy. Esta propiedad caracteriza a las distribuciones normales y contribuye a explicar por qué el test-F no es robusto respecto a la no-normalidad). Recíprocamente. 6. 9. . σy2) son variables aleatorias normales independientes. μ. a2σ2). Es simétrica respecto de su media.26% de la distribución. Los puntos de inflexión de la curva se dan para x = μ − σ y x = μ + σ. Estas propiedades son de gran utilidad para el establecimiento de intervalos de confianza. Si X ~ N(μx. el 95. La moda y la mediana son ambas iguales a la media. deben ser normales (Teorema de Crámer). en el intervalo [μ . Si son variables normales estándar independientes. σ). 5.2σ. μ + 2σ] se encuentra. 3. Por otra parte. el hecho de que prácticamente la totalidad de la distribución se encuentre a tres desviaciones típicas de la media justifica los límites de las tablas empleadas habitualmente en la normal estándar. aproximadamente. μ + σ] se encuentra comprendida. 2. aproximadamente. Distribución de probabilidad en un entorno de la media: 1. si dos variables aleatorias independientes tienen una suma normalmente distribuida.Distribución normal 20 Propiedades Algunas propiedades de la distribución normal son: 1. σx2 + σy2) (demostración). De este modo la sigue una • Su cociente sigue una distribución de Cauchy con 8. Si entonces: • Su producto e son variables aleatorias independientes normalmente distribuidas. el 68.σ. en el intervalo [μ -3σ. • La divergencia de Kullback-Leibler. por su parte. Si X ~ N(μ. entonces (aX + b) ~ N(aμ+b.74% de la distribución. sigue una distribución con densidad donde es una función de Bessel modificada de segundo tipo. el 99. . entonces U y V son independientes entre sí. como se describe más arriba. es una variable aleatoria normal tipificada de media La distribución normal estándar está tabulada (habitualmente en la forma de el valor de la función de distribución Φ) y las otras distribuciones normales pueden obtenerse como transformaciones simples. por consiguiente. Momentos Los primeros momentos de la distribución normal son: Número 0 1 2 3 4 5 6 7 8 0 0 0 0 0 0 0 0 0 1 Momento Momento central Cumulante 1 0 Todos los cumulantes de la distribución normal. entonces es una variable aleatoria normal estándar: ~ . si es una distribución normal estándar.Distribución normal 21 Estandarización de variables aleatorias normales Como consecuencia de la Propiedad 1. Una consecuencia importante de esto es que la función de distribución de una distribución normal es. σ) en una N(0. A la inversa. Los momentos centrales de orden superior (2k con μ = 0) vienen dados por la fórmula . entonces . De este modo se pueden usar los valores tabulados de la función de distribución normal estándar para encontrar valores de la función de distribución de cualquier otra distribución normal. 1) se llama normalización. más allá del segundo. estandarización o tipificación de la variable X. Si ~ . de la distribución estándar. La transformación de una distribución X ~ N(μ. es posible relacionar todas las variables aleatorias normales con la distribución normal estándar. ~ y varianza . son cero. .Distribución normal 22 El Teorema del Límite Central El Teorema del límite central establece que bajo ciertas condiciones (como pueden ser independientes e idénticamente distribuidas con varianza finita). 5. σ2 = np(1 − p). La distribución normal aproximada tiene parámetros μ = σ2 = λ. La exactitud de estas aproximaciones depende del propósito para el que se necesiten y de la tasa de convergencia a la distribución normal. . es posible encontrar n variables aleatorias independientes {X1. • Una distribución de Poisson con parámetro λ es aproximadamente normal para grandes valores de λ. Divisibilidad infinita Las normales tienen una distribución de probabilidad infinitamente divisible: Para una distribución normal X de media μ y varianza σ2 ≥ 0.. Por ejemplo: • Una distribución binomial de parámetros n y p es aproximadamente normal para Gráfica de la función de distribución de una normal con μ = 12 y σ = 3. úsese la función característica de convolución y la inducción matemática). La normal aproximada tiene parámetros μ = np. en este caso se debería aplicar una corrección de continuidad). al menos. y p no función de distribución de una binomial con n = 48 y p = 1/4 demasiado cercano a 1 ó 0 (algunos libros recomiendan usar esta aproximación sólo si np y n(1 − p) son ambos.. . . Se da el caso típico de que tales aproximaciones son menos precisas en las colas de la distribución. El Teorema de Berry-Esséen proporciona un límite superior general del error de aproximación de la función de distribución..Xn} cada una con distribución normal de media μ/n y varianza σ2/n dado que la suma X1 + . La importancia práctica del Teorema del límite central es que la función de distribución de la normal puede usarse como aproximación de algunas otras funciones de distribución. la suma de un gran número de variables aleatorias se distribuye aproximadamente como una normal. aproximando la grandes valores de n. + Xn de estas n variables aleatorias tenga esta específica distribución normal (para verificarlo. Para ser más precisos.99 0.7" o la "regla empírica". Desviación típica e intervalos de confianza Alrededor del 68% de los valores de una distribución normal están a una distancia σ < 1 (desviación típica) de la media.80703 3.7% están a tres desviaciones típicas de la media.57583 2.98 0.8906 4. Con 12 decimales. el área bajo la curva campana entre μ − nσ y μ + nσ en términos de la función de distribución normal viene dada por donde erf es la función error.28155 1.682689492137 2 0.80 0. hasta 6-σ son: 1 0.90 0.999936657516 5 0.997300203937 4 0. los valores para los puntos 1-.998 0.09023 3.95996 2.99999 1.995 0. .999999998027 La siguiente tabla proporciona la relación inversa de múltiples σ correspondientes a unos pocos valores usados con frecuencia para el área bajo la campana de Gauss. Estos valores son útiles para determinar intervalos de confianza para los niveles especificados basados en una curva normalmente distribuida (o estimadores asintóticamente normales): 0.32635 2.9999 0. μ.29052 3.999 0.Distribución normal 23 Estabilidad Las distribuciones normales son estrictamente estables.999999426697 6 0. alrededor del 95% de los valores están a dos desviaciones típicas de la media y alrededor del 99. Esto se conoce como la "regla 68-95-99.954499736104 3 0.64485 1.4172 donde el valor a la izquierda de la tabla es la proporción de valores que caerán en el intervalo dado y n es un múltiplo de la desviación típica que determina la anchura de el intervalo. 2-.95 0. y • Relación con una distribución estable: si • Distribución normal truncada. Además. un número de procedimientos de estadísticos de comportamiento están basados en la asunción de que esos resultados están normalmente distribuidos. el test de Student y el análisis de varianza (ANOVA) (véase más abajo). la función de distribución resultante para la variable gaussiana compleja Z es Distribuciones relacionadas • es una distribución de Rayleigh si son dos distribuciones normales independientes. es una distribución de Cauchy si son dos distribuciones normales independientes. si dará lugar a una variable aleatoria de media entonces truncando X por debajo de donde y y por encima de es la función de densidad de una variable normal estándar. La función de distribución de Como . stanines. • es una distribución χ² con grados de libertad si donde para donde y • • y son independientes. Por ejemplo.Distribución normal 24 Forma familia exponencial La distribución normal tiene forma de familia exponencial biparamétrica con dos parámetros naturales. y estadísticos naturales X y X2. entonces tiene una distribución normal Estadística descriptiva e inferencial Resultados De la distribución normal se derivan muchos resultados. curvas normales equivalentes. incluyendo rangos de percentiles ("percentiles" o "cuantiles"). y T-scores. es una distribución log-normal si y para . La gradación de la curva . z-scores. μ y 1/σ2. • Si es una variable aleatoria normalmente distribuida e doblada. La forma canónica tiene como parámetros y y estadísticos suficientes y Distribución normal compleja Considérese la variable aleatoria compleja gaussiana donde X e Y son variables gaussianas reales e independientes con igual varianza la variable conjunta es entonces . . entonces . Pero aquí se explota el hecho de que el valor de μ que maximiza la función de verosimilitud con σ fijo no depende de σ. No obstante.. véase más abajo). si el conjunto de datos es similar a una distribución normal.Distribución normal campana asigna grados relativos basados en una distribución normal de resultados. entonces se sustituye por μ en la función de verosimilitud y finalmente encontramos el valor de σ que maximiza la expresión resultante. La función de densidad conjunta de estas n variables aleatorias independientes es Como función de μ y σ. Xn es con alguna constante C > 0 (de la cual.. Se desea estimar la media poblacional μ y la desviación típica poblacional σ. encontramos que ese valor de μ. Habitualmente en la maximización de una función de dos variables.. La hipótesis nula es. la función de verosimilitud basada en las observaciones X1. en estos casos. se permitiría incluso que dependiera de X1. En el método de máxima verosimilitud. por lo que un P-valor suficientemente pequeño indica datos no normales. se podrían considerar derivadas parciales. 25 Tests de normalidad Los tests de normalidad se aplican a conjuntos de datos para determinar su similitud con una distribución normal... • • • • • • • • Prueba de Kolmogórov-Smirnov Test de Lilliefors Test de Anderson–Darling Test de Ryan–Joiner Test de Shapiro–Wilk Normal probability plot (rankit plot) Test de Jarque–Bera Test omnibús de Spiegelhalter Estimación de parámetros Estimación de parámetros de máxima verosimilitud Véase también: Máxima verosimilitud Supóngase que son independientes y cada una está normalmente distribuida con media μ y varianza σ 2 > 0. aunque desapareciera con las derivadas parciales de la función de log-verosimilitud respecto a los parámetros tenidos en cuenta. los valores de μ y σ que maximizan la función de verosimilitud se toman como estimadores de los parámetros poblacionales μ y σ. Xn.. Es evidente que la función de verosimilitud es una función decreciente de la suma . . En términos estadísticos los valores observados de estas n variables aleatorias constituyen una "muestra de tamaño n de una población normalmente distribuida. basándose en las valores observados de esta muestra. . en general. que es n/(n − 1) veces este estimador. Cuando sustituimos esta estimación por μ en la función de verosimilitud. . Este estimador es sesgado. y tenemos entonces Esta derivada es positiva. (Si hay solamente una observación. con una minúscula ℓ.Distribución normal 26 Así que se desea el valor de μ que minimiza esta suma. o si X1 = . refleja el hecho de que en estos casos la función de verosimilitud es ilimitada cuando σ decrece hasta cero. entonces por esta fórmula. esto es. cero o negativa según σ2 esté entre 0 y o sea igual a esa cantidad. . o mayor que esa cantidad. Xn. obtenemos Se conviene en denotar la "log-función de verosimilitud"..... Nótese que Sólo el último término depende de μ y se minimiza por Esta es la estimación de máxima verosimilitud de μ basada en las n observaciones X1. pero tiene un menor error medio al cuadrado que el habitual estimador insesgado. Sea la media muestral basada en las n observaciones. y su raíz cuadrada es el estimador de máxima verosimilitud de σ basado en las n observaciones.) Consecuentemente esta media de cuadrados de residuos es el estimador de máxima verosimilitud de σ2. el logaritmo de la función de verosimilitud. = Xn.. lo que significa que n = 1. lo cual sólo ocurre con probabilidad cero. como se asumía en la derivada de máxima verosimilitud de arriba. como queda explicado por el teorema central del límite. A continuación se muestran una lista de situaciones que estarían. Incidencia Las distribuciones aproximadamente normales aparecen por doquier. las distribuciones marginales resultantes son. aproximadamente. en efecto. Hay métodos estadísticos para probar empíricamente esta asunción. Estimación insesgada de parámetros El estimador poblacional. normales. Ello está relacionado con la teoría de errores (véase más abajo). Cuando en un fenómeno se sospecha la presencia de un gran número de pequeñas causas actuando de forma aditiva e independiente es razonable pensar que las observaciones serán "normales". Involucra el teorema espectral y la razón por la que puede ser mejor para ver un escalar como la traza de una matriz 1×1 que como un mero escalar. asociadas con eventos raros. La distribución completa será una superposición de variables normales. si hay una simple influencia externa que tiene un gran efecto en la variable en consideración. • En medidas fisiológicas de especímenes biológicos: . asociadas con preguntas sí/no. la asunción de normalidad no está tampoco justificada. que no es en general normal. El estimador de máxima verosimilitud de la varianza es insesgado si asumimos que la media de la población es conocida a priori. por ejemplo. Véase estimación de la covarianza de matrices. Hay causas que pueden actuar de forma multiplicativa (más que aditiva). No obstante. ni ésta. La distribución de las variables directamente observadas en este caso se denomina log-normal. • variables aleatorias de Poisson. ni la raíz cuadrada de la cuasivarianza muestral proporcionan un estimador insesgado para la desviación típica (véase estimación insesgada de la desviación típica para una fórmula particular para la distribución normal. cuando la variable externa se mantiene constante. Más abajo puede encontrarse una discusión detallada de cada una de ellas: • En problemas de recuento. tales como: • variables aleatorias binomiales. Esto es cierto incluso si. el test de Kolmogorov-Smirnov. es un estimador insesgado de la media 27 que sigue una distribución Gamma cuando las Xi son normales independientes e idénticamente distribuidas: con media y varianza La estimación de máxima verosimilitud de la desviación típica es la raíz cuadrada de la estimación de máxima verosimilitud de la varianza. normalmente distribuidas. Finalmente. pero en la práctica esto no ocurre. Un estimador insesgado de la varianza σ2 es la cuasi varianza muestral: de máxima verosimilitud de la media poblacional μ. Cuando disponemos de una muestra y no sabemos nada de la media o la varianza de la población de la que se ha extraído. la asunción de normalidad no está justificada y es el logaritmo de la variable en cuestión el que estaría normalmente distribuido. donde el teorema central del límite incluye una aproximación de discreta a continua y donde las distribuciones infinitamente divisibles y descomponibles están involucradas.Distribución normal Sorprendente generalización La derivada del estimador de máxima verosimilitud de la matriz de covarianza de una distribución normal multivariante es despreciable. En este caso. entonces el estimador de máxima verosimilitud de la varianza es sesgado. Una famosa observación atribuida a Gabriel Lippmann dice:[cita requerida] Todo el mundo cree en la ley normal de los errores: los matemáticos. porque suponen que es un teorema matemático Otra fuente podría ser Henri Poincaré [10]. rabos. en el modelo Black-Scholes: • Cambios en el logaritmo de Cambios en el logaritmo de tasas de cambio. • Otras medidas fisiológicas podrían estar normalmente distribuidas. en realidad estas variables exhiben colas pesadas. La asunción es que cualquier desviación de la normalidad necesita ser explicada. porque piensan que es un hecho experimental. sino que es esperada. En ese sentido. normal. pero no hay razón para esperarlo a priori. la normalidad es la única observación que no necesita ser explicada. Puede debatirse si esta asunción es válida. garras. así como las fluctuaciones térmicas que pueden observarse si la luz se analiza a una resolución suficientemente alta. un indicador de la bondad del ajuste es que el error residual (así es como se llaman los errores en esta circunstancia) sea independiente y normalmente distribuido. . y los experimentadores. altura. por consiguiente.Distribución normal • El logaritmo de las medidas del tamaño de tejidos vivos (longitud. son multiplicativas. Cuando la intensidad de la luz se integra a lo largo de grandes periodos de tiempo mayores que el tiempo de coherencia. peso). superficie de piel. Las medidas repetidas de la misma cantidad se espera que cedan el paso a resultados que están agrupados entorno a un valor particular. índices de existencias de mercado. aunque no hay razón para esperarlo a priori. índices de precios. • La luz térmica tiene una distribución de Bose-Einstein en escalas de tiempo muy breves y una distribución normal en grandes escalas de tiempo debido al teorema central del límite. La mecánica cuántica interpreta las medidas de la intensidad de la luz como un recuento de fotones. • Se asume con frecuencia que los errores de medida están normalmente distribuidos y cualquier desviación de la normalidad se considera una cuestión que debería explicarse. como puede verse en crash de las existencias de mercado. dientes) de especímenes biológicos en la dirección del crecimento. De forma similar en el ajuste de modelos estadístico. entonces los residuos tampoco estarán normalmente distribuidos. No obstante. en ambos. si los datos originales no están normalmente distribuidos (por ejemplo. por tanto. Si todas las fuentes principales de errores se han tomado en cuenta. donde la asunción natural es usar la distribución de Poisson. • Otras variables financieras podrían estar normalmente distribuidas. si siguen una distribución de Cauchy. la aproximación Poisson . Este hecho es ignorado habitualmente en la práctica. Las desviaciones de la normalidad se interpretan como indicaciones de errores sistemáticos que no han sido tomados en cuenta. se asume que el error que queda debe ser el resultado de un gran número de muy pequeños y aditivos efectos y. ajuste de modelos y teoría de errores. Es relevante para la biolgía y la economía el hecho de que los sistemas complejos tienden a mostrar la ley de potencias más que normal. no como el interés simple. • La longitud de apéndices inertes (pelo.Normal es apropiada. • Mientras que el modelo Black-Scholes presupone normalidad. Medida de errores La normalidad es la asunción central de la teoría matemática de errores. • Variables financieras. • Intensidad de la luz: • La intensidad de la luz láser está normalmente distribuida. 28 Recuento de fotones La intensidad de la luz de una sola fuente varía con el tiempo. estas variables se comportan como el interés compuesto. los indicadores financieros como valores de mercado y precios de las materias primas exhiben un "comportamiento multiplicativo". sus cambios periódicos (por ejemplo.Distribución normal 29 Características físicas de especímenes biológicos Los tamaños de los animales adultos siguen aproximadamente una distribución log-normal. Las distribuciones lognormales. a priori. la cuestión acerca de si la inteligencia en sí está normalmente distribuida es más complicada porque se trata de una variable latente y. En cualquier caso se trata de un resultado causado deliberadamente por la construcción del test o de una interpretación de las puntuaciones que sugiere normalidad para la mayoría de la población. La asunción de que el tamaño lineal de los especímenes biológicos es normal (más que lognormal) nos lleva a una distribución no normal del peso (puesto que el peso o el volumen es proporcional al cuadrado o el cubo de la longitud y las distribuciones gaussianas sólo mantienen las transformaciones lineales). cada una de las cuales está normalmente distribuida. por consiguiente. Las diferencias de tamaño debido a dimorfismos sexuales u otros polimorfismos de insectos. Esta asunción sólo es posible tras separar a hombres y mujeres en distintas poblaciones. no puede observarse directamente. Más aún. Distribuciones en tests de inteligencia A veces. por ejemplo. en realidad las variables financieras exhiben colas pesadas y así. hay algunas medidas biológicas donde se asume normalidad. de 1932. el teorema central del límite no puede aplicarse. se mantienen entre potencias. No obstante. Esta es todavía la hipótesis más comúnmente aceptada en economía. Esta aproximación se ha modificado desde entonces ligeramente. A la inversa. así que el "problema" se desvanece si se asume la lognormalidad. por consiguiente. la dificultad y número de preguntas en un test de inteligencia se selecciona de modo que proporcionen resultados normalmente distribuidos. La evidencia y explicación basada en modelos de crecimiento fue publicada por primera vez en el libro Problemas de crecimiento relativo. por otro lado. sino lognormales. El modelo normal de movimiento de activos no incluye movimientos extremos tales como quiebras financieras. las puntuaciones "en crudo" se convierten a valores que marcan el cociente intelectual ajustándolas a la distribución normal. Por otra parte. Variables financieras Ya en 1900 Louis Bachelier propuso representar los precios de cambio usando la distribución normal. quien observó que los cambios en el logaritmo durante breves periodos de tiempo (como un día) se aproximan bien por distribuciones que no tienen una varianza finita y. como la división social de las abejas en obreras. por Julian Huxley. zánganos y reinas. Se han sugerido correcciones a este modelo por parte de matemáticos como Benoît Mandelbrot. la asunción de normalidad infravalora la probabilidad de eventos extremos como quiebras financieras. Esto es un problema porque. la suma de muchos de tales cambios sigue una distribución de log-Levy. Sin embargo. . Como tales. Más aún. asumir que el peso sigue una distribución normal implica longitudes no normales. hace que la distribución de tamaños se desvíe hacia la lognormalidad. cambios anuales) no son normales. tales como la presión sanguínea en humanos adultos. A causa de la naturaleza multiplicativa del interés compuesto. no hay razón por la que cualquiera de ellas (longitud. masa corporal u otras) debería estar normalmente distribuida. Esta ecuación diferencial parcial describe el tiempo de evolución de una función de densidad bajo difusión.Distribución normal 30 Ecuación de difusión La función de densidad de la distribución normal está estrechamente relacionada con la ecuación de difusión (homogénea e isótropa) y. En alrededor del 97% de los casos usa sólo dos números aleatorios. Las desviaciones aleatorias resultantes están limitadas al rango (−6. Se conocen otros métodos más eficientes. exponenciales y números aleatorios más uniformes deberían ser empleados. Esto es bastante útil en muchas aplicaciones. 6) y tienen una densidad que es una doceava sección de una aproximación polinomial de undécimo orden a la distribución normal . la salida de un generador de números aleatorios). si la densidad de masa inicial viene dada por una función φ(x). La suma de esos 12 valores sigue la distribución de Irwin-Hall. Un algoritmo incluso más rápido es el algoritmo zigurat. Hay también alguna investigación sobre la conexión entre la rápida transformación de Hadamard y la distribución normal. son elegidos 12 para dar a la suma una varianza de uno. más arriba) es una variable aleatoria exponencial fácilmente generada (la cual corresponde a la cantidad lnU en estas ecuaciones). en ocasiones. esencialemente que toda la masa está inicialmente concentrada en un punto. Esta conexión no es coincidencia: la difusión se debe a un movimiento Browniano que queda descrito matemáticamente por un proceso de Wiener. un tipo de rechazo muestral usando logaritmos. también con la ecuación de calor. En particular.1) y réstense 6 (la mitad de 12). Sólo un 3% de los casos donde la combinación de estos dos cae fuera del "corazón del zigurat". exactamente. entonces la función de densidad de masa en el tiempo t tendrá la forma de la función de densidad de la normal. y tal proceso en un tiempo t también resultará normal con varianza creciendo linealmente con t'.[11] El método de Box-Muller dice que. Uso en estadística computacional Generación de valores para una variable aleatoria normal Para simulaciones por ordenador es útil. uno de los cuales es la transformación de Box-Muller. lo cual significa. con varianza creciendo linealmente con t. en virtud de que la transformación emplea sólo adición y sustracción y por el teorema central del límite los . un ángulo elegido uniformemente alrededor de un círculo vía la variable aleatoria V y un radio elegido para ser exponencial se transforman entonces en coordenadas x e y normalmente distribuidas. donde: Esta formulación aparece porque la distribución χ² con dos grados de libertad (véase la propiedad 4. Más generalmente. Hay varios métodos y el más básico de ellos es invertir la función de distribución de la normal estándar. desarrollado por George Marsaglia. entonces X e Y son dos variables aleatorias estándar normalmente distribuidas. por tanto. 1]. (por ejemplo. Una aproximación simple a estos métodos es programarlos como sigue: simplemente súmense 12 desviaciones uniformes (0. pero que sigue siendo exacto es el llamado algoritmo Zigurat. generar valores que podrían seguir una distribución normal. un entero aleatorio y un uniforme aleatorio. una multiplicación y un test-si . Un método mucho más rápido que la transformación de Box-Muller. Así. la función de densidad de masa para la distribución normal con esperanza 0 y varianza t satisface la ecuación de difusión: Si la densidad de masa para un tiempo t = 0 viene dada por la delta de Dirac. entonces la densidad de masa en un tiempo t vendrá dada por la convolución de φ y una función de densidad normal. si tienes dos números aleatorios U y V uniformemente distribuidos en (0. Ambos se discuten más abajo. 2. (2) Helen M. es/ books?id=IG3_b5Xm8PMC)». Eric W. reimpresión: Nueva York. org/ content/ m11537/ latest/ ) [7] http:/ / www. Nueva York: McGraw-Hill. 1756. de Knuth. google. tau. [9] M. htm [13] Andy Salter. Games. ac.781477937. « Characteristic function of the univariate normal distribution (http:/ / www. no obstante ya había sido estudiada por de Moivre» [5] Weisstein. Eric W. html)» (en inglés). il/ ~jo/ academic/ Q. b4 = −1. "Approximatio ad Summam Terminorum Binomii (a + b)n in Seriem expansi" (impreso el 12 de noviembre de 1733 en Londres para una edición privada). Siglo XXI de España Editores. b1 = 0. « B-Spline curves (http:/ / www. (4) Florence N. páginas 671-683. páginas 566-575. Referencias [1] Es una consecuencia del Teorema Central del Límite [2] Abraham de Moivre. Wolfram Research.” Isis. La Biblioteca Científica GNU calcula valores de la función de distribución normal estándar usando aproximaciones por funciones racionales a trozos.17 [12]): donde ϕ(x) es la función de densidad de la distribución normal estándar. vol. eng. “De Moivre on the law of normal probability” en David Eugene Smith. reimpresión: Londres: Cass. Lecciones de Historia de las Matemáticas (1ª (castellano) edición).) [Londres: A Millar. ac. (1995) Continuous Univariate Distributions Volume 2. b5 = 1.. Woodfall. html)». pp. [10] http:/ / en. Archibald (1926) “A rare pamphlet of Moivre and some of his discoveries. 2003 [4] Wussing. páginas 235-243. « Lección 10 (http:/ / books. Otro método de aproximación usa polinomios de tercer grado en intervalos. Gods and Gambling: A History of Probability and Statistical Ideas [Londres: Griffin. véase la sección 3. quien la descubrió -igual que Laplace. pdf)». b2 = −0. ca/ ~cbm/ aands/ page_932. S. Sanders. Este panfleto se reimprimió en: (1) Richard C.5·10−8 (algoritmo 26. sfu. Consultado el 18 de marzo de 2009.821255978. páginas 254-267. « Normal Distribution Function (http:/ / mathworld. uk/ ~dfg/ AndysSplineTutorial/ BSplines. Wiley. reimpresión: Nueva York. 190. wikiquote. The Doctrine of Chances (2ª ed. MathWorld. . Wolfram Research. wolfram.319381530. org/ wiki/ Henri_Poincaré#Misattributed [11] Johnson NL.. 8. 1959]. com/ NormalDistribution.1C. Balakrishnan N. (3ª ed.[13] El artículo sobre el lenguaje de programación bc proporciona un ejemplo de cómo computar la función de distribución en GNU bc.330274429. En esta visión se pueden combinar una serie de transformaciones de Hadamard con permutaciones aleatorias para devolver conjuntos de datos aleatorios normalmente distribuidos. Para una discusión más detallada sobre cómo calcular la distribución normal. planetmathematics. b3 = 1.2. «"La distribución normal y sus aplicaciones a la teoría de errores se asocia a menudo con el nombre de Gauss.4.Distribución normal números aleatorios de casi cualquier distribución serán transformados en la distribución normal. « Normal Distribution (http:/ / mathworld.356563782. Consultado el 05-12-2008. Por consiguiente. 1967].48) [12] http:/ / www.) [Londres: H. wolfram. Walker. 1738. pdf [8] Weisstein. Kotz S. 1929. de The Art of Computer Programming (El arte de la programación por ordenador). Apéndice 5. Consultado el 06-03-2009. . com/ NormalDistributionFunction.A. ic. 31 Aproximaciones numéricas de la distribución normal y su función de distribución La función de distribución normal se usa extensamente en computación científica y estadística. doc. [6] La función Q (http:/ / cnx. MathWorld. Abramowitz y Stegun (1964) dan la conocida como "mejor aproximación de Hastings" para Φ(x) con x > 0 con un error absoluto |ε(x)| < 7. ISBN 84-323-0966-4. 1967]. David. (3) Abraham De Moivre. ha sido implementada de varias formas.2316419. y las constantes son b0 = 0. html)» (en inglés). páginas 243-254. [3] Havil.A. A Source Book in Mathematics [Nueva York. math. 1962].independientemente. Hans (marzo de 1998). com/ CharNormal. Nueva York: Dover. vol. Equation(26. Nueva York: Chelsea. fitting distrubutions with R (http://cran.htm) • StatSoft distribution fitting (http://www.com/textbook/distribution-fitting/) • CumFreq (http://www. incluye la distribución normal. 2005 • Risksolver. automatically fit distributions and parameters to samples (http://www. Permite hacer cálculos directos e inversos.info/cumfreq.ugr.statsoft. "data analysis & simulation" • MathWorks Benelux (http://www.org/doc/contrib/Ricci-distributions-en. libre sin costo.nl/products/statistics/demos. pdf) .com.foro.htm) .resuelveproblemas.com/).com/Matematicas-La-distribución-normal) Demostración de la distribución normal • Tabla de la distribución normal (http://www. la lognormal.mathworks. raíz-normal.html?file=/products/demos/ shipping/stats/cfitdfitdemo.digitalreview.com/doc_edu/mat/dnormal.feec.html) • ModelRisk (http://www.vosesoftware.waterlog.htm).php) Calcular la probabilidad de una distribucion normal con R (lenguaje de programación) .r-project.html).pdf) Tabla de la distribución normal en formato PDF Se puede usar software y un programa de computadora para el ajuste de una distribución de probabilidad. a una serie de datos: • Easy fit (http://www.vaxasoftware.Distribución normal 32 Enlaces externos • Áreas bajo la curva normal (http://www.mathwave.ar/distribucionnormal/) Tabla conteniendo los valores de la función normal • Calculadora de probabilidades en una distribución Normal (http://www. Vito Ricci. • (http://www.com/articles/distribution_fitting. "risk modelling software" • Ricci distributions.cz/~xvapen02/vypocty/no. e intervalos de confianza a base de la distribución binomial • Calculadora Distribución normal (http://www.com/risksolver8. cuadrado-normal. php?language=espanol) • (http://cajael.es/~jsalinas/normal.com/mestadisticos/T7DContinuas/node3.stud.solver. incluyendo la normal.vutbr. suele omitirse el subíndice y se escribe. Definición de función de distribución Dada una variable aleatoria todos son puntos . . la distribución de probabilidad de una variable aleatoria es una función que asigna a cada suceso definido sobre la variable aleatoria la probabilidad de que dicho suceso ocurra.Distribución de probabilidad 33 Distribución de probabilidad En teoría de la probabilidad y estadística. cumple y Para dos números reales cualesquiera y tal que . Propiedades Como consecuencia casi inmediata de la definición. Además. es Por simplicidad. los sucesos y son mutuamente excluyentes y su unión es el suceso . cada uno de los sucesos es el rango de valores de la variable aleatoria. la distribución de probabilidad está completamente especificada por la función de distribución. simplemente. cuyo valor en cada real x es la probabilidad de que la variable aleatoria sea menor o igual que x. La distribución de probabilidad está definida sobre el conjunto de todos los sucesos. . su función de distribución. Para realizar cálculos es más cómodo conocer la distribución de probabilidad. La distribución Normal suele conocerse como la "campana de Gauss". por lo que tenemos entonces que: y finalmente Por lo tanto una vez conocida la función de distribución para todos los valores de la variable aleatoria conoceremos completamente la distribución de probabilidad de la variable. Cuando la variable aleatoria toma valores en el conjunto de los números reales. y sin embargo para ver una representación gráfica de la probabilidad es más práctico el uso de la función de densidad. la función de distribución: • Es una función continua por la derecha. • Es una función monótona no decreciente. . cuando no hay lugar a confusión. por lo que tenemos entonces que: Distribuciones de variable continua más importantes Las distribuciones de variable continua más importantes son las siguientes: • • • • • • • Distribución ji cuadrado Distribución exponencial Distribución t de Student Distribución normal Distribución Gamma Distribución Beta Distribución F Distribución normal. por lo que tenemos entonces que: Y. donde todos los elementos de un conjunto finito son equiprobables. Distribución uniforme discreta. En el caso de variable continua la distribución de probabilidad es la integral de la función de densidad. En este caso la distribución de probabilidad es la suma de la función de masa. tal como corresponde a la definición de distribución de probabilidad. Distribuciones de variable continua Se denomina variable continua a aquella que puede tomar cualquiera de los infinitos valores existentes dentro de un intervalo. A dicha función se le llama función de masa de probabilidad. que toma el valor 1 con probabilidad 1 / 2 y el valor -1 con probabilidad 1 / 2. esta expresión representa la suma de todas las probabilidades desde hasta el valor .Distribución de probabilidad 34 Distribuciones de variable discreta Se denomina distribución de variable discreta a aquella cuya función de probabilidad sólo toma valores positivos en un conjunto de valores de finito o infinito numerable. Distribución binomial. Distribuciones de variable discreta más importantes Las distribuciones de variable discreta más importantes son las siguientes: • • • • • • • • Distribución binomial Distribución binomial negativa Distribución Poisson Distribución geométrica Distribución hipergeométrica Distribución de Bernoulli Distribución Rademacher. . Dicho de otro modo. su suma). que asigna eventos (p. X y lo denotaremos RX. 1).e. Formalmente. funciones. Una variable aleatoria (v. Las variables aleatorias suelen tomar valores reales.. para su tratamiento matemático. etc. El término elemento aleatorio se utiliza para englobar todo ese tipo de conceptos relacionados. una variable aleatoria es una función. pero se pueden considerar valores aleatorios como valores lógicos. una distribución de probabilidad se usa para describir la probabilidad de que se den los diferentes valores. En gran número de experimentos aleatorios es necesario. es decir. En probabilidad y estadística. es el recorrido de la función por la que ésta queda definida: .) a números reales (p.a. los posibles resultados de tirar un dado dos veces: (1. según la aplicación X. como resultado de medición incompleta o imprecisa). una variable aleatoria o variable estocástica es una variable cuyos valores se obtienen de mediciones en algún tipo de experimento aleatorio. Los valores posibles de una variable aleatoria pueden representar los posibles resultados de un experimento aún no realizado. o los posibles valores de una cantidad cuyo valor actualmente existente es incierto (p.[1][2] Se llama rango de una v. Un concepto relacionado es el de proceso estocástico.. a la imagen o rango de la función . Intuitivamente. (1. una variable aleatoria puede tomarse como una cantidad cuyo valor no es fijo pero puede tomar diferentes valores..) X es una función real definida en el espacio muestral.Distribución de probabilidad • Distribución uniforme (continua) 35 Enlaces externos • Wikimedia Commons alberga contenido multimedia sobre Distribuciones de probabilidad. cuantificar los resultados de modo que se asigne un número real a cada uno de los resultados posibles del experimento. un conjunto de variables aleatorias ordenadas (habitualmente por orden o tiempo). Commons • Wikilibros: Estadística Variable aleatoria Una variable es aleatoria si su valor está determinado por el azar. Ω.e. al conjunto de los valores reales que ésta puede tomar. De este modo se establece una relación funcional entre elementos del espacio muestral asociado al experimento y números reales.a..a. 2)..e. el rango de una v. asociado a un experimento aleatorio. es . Definición formal La definición formal de variable aleatoria requiere ciertos conocimientos profundos de matemática (en concreto de teoría de la medida). pero no se sabe cual de los dos sucesos va a ocurrir. donde (c representa "sale cara" y x. En la mayoría de los casos se toma como espacio medible de llegada el formado por los números reales junto con la σ-álgebra de Borel (el generado por la topología usual de ). Solamente se puede decir que existe una probabilidad de que la persona enferme. una variable aleatoria real es cualquier función -medible Ejemplo Supongamos que se lanzan dos monedas al aire.Variable aleatoria 36 Definición de variable aleatoria Concepto intuitivo Una variable es aleatoria si su valor está determinado por el azar. es el conjunto . quedando pues la definición de esta manera: Dado un espacio de probabilidad donde es la σ-álgebra boreliana. esto es. En otras palabras se sabe qué valores puede tomar la variable pero no se tiene certeza de su ocurrencia. en una epidemia de cólera. Podemos asignar entonces a cada suceso elemental del experimento el número de caras obtenidas. el conjunto de resultados elementales posibles asociado al experimento. se sabe que una persona cualquiera puede enfermar o no (suceso). De este modo se definiría la variable aleatoria X como la función dada por El recorrido o rango de esta función. una aplicación es una variable aleatoria si es una aplicación -medible. Es la siguiente:[3][4] Dado un espacio de probabilidad y un espacio medible . Por ejemplo. "sale cruz"). RX. El espacio muestral. solo se sabe que puede ocurrir con cierta probabilidad. 0 y 2. . es posible. un segundo elemento. f2(y).a.y) no puede expresarse como el producto de las funciones de distribución marginales de "X" e "Y". De manera equivalente: F(x. un tercer elemento.y) no puede expresarse sólo como el producto de una función de "x" por una función de "y" (denominadas funciones de probabilidad marginal de "X" e "Y" ). donde F1(x) y F2(y) son las funciones de distribución (marginal) de "X" e "Y" respectivamente. Distribución de probabilidad de una v. también llamada función de distribución de X es la función . Para variables aleatorias independientes continuas. y así sucesivamente. describe teóricamente la forma en que varían los resultados de un experimento aleatorio. decimos que son variables aleatorias independientes si los eventos "X ≤ x". también es cierto que la función de densidad conjunta f(x. o si sus elementos se pueden enumerar en secuencia de modo que haya un primer elemento. y 2. todo valor entre.[6] (véanse las distribuciones de variable continua) • Variable aleatoria independiente: Supongamos que "X" e "Y" son variables aleatorias discretas. 3. Y = y) = P( X = x) P ( Y = y).f2(y). Si los eventos X = x / Y = y son variables aleatorias independientes. Sus probabilidades se recogen en la función de cuantía (véanse las distribuciones de variable discreta). Intuitivamente esto significa que el conjunto de posibles valores de la variable abarca todo un intervalo de números reales.y) = F1(x).a.F2(y). entonces "X" e "Y" son dependientes. En tal caso: P(X = x. es discreta si su recorrido es un conjunto discreto.y)es el producto de las funciones densidad de probabilidad marginales de "X". Es continua por la derecha. La variable del ejemplo anterior es discreta. Si "X" e "Y" son variables aleatorias continuas. Un conjunto es discreto si está formado por un número finito de elementos. es continua si su recorrido no es un conjunto numerable. Inversamente.a. Inversamente. Es monótona no decreciente.Variable aleatoria 37 Tipos de variables aleatorias Para comprender de una manera más amplia y rigurosa los tipos de variables. que asigna a cada evento definido sobre una probabilidad dada por la siguiente expresión: y de manera que se cumplan las siguientes tres condiciones: 1. De manera equivalente: f(x.a.50 m. teóricamente. e "Y ≤ y" y son eventos independientes para todo "x" e "y" . y de "Y". X. f1(x).y) = f1(x). Intuitivamente se trataría de una lista de los resultados posibles de un experimento con las probabilidades que se esperarían ver asociadas con cada resultado.[5] • Variable aleatoria discreta: una v. La distribución de probabilidad de una v. "X" e "Y" son variables aleatorias dependientes si para todo "x" e "y" su función de distribución conjunta F(x. pongamos por caso. Por ejemplo. es necesario conocer la definición de conjunto discreto. • Variable aleatoria continua: una v.a. si para todo "x" e "y" la función de probabilidad conjunta f(x. la variable que asigna la estatura a una persona extraída de una determinada población es una variable continua ya que. La distribución de probabilidad de una v. representada comúnmente como f(x). entonces P(X2 = y) = 0. El mismo procedimiento que permite ir de un espacio de puede ser utilizado para obtener la distribución de probabilidad acumulada de Si la función g es invertible. la función de distribución es la integral de la función de densidad: La función de densidad de una v. simplemente. se utiliza con el propósito de conocer cómo se distribuyen las probabilidades de un suceso o evento. y es monótona creciente.Variable aleatoria 38 Función de densidad de una v. es decir g-1 existe. La función de sea una función medible de Lebesgue. obteniendo . Si g no es invertible pero cada y tiene un número finito de raíces. entonces será también una variable aleatoria sobre probabilidad a es .a. entonces la anterior relación puede ser extendida para obtener y. o de manera inversa. trabajando de nuevo bajo las mismas hipótesis de invertibilidad de g y asumiendo además diferenciabilidad. podemos hallar la relación entre las funciones de densidad de probabilidad al diferenciar ambos términos respecto de y. por lo tanto Si y = 0. dado que la composición de funciones medibles también es medible a no . Si y < 0. continua La función de densidad de probabilidad (FDP) o. Las fórmulas de densidad no requieren que g sea creciente. Funciones de variables aleatorias Sea una variable aleatoria ser que sobre y una función medible de Borel . determina la concentración de probabilidad alrededor de los valores de una variable aleatoria continua. en relación al resultado del suceso. función de densidad.a. entonces la relación previa con la función de densidad de probabilidad puede generalizarse como donde xi = gi-1(y). entonces por lo tanto . Ejemplo Sea X una variable aleatoria real continua y sea Y = X2. La FDP es la derivada (ordinaria o en el sentido de las distribuciones) de la función de distribución de probabilidad F(x). Varianza La varianza es una medida de dispersión de una variable aleatoria como la esperanza de la transformación o bien : respecto a su esperanza . Esta definición no es en absoluto rigurosa. Estos son.a. html Definición de variable aleatoria. html http:/ / mathworld. La función de densidad o la distribución de probabilidad de una v. ya que no define una variable aleatoria. Sin embargo. Esperanza La esperanza matemática (o simplemente esperanza) o valor esperado de una v. Para una variable aleatoria discreta con valores posibles función de probabilidad la esperanza se calcula como: y sus probabilidades representadas por la Para una variable aleatoria continua la esperanza se calcula mediante la integral de todos los valores y la función de densidad : o La esperanza también se suele simbolizar con El concepto de esperanza se asocia comúnmente en los juegos de azar al de beneficio medio o beneficio esperado a largo plazo. en este mismo artículo). Es de remarcar que en la referencia no se dice en ningún momento que eso sea una definición. . hrc. fundamentalmente la esperanza y la varianza. org/ encyclopedia/ DiscreteRandomVariable. [2] La definición rigurosa de variable aleatoria exige dotar a [3] [4] [5] [6] de estructura de espacio medible e imponer a X la condición de ser función medible (véase la definición formal de variable aleatoria. com/ RandomVariable. wolfram. contiene exhaustivamente toda la información sobre la variable. es suficiente.a. sino cualquier función real. es/ bioest/ estadis_21. Si todos los sucesos son de igual probabilidad la esperanza es la media aritmética. en la mayoría de las aplicaciones prácticas. Se define Referencias [1] http:/ / www. es la suma del producto de la probabilidad de cada suceso por el valor de dicho suceso. html Véase conjunto finito para una definición más rigurosa En experimentos reales la continuidad de una variable es rarísima.Variable aleatoria 39 Parámetros de una v. http:/ / planetmath.a. Sin embargo resulta conveniente resumir sus características principales con unos cuantos valores numéricos. ya que la escasa precisión de los instrumentos de medida obliga a un conjunto discreto de valores posibles. como 2 o. La varianza tiene como valor mínimo 0. aun teniendo esperanza. se obtiene la siguiente definición alternativa (y equivalente): Si una distribución no tiene esperanza. . Fundamentos de Estadística (1ª edición). como ocurre con la de Cauchy. 200. Var(X) (también representada como simplemente σ ). es la raíz cuadrada de la varianza. • Ropero Moriones. Varianza En teoría de probabilidad. Desarrollando la definición anterior. Por ejemplo. Enlaces externos • Wikimedia Commons alberga contenido multimedia sobre Variable aleatoriaCommons. la varianza se expresa en metros al cuadrado. Existen otras distribuciones que. 688. Eva (2009). Definición Dada una variable aleatoria X con media μ = E(X). Un ejemplo de ellas es la de Pareto cuando su índice k satisface 1 < k ≤ 2. ISBN 9788492453214. Daniel (2008). pp. Manual de estadística empresarial (1ª edición). ISBN 9788420683805. En tales casos se recomienda el uso de otras medidas de dispersión más robustas. la varianza (que suele representarse como ) de una variable aleatoria es una medida de dispersión definida como la esperanza del cuadrado de la desviación de dicha variable respecto a su media. El término varianza fue acuñado por Ronald Fisher en un artículo de 1918 titulado The Correlation Between Relatives on the Supposition of Mendelian Inheritance. Delta Publicaciones. es una medida de dispersión alternativa expresada en las mismas unidades de los datos de la variable objeto de estudio. Está medida en unidades distintas de las de la variable. tampoco tiene varianza. si la variable mide una distancia en metros. carecen de varianza. pp.Variable aleatoria 40 Bibliografía • Peña Sánchez de Rivera. La desviación estándar. Hay que tener en cuenta que la varianza puede verse muy influida por los valores atípicos y no se aconseja su uso cuando las distribuciones de las variables aleatorias tienen colas pesadas. Alianza Editorial. se define su varianza. .. entonces donde y las integrales están definidas sobre el rango de X.∞) y función de densidad Tiene media μ = λ−1. Por lo tanto. xn ↦ pn. σ2 = μ2. Dado perfecto Un dado de seis caras puede representarse como una variable aleatoria discreta que toma. es decir. . . donde Cov(X.Y) es la covarianza de X e Y.Varianza 41 Caso continuo Si la variable aleatoria X es continua con función de densidad f(x). El valor esperado es (1+2+3+4+5+6)/6 = 3. . su varianza es: Es decir. Ejemplos Distribución exponencial La distribución exponencial de parámetro λ es una distribución continua con soporte en el intervalo [0. De esta propiedad se deduce que la varianza de una constante es cero. su varianza es: Propiedades de la varianza Algunas propiedades de la varianza son: • • • • siendo a y b números reales cualesquiera. valores del 1 al 6 con probabilidad igual a 1/6.Y) es la covarianza de X e Y.. Caso discreto Si la variable aleatoria X es discreta con pesos x1 ↦ p1. Por lo tanto.5. donde Cov(X. . entonces donde . cuando las muestras siguen una distribución normal. mientras que Propiedades de la varianza muestral Como consecuencia de la igualdad . De hecho. existen dos de uso corriente: y Cuando los datos están agrupados: A los dos (cuando está dividido por n y cuando lo está por n-1) se los denomina varianza muestral.Varianza 42 Varianza muestral En muchas situaciones es preciso estimar la varianza de una población a partir de una muestra. si se cumplen las . de entre todos los estimadores posibles de la varianza de la población de partida. Si se toma una muestra con reemplazamiento de n valores de ella. El primero traslada directamente la varianza de la muestra al de la población y el segundo es un estimador insesgado de la varianza de la población. tiene la distribución condiciones necesarias para la ley de los grandes números. Además. Difieren ligeramente y. s es un estimador consistente de Más aún. la diferencia es irrelevante. para valores grandes de n. por el teorema de Cochran. s2 es un estadístico insesgado de 2 . chi-cuadrado: . Por lo tanto. que puede haber distribuciones de probabilidad que carezcan de función de densidad: sucede cuando. com/ mestadisticos/ T1EDescriptiva/ node6.Varianza 43 Enlaces externos • [1]Simulación de la varianza de una variable discreta con R (lenguaje de programación) Referencias [1] http:/ / cajael. dividido por dx. simplemente. o. Además. es necesario saber qué FDP se ha utilizado e indicarlo en la documentación de evaluación de la incertidumbre. f(x). php Función de densidad de probabilidad En teoría de la probabilidad. usualmente denominada f(x) que describe la densidad de la probabilidad en cada punto del espacio de tal manera que la probabilidad de que la variable aleatoria tome un valor dentro de un determinado conjunto sea la integral de la función de densidad sobre dicho conjunto. La mayoría de las funciones de densidad de probabilidad requieren uno o más parámetros para especificarlas totalmente. donde dx es un número infinitesimalmente pequeño. la función de densidad de probabilidad. La definición formal de la función de densidad requiere de conceptos de la teoría de la medida. sin ser discretas. ≤ < = ∫ a b Pr(a x b) f (x)dx La FDP es la derivada (cuando existe) de la función de distribución: f x dF x dx ( ) = ( ) En situaciones prácticas. la FDP utilizada se elige entre un número relativamente pequeño de FDP comunes. Una función de densidad de probabilidad (FDP) es una función matemática que caracteriza el comportamiento probable de una población. La probabilidad de que una variable aleatoria continua X esté ubicada entre los valores a y b está dada por el intervalo de la FDP. Es una función f(x) que especifica la posibilidad relativa de que una variable aleatoria continua X tome un valor cercano a x. Hay que advertir que la función de densidad no es propiamente única: dos funciones distintas pueden representar la misma distribución de probabilidad si son distintas únicamente en un conjunto de medida nula. a los efectos de los inventarios. y se define como la probabilidad de que X tome un valor entre x y x+dx. . Definición Función de densidad de probabilidad para la distribución normal. y la labor estadística principal consiste en estimar sus parámetros. densidad de una variable aleatoria continua es una función. comprendido en el rango entre a y b. ƒ es una función con la propiedad de que para cada conjunto medible A. función de densidad. Si una variable aleatoria X sigue una función de probabilidad X*P su densidad con respecto a una medida de referencia μ es la derivada de Radon–Nikodym Es decir. la integral definida en dicho intervalo. php . • El área total encerrada bajo la curva es igual a 1: • La probabilidad de que tome un valor en el intervalo es el área bajo la curva de la función de densidad en ese intervalo o lo que es lo mismo.Función de densidad de probabilidad concentran su probabilidad en conjuntos de medida nula. la función de densidad es una función tal que 44 De modo que si F es la función de distribución de X. Enlaces externos • [2] Simulación de la obtención de la probabilidad en un intervalo a partir de la función de densidad de una variable continua con R (lenguaje de programación) Referencias [1] http:/ / en. como la de la distribución normal. entonces y Intuitivamente. X es una variable aleatoria real y μ es la medida de Lebesgue. Algunas FDP están declaradas en rangos de a . como ocurre normalmente en las aplicaciones. Cuando. así sucede con la distribución de Cantor cuando se toma la de Lebesgue como medida de referencia. wikipedia. La gráfica f(x) se conoce a veces como curva de densidad. org/ wiki/ Probability_density_function [2] http:/ / cajael. com/ mestadisticos/ T3VAleatorias/ node2. Propiedades De las propiedades de la función de distribución se siguen las siguientes propiedades de la fdp (a veces visto como pdf [1] del inglés): • para toda . se puede pensar que ƒ(x) dx es la probabilidad de que X asuma valores en el intervalo infinitesimal [x. x + dx]. [1] La idea de Probabilidad está íntimamente ligada a la idea de azar y nos ayuda a comprender nuestras posibilidades de ganar un juego de azar o analizar las encuestas. La reimpresión (1757) de esta memoria expone los axiomas de que los errores positivos y negativos son igualmente probables. en las circunstancias. 3. dedujo por primera vez la ley de facilidad de error. Una acción u opinión probable era una que las personas sensatas emprenderían o mantendrían. bajo condiciones suficientemente estables. que lo introdujo en su Nouvelles méthodes pour la détermination des orbites des comètes (Nuevos métodos para la determinación de las órbitas de los cometas). Dedujo una fórmula para la media de tres observaciones. pero una que llevaba a ecuaciones inmanejables. un escritor irlandés estadounidense. y expuso tres propiedades de esta curva: 1. porque la probabilidad es un soporte necesario para tomar decisiones en cualquier ámbito. . del que se conocen todos los resultados posibles. a la opinión y a la acción. La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea (póstumo. 1774). 2. pero una memoria preparada por Thomas Simpson en 1755 (impresa en 1756) aplicó por primera vez la teoría para la discusión de errores de observación. la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise Pascal (1654). un caso fortuito.Probabilidad 45 Probabilidad La probabilidad mide la frecuencia con la que se obtiene un resultado (o conjunto de resultados) al llevar a cabo un experimento aleatorio. 1713) de Jakob Bernoulli y Doctrine of Chances (1718) de Abraham de Moivre trataron el tema como una rama de las matemáticas. y que hay ciertos límites asignables dentro de los cuales se supone que caen todos los errores. Historia El diccionario de la Real Academia Española define «azar» como una casualidad. la matemática. El método de mínimos cuadrados se debe a Adrien-Marie Legendre (1805). Pierre-Simon Laplace afirmó: "Es notable que una ciencia que comenzó con consideraciones sobre juegos de azar haya llegado a el objeto más importante del conocimiento humano". Véase El surgimiento de la probabilidad (The Emergence of Probability) de Ian Hacking para una historia de los inicios del desarrollo del propio concepto de probabilidad matemática. la ciencia y la filosofía para sacar conclusiones sobre la probabilidad discreta de sucesos potenciales y la mecánica subyacente discreta de sistemas complejos. La teoría de la probabilidad se usa extensamente en áreas como la estadística. y se aplicaba en ese sentido. 1722) de Roger Cotes. Representó la ley de la probabilidad de error con una curva . Daniel Bernoulli (1778) introdujo el principio del máximo producto de las probabilidades de un sistema de errores concurrentes. la superficie cerrada es 1."[3] Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo XVI. Ignorando la contribución de Legendre. la física. "Antes de la mitad del siglo XVII. unívocamente. siendo la probabilidad del error igual a 0. También obtuvo (1781) una fórmula para la ley de facilidad de error (un término debido a Lagrange. es simétrica al eje .[2] Según Amanda Dure. haciendo cierta la existencia de un error. y afirma que la expresión «al azar» significa «sin orden». Robert Adrain. Ars Conjectandi (póstumo. editor de "The Analyst" (1808). Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la combinación de observaciones a partir de los principios de la teoría de las probabilidades. término 'probable' (en latín probable) significaba aprobable. siendo cualquier error e y su probabilidad. se discuten los errores continuos y se da una curva de la probabilidad. el eje es una asíntota. Comprender y estudiar el azar es indispensable. Christiaan Huygens (1657) le dio el tratamiento científico conocido más temprano al concepto. P(A y B) = probabilidad de ocurrencia simultanea de los eventos A y B. Demostraciones adicionales se expusieron por Laplace (1810. por lo que el valor de p cae entre 0 y 1. Regla de la adición La regla de la adición o regla de la suma establece que la probabilidad de ocurrencia de cualquier evento en particular es igual a la suma de las probabilidades individuales. W. Liagre. Richard Dedekind (1860). que dos no pueden ocurrir al mismo tiempo. La fórmula de Peters (1856) para . esta última con un alto grado de aceptación si se toma en cuenta que disminuye considerablemente las posibilidades hasta un nivel mínimo ya que somete a todas las antiguas reglas a una simple ley de relatividad. es bien conocida. Wolstenholme. Littrow (1833). la probabilidad de que un evento "no ocurra" equivale a 1 menos el valor de p y se denota con la letra q: Los tres métodos para calcular las probabilidades son la regla de la adición. Augustus De Morgan y George Boole mejoraron la exposición de la teoría. Donkin (1844. McColl. 1856) y Morgan Crofton (1870). De Morgan (1864). En la parte geométrica (véase geometría integral) los colaboradores de The Educational Times fueron influyentes (Miller. el error probable de una única observación. Hagen (1837). . Sylvestre Lacroix (1816). P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente. siendo la 46 segunda esencialmente la misma de John Herschel (1850). P(A o B) = P(A) + P(B) − P(A y B) si A y B son no excluyentes. la regla de la multiplicación y la distribución binomial. Gauss expuso la primera demostración que parece que se conoció en Europa (la tercera después de la de Adrain) en 1809. Crofton. si es que los eventos son mutuamente excluyentes. Otros personajes que contribuyeron fueron Ellis (1844). como la teoría Dempster-Shafer y la teoría de la relatividad numérica. Siendo: P(A) = probabilidad de ocurrencia del evento A. 1812). F. 1826). Watson y Artemas Martin). Por otra parte. Gauss (1823). Existen diversas formas como método abstracto. los autores de la teoría general incluían a Laplace. Adolphe Quetelet (1853).[cita requerida] La probabilidad de un evento se denota con la letra p y se expresa en términos de una fracción y no en porcentajes. Friedrich Bessel (1838). Glaisher (1872) y Giovanni Schiaparelli (1875). En el siglo XIX.Probabilidad siendo y constantes que dependen de la precisión de la observación. y Karl Pearson. Didion. Helmert (1872). es decir. James Ivory (1825. En 1930 Andréi Kolmogorov desarrolló la base axiomática de la probabilidad utilizando teoría de la medida. Hermann Laurent (1873). Expuso dos demostraciones. P(B) = probabilidad de ocurrencia del evento B. Véase también: Estadística Teoría La probabilidad constituye un importante parámetro en la determinación de las diversas casualidades obtenidas tras una serie de eventos esperados dentro de un rango estadístico. La probabilidad de que un alumno apruebe la asignatura Cálculo de Probabilidades es de 0.2312 + 0.15)10(0.15)=1.722 *10−11 +4.85)5 = 7. se requieren tres valores: el número designado de éxitos (m).− la probabilidad de que aprueben mas de 12 es P(x > 12) es decir. b.15)(1-0. Para aplicar esta distribución al calculo de la probabilidad de obtener un número dado de éxitos en una serie de experimentos en un proceso de Bermnoulli. Ejemplo: La entrada al cine por lo menos tendrá un costo de 10 soles (como mínimo podría costar 10 soles o más).2856 + 0. P(A y B) = P(A B) = P(A)P(B|A) si A y B son dependientes Distribución binomial La probabilidad de ocurrencia de una combinación específica de eventos independientes y mutuamente excluyentes se determina con la distribución binomial.47 *10−9 +3.Probabilidad 47 Regla de la multiplicación La regla de la multiplicación establece que la probabilidad de ocurrencia de dos o más eventos estadísticamente independientes es igual al producto de sus probabilidades individuales. En tal caso debemos tomar en cuenta que: P(x < m) = P(x = 0) + P(x = 1) + P(x = 2) + P(x = 3) +.− mas de 12 a..9125 .+ P(x = m − 1) P(x > m) = P(x = m+ 1) + P(x = m+ 2) + P(x = m+3) +. a lo menos y por lo menos son locuciones adverbiales sinónimas. 3.25 Y la varianza del número esperado de éxitos se puede calcular directamente: Var(x) = np(1−p)= 15(0. 1...15)10(0. La probabilidad de éxito permanece constante de ensayo a ensayo.. el número de ensayos y observaciones (n).. que: P(x > 12) = P(x = 13)+P(x = 14)+P(x = 15) P(x > 12) = 1.15. que es aquella donde hay solo dos posibilidades.1156] = 0. P(A y B) = P(A B) = P(A)P(B) si A y B son independientes.0874 + 0. En otras palabras P(x = m) = [n!/(m!(n−m)!)](pm)(1−p)n−m Ejemplo. 2..+ P(x = m) P(x ≥ m) = P(x = m) + P(x = m+1) + P(x = m+2) +.2184 + 0. Hay dos resultados posibles mutuamente excluyentes en cada ensayo u observación.38 *10−13 = 1.. tales como masculino/femenino o si/no. Entonces la probabilidad de que ocurran m éxitos en un experimento de n ensayos es: P (x = m) = (nCm)(Pm)(1−P)n−m Siendo: nCm el número total de combinaciones posibles de m elementos en un conjunto de n elementos. y la probabilidad de éxito en cada ensayo (p).[0.+ P(x = n) Supongamos que del ejemplo anterior se desea saber la probabilidad de que aprueben: a...15)=2.P(x < 5) = 1 .+ P(x = n) P(x ≤ m) = P(x = 0) + P(x = 1) + P(x = 2) + P(x = 3) +..[P(x = 0)+P(x = 1)+P(x = 2)+P(x = 3)+P(x = 4)] = 1 . Si en un semestre intensivo se inscriben 15 alumnos ¿Cuál es la probabilidad de que aprueben 10 de ellos? P(x = 10) = 15C10(0.0618 Nota: Al menos.507 *10−9 La esperanza matemática en una distribución binomial puede expresarse como: E(x) = np = 15(0. La serie de ensayos u observaciones constituyen eventos independientes.− al menos 5 b.. que: 1 .. es decir el proceso es estacionario.− la probabilidad de que aprueben al menos 5 es: P(x ≥ 5) es decir.85)5 = 10!/(10!(15−10)!)(0.68 * 10−6 Generalmente existe un interés en la probabilidad acumulada de "m o más " éxitos o "m o menos" éxitos en n ensayos. utilizan la teoría de la fiabilidad en el diseño del producto para reducir la probabilidad de avería. puede haber una probabilidad de 1 entre 52 de que la primera carta en un baraja sea la J de diamantes. Se puede decir razonablemente que el descubrimiento de métodos rigurosos para calcular y combinar los cálculos de probabilidad ha tenido un profundo efecto en la sociedad moderna. esto también supone el conocimiento de la inercia y la fricción de la ruleta. como los automóviles y la electrónica de consumo. por ej. La física moderna proporciona ejemplos importantes de situaciones determinísticas donde sólo la descripción probabilística es factible debido a información incompleta y la complejidad de un sistema así como ejemplos de fenómenos realmente aleatorios. Naturalmente. y a menudo miden el bienestar usando métodos que son estocásticos por naturaleza. (Estoy convencido de que Dios no tira el dado). Un cálculo por un mercado de materias primas en que la guerra es más probable en contra de menos probable probablemente envía los precios hacia arriba o hacia abajo e indica a otros comerciantes esa opinión. "la probabilidad de otro 11-S". Por consiguiente. o esto es. En el caso de una ruleta. entonces el número donde la bola parará será seguro. el grado de nuestra ignorancia dada una situación. Una descripción probabilística puede entonces ser más práctica que la mecánica newtoniana para analizar el modelo de las salidas de lanzamientos repetidos de la ruleta. si la fuerza de la mano y el periodo de esta fuerza es conocido. También se puede decir que la probabilidad es la medida de nuestro grado de incertidumbre. La probabilidad de avería también está estrechamente relacionada con la garantía del producto. ya que típicamente los análisis de riesgo son para una única vez y por lo tanto requieren más modelos de probabilidad fundamentales. Una ley de números pequeños tiende a aplicarse a todas aquellas elecciones y percepciones del efecto de estas elecciones. lisura y redondez de la bola. entonces la probabilidad es o bien 100% ó 0%. el peso. debido al principio de indeterminación de Heisenberg. No obstante hoy en día no existe un medio . Sin embargo. es tan complejo (con el número de moléculas típicamente del orden de magnitud de la constante de Avogadro ) que sólo la descripción estadística de sus propiedades es viable. Se puede decir que no existe una cosa llamada probabilidad. Otra aplicación significativa de la teoría de la probabilidad en el día a día es en la fiabilidad. La teoría de las finanzas conductuales surgió para describir el efecto de este pensamiento de grupo en el precio. No es correcto decir que la estadística está incluida en el propio modelado. si uno mira la primera carta y la reemplaza. Un buen ejemplo es el efecto de la probabilidad percibida de cualquier conflicto generalizado sobre los precios del petróleo en Oriente Medio . las variaciones en la velocidad de la mano durante el movimiento y así sucesivamente. Los gobiernos normalmente aplican métodos probabilísticos en regulación ambiental donde se les llama "análisis de vías de dispersión". lo que hace de las medidas probabilísticas un tema político.Probabilidad 48 Aplicaciones Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en el análisis de riesgo y en el comercio de los mercados de materias primas. La mecánica cuántica. Por consiguiente. y escogen qué proyectos emprender basándose en análisis estadísticos de su probable efecto en la población como un conjunto.que producen un efecto dominó en la economía en conjunto. Albert Einstein comentó estupendamente en una carta a Max Born: Jedenfalls bin ich überzeugt. donde el sistema determinístico en principio.[cita requerida] Otros no se conforman con la pérdida del determinismo. Los físicos se encuentran con la misma situación en la teoría cinética de los gases. y cómo contribuyen a la reputación y a las decisiones. puede ser de alguna importancia para la mayoría de los ciudadanos entender cómo se calculan los pronósticos y las probabilidades. sólo puede ser descrita actualmente a través de distribuciones de probabilidad. Algunos científicos hablan de la expulsión del paraíso. y en la paz y en los conflictos. las probabilidades no se calculan independientemente y tampoco son necesariamente muy racionales. y la elección correcta puede ser hecha con precisión por el que ve la carta. en la política. Muchos bienes de consumo. no hay probabilidad si se conocen todas las condiciones. Por consiguiente. basado en los conceptos newtonianos. especialmente en una democracia. En un universo determinista. daß der Alte nicht würfelt. lo que le da una gran importancia a las descripciones probabilísticas. [2] « Historia de la Probabilidad (http:/ / www. Diccionario de la lengua española (vigésima segunda edición). es decir. Por otra parte. (1992). estadisticaparatodos. muestra por conglomerados y muestras sistemáticas. • Edwin Thompson Jaynes. (1996). html)». lo que imposibilita la creación de un sistema de ecuaciones determinista. Cambridge University Press. aquellas que solo permiten describir. cuando la mecánica cuántica es probabilística no por el hecho de que siga procesos aleatorios sino por el hecho de no poder determinar con precisión sus parámetros fundamentales. aquellas que permiten hacer inferencias a partir de datos. 54-55. [3] Jeffrey. Las muestras de probabilidad permiten usar estadísticas inferenciales. estadisticaparatodos.albany. pp. pdf) (en inglés) . Se utilizan cuatro tipos de muestras probabilísticas: muestras aleatorias simples. 2001.es. R..wustl. Preprint: Washington University. Probability and the Art of Judgment. muestras aleatorias estratificadas.edu/etj/prob/book. Referencias [1] « azar (http:/ / buscon. Mucha gente hoy en día confunde el hecho de que la mecánica cuántica se describe a través de distribuciones de probabilidad con la suposición de que es por ello un proceso aleatorio. aquellas que el investigador pueda especificar la probabilidad de cualquier elemento en la población que investiga. 49 Investigación biomédica Véase también: Muestreo en estadística La mayoría de las investigaciones biomédicas utilizan muestras de probabilidad. es/ draeI/ SrvltConsulta?TIPO_BUS=3& LEMA=azar)». Probability Theory: The Logic of Science.html) y PDF (http://bayes. organizar y resumir datos. las muestras no probabilísticas solo permiten usarse estadísticas descriptivas.C. .Probabilidad mejor para describir la física cuántica si no es a través de la teoría de la probabilidad. es/ historia/ histo_proba. Real Academia Española. ISBN 0-521-39459-7 Enlaces externos Wikilibros • Wikilibros alberga un libro o manual sobre Probabilidades. — HTML (http://omega. rae.edu:8008/JaynesBook. donde el fenómeno no se repite en las mismas condiciones. otra vez. Esta aproximación axiomática que generaliza el marco clásico de la probabilidad. . o las finanzas (donde destaca el modelo de Black y Scholes para la valuación de acciones). Definición según la frecuencia relativa y definición axiomática La autodefinición axiomática de la probabilidad se define con base a sí misma (igualmente factible es sinónimo de igualmente autoprobable) se define la probabilidad estimada u honírica basada en la frecuencia relativa de aparición de un suceso S cuando es muy grande. así las repeticiones no garantizan una probabilidad definida.Teoría de la probabilidad 50 Teoría de la probabilidad La teoría de la probabilidad es la parte de las matemáticas que estudia los fenómenos aleatorios estocásticos. En los procesos reales que se modelizan mediante distribuciones de probabilidad corresponden a modelos complejos donde no se conocen a priori todos los parámetros que intervienen. son aquellos que se obtienen como resultado de experimentos realizados. En 1933. los cuales son resultados únicos y/o previsibles de experimentos realizados bajo las mismas condiciones determinadas. por ejemplo. la cual obedece a la regla de cálculo de casos favorables sobre casos posibles. La probabilidad de un suceso es una medida que se escribe como . bajo las mismas condiciones determinadas pero como resultado posible poseen un conjunto de alternativas. la teoría de la probabilidad encuentra aplicación en las más variadas ramas del conocimiento. Los fenómenos aleatorios. y mide con qué frecuencia ocurre algún suceso si se hace algún experimento indefinidamente. debido a que la características del material hace que no exista una simetría del mismo. así como el estudio de problemas fuera de los marcos clásicos. pero existen algunos como el lanzamiento de un dado. Borel y Frechet entre otros. Otra manera de definir la probabilidad es de forma axiomática esto estableciendo las relaciones o propiedades que existen entre los conceptos y operaciones que la componen. Actualmente. basado en la teoría de conjuntos y en la teoría de la medida. el matemático soviético Andréi Kolmogórov propuso un sistema de axiomas para la teoría de la probabilidad. por el contrario. La definición anterior es complicada de representar matemáticamente ya que debiera ser infinito. que busca determinar estos parámetros. no se reduce inmediatamente a la teoría de la probabilidad en sí. si se calienta agua a 100 grados Celsius a nivel del mar se obtendrá vapor. permitió la rigorización de muchos argumentos ya utilizados. el lanzamiento de un dado o de una moneda. Muchos fenómenos naturales son aleatorios. por ejemplo. Estos deben contraponerse a los fenómenos determinísticos. ésta es una de las razones por las cuales la estadística. desarrollada pocos años antes por Lebesgue. como puede ser la física (donde corresponde mencionar el desarrollo de las difusiones y el movimiento Browniano). ISBN 0-387-25115-4 • Kallenberg. si el evento es cierto y siempre tiene que ocurrir su probabilidad es 1. Función de densidad La función de densidad. (2002). Estadística. Bibliografía • Spiegel. La probabilidad de no ocurrencia de un evento está dada por q. es el espacio que consiste en todos los . etcétera. que hace que existan razones para creer que éste se realizará. O. Springer-Verlag. Murray. son elementos del espacio Probabilidad discreta Este tipo de probabilidad. Cuando el evento es imposible se dice que su probabilidad es 0.. o densidad de probabilidad de una variable aleatoria. que se denota por .Teoría de la probabilidad 51 Definición clásica de probabilidad La probabilidad es la característica de un evento. entonces p + q = 1 Simbólicamente el espacio de resultados. 650 pp. Probabilidad continua Una variable aleatoria es una función medible que da un valor numérico a cada suceso en . Los resultados. Springer Series in Statistics. Foundations of Modern Probability. • Olav Kallenberg. . es aquel que puede tomar sólo ciertos valores diferentes que son el resultado de la cuenta de alguna característica de interés. México. La probabilidad p de que suceda un evento S de un total de n casos posibles igualmente probables es igual a la razón entre el número de ocurrencias h de dicho evento (casos favorables) y el número total de casos posibles n. 1970. es una función a partir de la cual se obtiene la probabilidad de cada valor que toma la variable. New York (2005). En el caso de variables aleatorias discretas la distribución de probabilidad se obtiene a través del sumatorio de la función de densidad. McGraw-Hill. Su integral en el caso de variables aleatorias continuas es la distribución de probabilidad. 2nd ed. donde: Sabemos que p es la probabilidad de que ocurra un evento y q es la probabilidad de que no ocurra. que normalmente se denota por resultados que son posibles. Probabilistic Symmetries and Invariance Principles. ISBN 0-387-95313-2 . La probabilidad es un número (valor) que varia entre 0 y 1. 510 pp. Teoría de la probabilidad 52 Enlaces externos • Wikimedia Commons alberga contenido multimedia sobre Teoría de la probabilidad. Commons Distribución binomial Distribución binomial Función de probabilidad Función de distribución de probabilidad Parámetros número de ensayos (entero) probabilidad de éxito (real) Dominio Función de probabilidad (fp) Función de distribución (cdf) Media Mediana Moda Varianza Coeficiente de simetría Uno de [1] . de forma independiente. se dice que la variable X sigue una distribución de probabilidad binomial. En la distribución binomial el anterior experimento se repite n veces.Distribución binomial 53 Curtosis Entropía Función generadora de momentos (mgf) Función característica En estadística. Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p. Para n = 1. Cuando se dan estas circunstancias.p). con una probabilidad fija p de ocurrencia del éxito entre los ensayos. con una probabilidad q = 1 . 1/6) • Se lanza una moneda dos veces y se cuenta el número X de caras obtenidas: entonces X ~ B(2. la distribución binomial es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí. Las probabilidades de ambas posibilidades han de ser constantes en todos los experimentos (se denotan como p y q o p y 1-p). sólo son posibles dos resultados. 1/2) • Una partícula se mueve unidimensionalmente con probabilidad q de moverse de aqui para allá y 1-q de moverse de allá para acá Experimento binomial Existen muchas situaciones en las que se presenta una experiencia binomial. fracaso. en una distribución de Bernoulli. y se trata de calcular la probabilidad de un determinado número de éxitos. Ejemplos Las siguientes situaciones son ejemplos de experimentos que pueden modelizarse por esta distribución: • Se lanza un dado diez veces y se cuenta el número X de treses obtenidos: entonces X ~ B(10. de hecho. la binomial se convierte. Un experimento de Bernoulli se caracteriza por ser dicotómico. Cada uno de los experimentos es independiente de los restantes (la probabilidad del resultado de un experimento no depende del resultado del resto). A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro. se escribe: La distribución binomial es la base del test binomial de significación estadística. Se designa por X a la variable que mide el número de éxitos que se han producido en los n experimentos. y se denota B(n.p. . El resultado de cada experimento ha de admitir sólo dos categorías (a las que se denomina éxito y fracaso). esto es. Statist. (1995)..com/mestadisticos/T6DDiscretas/node2. The smallest uniform upper bound on the distance between the mean and the median of the binomial and Poisson distributions.. Enlaces externos • Calculadora Distribución binomial (http://www.cz/~xvapen02/vypocty/bi.feec.stud. n) y binomial. .php) Cálculo de la probabilidad de una distribución binomial con R (lenguaje de programación) . En este caso tenemos una X ~ B(50.. 1/6) y la probabilidad sería P(X=20): Propiedades Relaciones con otras variables aleatorias Si tiende a infinito y es tal que el producto entre ambos parámetros tiende a .. Por último.. + nn. se cumple que cuando n es muy grande (usualmente se exige que Propiedades reproductivas Dadas n variables binomiales independientes. y . ) la distribución binomial .Distribución binomial 54 Características analíticas Su función de probabilidad es donde siendo las combinaciones de en ( elementos tomados de en ) Ejemplo Supongamos que se lanza un dado 50 veces y queremos la probabilidad de que el número 3 salga 20 veces. de parámetros n1+. K. Lett. es decir. 23 21–25. Probab.vutbr. su suma es también una variable Referencias [1] Hamza. entonces la distribución de la variable aleatoria binomial tiende a una distribución de Poisson de parámetro puede aproximarse mediante la distribución normal. de parámetros ni (i = 1. php?language=espanol) • (http://cajael.. 0 del 29 de febrero de 2000: Los desarrolladores lo consideran suficientemente estable para su uso en producción.R (lenguaje de programación) 55 R (lenguaje de programación) R Desarrollador R Development Core Team [1] www. • Versión 0.r-project. En esta fecha arrancó también CRAN con tres espejos que albergaban 12 paquetes.0: Introduce el lazy loading. Macintosh. A esto contribuye la posibilidad de cargar diferentes bibliotecas o paquetes con finalidades específicas de cálculo o gráfico.0. la bioinformática y las matemáticas financieras. • La lista de correo comenzó su andadura el 1 de abril de 1997. . R y S-Plus -versión comercial de S. Historia Fue desarrollado inicialmente por Robert Gentleman y Ross Ihaka del Departamento de Estadística de la Universidad de Auckland en 1993. • Versión 2.4. Poco después aparecieron las versiones alfa para Windows y Mac OS.[2] Su desarrollo actual es responsabilidad del R Development Core Team. que incluye gran parte de las características descritas en el "White Book".son. • Versión 0. los dos lenguajes más utilizados en investigación por la comunidad estadística. • Versión 1.49 del 23 de abril de 1997: Es la versión más antigua de la que se conserva el código (que todavía compila en algunas plataformas UNIX). R se distribuye bajo la licencia GNU GPL y está disponible para los sistemas operativos Windows. resultado de la implementación GNU del premiado lenguaje S. Unix y GNU/Linux.16: Es la última versión alfa desarrollada esencialmente por Ihaka y Gentleman. El código se versiona a través de CVS.org Información general Última versión estable 2. A continuación se enumeran algunos hitos en el desarrollo de R: • Versión 0.60 del 5 de diciembre de 1997: R se integra oficialmente en el Proyecto GNU.14. que permite una carga rápida de datos con un coste de memoria mínimo.2 29 de febrero de 2012 Género Sistema operativo Licencia En español Software matemático Multiplataforma GPL R es un lenguaje y entorno de programación para análisis estadístico y gráfico.0. Se trata de un proyecto de software libre.0: Se introducen los métodos S4 y aparece la primera versión para Mac OS X.[3] • Versión 1. probablemente. siendo además muy populares en el campo de la investigación biomédica. R posee su propio formato para la documentación basado en LaTeX. análisis de series temporales. econometría. que permiten agruparlos según su naturaleza y función. tests estadísticos. . R hereda de S su orientación a objetos. C++ o Fortran que se cargan dinámicamente. R también puede extenderse a través de paquetes desarrollados por su comunidad de usuarios. R puede integrarse con distintas bases de datos y existen bibliotecas que facilitan su utilización desde lenguajes de programación interpretados como Perl y Python.R (lenguaje de programación) • Versión 2. éstos se han organizado en vistas (o temas) [8].[4] Además.[5] Se ha desarrollado una interfaz. • Versión 2. Extensiones y paquetes R forma parte de un proyecto colaborativo y abierto. Por ejemplo. series temporales. Sus usuarios pueden publicar paquetes que extienden su configuración básica. MATLAB. Los usuarios más avanzados pueden también manipular los objetos de R directamente desde código desarrollado en C. hay grupos de paquetes relacionados con estadística bayesiana. R también puede usarse como herramienta de cálculo numérico. De hecho. gran parte de las funciones de R están escritas en el mismo R. Dado el enorme número de nuevos paquetes. Al igual que S. algoritmos de clasificación y agrupamiento. Existe un repositorio oficial de paquetes [7] cuyo número superó en otoño de 2009 la cifra de los 2000.) y gráficas. etc.0: Aparece el soporte para UTF-8 y comienzan los esfuerzos de internacionalización para distintos idiomas. que permite generar gráficos con alta calidad. lo que permite que los usuarios lo extiendan definiendo sus propias funciones. se trata de un lenguaje de programación.9. RWeka[6] para interactuar con Weka que permite leer y escribir ficheros en el formato arff y enriquecer R con los algoritmos de minería de datos de dicha plataforma. etc. Para facilitar el desarrollo de nuevos paquetes. Otra de las características de R es su capacidad gráfica. aunque para algoritmos computacionalmente exigentes es posible desarrollar bibliotecas en C.1. 56 Características R proporciona un amplio abanico de herramientas estadísticas (modelos lineales y no lineales.0: El paquete 'Matrix' se incluye en la distribución básica de R. campo en el que puede ser tan eficaz como otras herramientas específicas tales como GNU Octave y su versión comercial. se ha puesto a servicio de la comunidad una forja de desarrollo [9] que facilita las tareas relativas a dicho proceso. La tarea de extender R se ve facilitada por su permisiva política de lexical scoping. que permite usar R y Rcmdr desde Microsoft Excel rggobi. SciTE. basado en KDE Sage Statistical Lab nexusBPM. El paquete odfWeave es similar. una terminal de R multiplataforma basada en Java R Commander (Rcmdr). que forma parte de la distribución básica de R desde la versión 2. ConTEXT. orientado al análisis de los mercados financieros y la valoración de instrumentos de inversión. Herramientas de productividad Existen diversas interfaces que facilitan el trabajo con R. Alternativas comerciales • • S-Plus SPSS [20] • • Minitab SAS • Statistica . Geany. jEdit. WinEdt (R Package RWinEdt) y notepad++. generando documentos en el formato OpenDocument (ODF). Tinn-R. un conjunto de paquetes para el análisis de datos en genómica. Vim.0. LyX puede usarse para crear y compilar documentos desarrollados en Sweave.[10] Crimson Editor. Interfaces gráficas • • • • • • • • JGR o Java GUI for R. • Rmetrics. resultados y gráficos en el documento escrito en LaTeX. Lenguajes de script La funcionalidad de R puede ser invocada desde código desarrollado en otros lenguajes de script tales como Python (mediante RPy[17]) y Perl (mediante Statistics::R[18]). una interfaz a GGobi para visualización RKWard. Eclipse.5. una herramienta de automatización • Rstudio Editores e IDEs Entre los editores de texto e IDEs con soporte para R se cuentan: Bluefish.[16] Sweave es un procesador de documentos que puede ejecutar código de R incrustado en código de LaTeX y para insertar código. gedit. una interfaz gráfica multiplataforma basada en tcltk RExcel.[15] Syn.[11] Emacs (Emacs Speaks Statistics).[12] Kate. También pueden desarrollarse scripts en R directamente usando littler[19] o Rscript.[14] RKWard.R (lenguaje de programación) 57 Proyectos relacionados • Bioconductor.[13] RStudio. TextMate. extensiones en estado experimental también permiten generar documentos del tipo presentación u hoja de cálculo. • Proyecto R UCA [26]. cran. Universidad de Cádiz Documentación en español • • • • • R para Principiantes [27]. ethz. pdf)» (PDF). walware.0. Consultado el 03-16-2012.R. html)». [14] « Integrated Development Environment (IDE) for R (http:/ / www. cran. 2) • Colección de paquetes en CRAN (Comprehensive R Archive Network) [22] • R-Wiki [23] • Interfaz Web para R [24] • R Graph Gallery [25]. cpan. [12] Jose Claudio Faria. r-project. org/ web/ views [9] http:/ / r-forge. Kate Development Team. com/ code/ littler. Consultado el 09-07-2008. dirigido principalmente a biólogos y especialistas en bioinformática (PDF). SciView. Bluefish Features (http:/ / bluefish. net/ projects/ npptor/ ) [17] RPy home page (http:/ / rpy.Base Package [21]. [13] « Syntax Highlighting (http:/ / kate-editor. ISBN 0-9546120-1-9 (vol. org/ doc/ html/ interface98-paper/ paper_2. « R For the Political Methodologist (http:/ / polmeth. uk/ R/ base/ [22] http:/ / www. sourceforge. Bluefish website. RStudio. jedit. The University of Auckland. Consultado el 06-06-2009. Consultado el 03-11-2007. org/ )». montana. r-project. [16] NppToR: R in Notepad++ (http:/ / sourceforge. org [10] Customizable syntax highlighting based on Perl Compatible regular expressions. org/ benchmark)». [4] Jackman. r-project. Simon (Spring 2003). transparencias preparadas para un curso de 16 horas sobre R. Estadística Básica con R y R-Commander [29] (libro libre) Gráficos Estadísticos con R [30] por Juan Carlos Correa y Nelfi González (PDF). Auckland. Consultado el 2009. Cartas sobre Estadística de la Revista Argentina de Bioingeniería [31] por Marcelo R. insightful. ISBN 0-9546120-0-0 (vol. tenth bullet point. New Zealand. org/ [23] http:/ / wiki. org/ [2] A Brief History (http:/ / cran. r-project. nl/ features. « StatET: Eclipse based IDE for R (http:/ / www. openoffice. net) [18] Statistics::R page on [[CPAN (http:/ / search. sourceforge. cran. Consultado el 26-09-2009. Commons • Página oficial [1] • The R Reference Manual . Ahumada (PDF). una colección de gráficos creados con R. net/ )». [5] « Speed comparison of various number crunching packages (version 2) (http:/ / www. • Introducción al uso y programación del sistema estadístico R [32] por Ramón Díaz-Uriarte. [7] http:/ / www. asp [21] http:/ / www. org [24] http:/ / www. math. Consultado el 03-11-2007. Achim Zeileis. com/ products/ splus/ default. rstudio. with subpattern support and default patterns for. Ross Ihaka. 1).0 is released (https:/ / stat. 02/ lib/ Statistics/ R. org/ package=RWeka)». Inc. org/ web/ packages [8] http:/ / www. Referencias [1] http:/ / www. r-project. edu/ tpm/ tpm_v11_n2. Risk (PDF). edu/ Rweb/ .. . Kurt Hornik. r-project. sciviews. de/ goto/ statet)».3-17 (http:/ / CRAN. pm)]] [19] littler web site (http:/ / dirk. eddelbuettel. Versión en español de An Introduction to R [28] por Andrés González y Silvia González (PDF). The Political Methodologist (Political Methodology Section. la versión en español de R for Beginners. co. R-project. r-project. R package version 0. « R syntax (http:/ / community.R (lenguaje de programación) 58 Enlaces externos • Wikimedia Commons alberga contenido multimedia sobre R (lenguaje de programación). org/ ?q=node/ view/ 2339)». [11] Stephan Wahlbrink. 20–22. html). American Political Science Association) 11 (1): pp. html) [20] http:/ / www.. retrieved 9 July 2008. • Lista de correo R-help-es en español [33] Lista de correo oficial de R en español. ch/ pipermail/ r-announce/ 2000/ 000127. [6] « RWeka: An R Interface to Weka. org/ ~gmpassos/ Statistics-R-0. Torsten Hothorn and Christian Buchta. Statistics Department. org/ downloads/ syntax_highlighting)». traducido por Jorge A. wustl. network-theory. available from the CRAN website [3] Peter Dalgaard. [15] « Página proyecto RKWard (http:/ / rkward. html) R : Past and Future History. R Development Core Team. « R-1. pdf http:/ / cran. fr/ graphiques/ http:/ / knuth.5 no es un valor posible al rodar el dado. en media. Por lo tanto uno esperaría. free. uca. r-project. cobramos 35 veces lo que hemos apostado y recuperamos la apuesta. En el mundo de las apuestas. es el número que formaliza la idea de valor medio de un fenómeno aleatorio. r-project.5. org/ doc/ contrib/ Risk-Cartas-sobre-Estadistica. Podemos hacer el cálculo y cabe destacar que 3. org/ doc/ contrib/ grafi3. pdf https:/ / stat. media poblacional o media) de una variable aleatoria . uca. representa la cantidad media que se "espera" como resultado de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado número de veces. r-project.0526 aproximadamente. pdf http:/ / cran. 0-espanol. considerando los 38 posibles resultados. Por tanto. Por lo tanto. La ganancia para acertar una apuesta a un solo número paga de 35 a 1 (es decir. php?id=37 http:/ / cran. valor esperado. la ruleta americana tiene 38 casillas equiprobables. pdf http:/ / knuth. org/ doc/ contrib/ curso-R. ch/ mailman/ listinfo/ r-help-es 59 Esperanza matemática En estadística la esperanza matemática (también llamada esperanza. r-project. Cabe decir que el valor que toma la esperanza matemática en algunos casos puede no ser "esperado" en el sentido más general de la palabra . así que recibimos 36 veces lo que hemos apostado). 1. ethz. Una aplicación común de la esperanza matemática es en las apuestas o los juegos de azar. un juego donde el beneficio esperado es cero (no ganamos ni perdemos) se llama un "juego justo".el valor de la esperanza puede ser improbable o incluso imposible. perder unos 5 céntimos por cada euro que apuesta. . La esperanza matemática del beneficio es el valor esperado a ganar menos el valor esperado a perder. la esperanza es igual a la media aritmética. el valor esperado cuando tiramos un dado equilibrado de 6 caras es 3.R (lenguaje de programación) [25] [26] [27] [28] [29] [30] [31] [32] [33] http:/ / addictedtor. Cuando la variable aleatoria es discreta. En este caso. org/ doc/ contrib/ R-intro-1. Nota: El primer paréntesis es la "esperanza" de perder tu apuesta de $1. r-project. pdf http:/ / cran.9474 euros. es/ moodle/ course/ view. la esperanza es igual a la suma de la probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho suceso. El segundo paréntesis es la esperanza matemática de ganar los $35. en el que todos los sucesos son de igual probabilidad. org/ doc/ contrib/ rdebuts_es. y el valor esperado para apostar 1 euro son 0. Por ejemplo. por eso es negativo el valor. Diaz-Uriarte. 1. es/ R/ http:/ / cran. Por ejemplo. la esperanza matemática del beneficio para apostar a un solo número es: que es -0. en el marco de la teoría de la medida y se define como la siguiente integral: La esperanza también se suele simbolizar con Las esperanzas para se llaman momentos de orden . No todas las variables aleatorias tienen un valor esperado.Esperanza matemática 60 Definición Para una variable aleatoria discreta con valores posibles función de probabilidad la esperanza se calcula como: y sus probabilidades representadas por la Para una variable aleatoria absolutamente continua. ya que: Combinando estas propiedades. como toda la teoría de la probabilidad. la esperanza se calcula mediante la integral de todos los valores y la función de densidad : La definición general de esperanza se basa. . podemos ver que - donde e son variables aleatorias y y y son tres constantes cualesquiera. Propiedades La esperanza es un operador lineal. Por ejemplo. Más importantes son los momentos centrados . la distribución de Cauchy no lo tiene. E2. E3. esto es. La terna (X.. o una "probabilidad". que verifica: • La medida del conjunto vacío es cero: μ( ) = 0. o interesante en algunos casos. y los elementos de Σ se denominan conjuntos medibles.. E3. Monotonía μ es monótona: si y son dos conjunto medibles. Σ. entonces .. a los que llamaremos medibles. Las condiciones de consistencia que deben cumplir los miembros de estas familias quedan encapsuladas en el concepto auxiliar de σ-álgebra. su unión será también medible (por la definición de σ-álgebra). un "área". entonces μ(E) es igual a la suma de las medidas de los Ek. una medida es una función que asigna un número real positivo o cero. ∞]. funciones medibles e integrales. A menudo. las medidas. con . y Si se tiene además que En ⊆ En+1 para todo n. • Si E1. ∞]. una sucesión contable de conjuntos disjuntos dos a dos de la σ-álgebra Σ y E es su unión. la geometría y para la teoría de la probabilidad. El concepto es importante para el análisis matemático. Definiciones formales Formalmente. es una sucesión contable de conjuntos medibles. . La teoría de la medida es una rama del análisis real que investiga las σ-álgebras.Teoría de la medida 61 Teoría de la medida En matemáticas. el ambicioso objetivo de asignar una medida a todo subconjunto del conjunto base se revela inalcanzable. E2. asignar medida a ciertas familias de subconjuntos. . entonces . Uniones contables Si E1.. Es de importancia central en probabilidad y en estadística. un "volumen". Una medida aplica ciertos subconjuntos (pertenecientes a una σ-álgebra) en valores del intervalo [0. Solo será posible. una medida μ es una función definida en una σ-álgebra Σ sobre un conjunto X con valores en el intervalo real extendido [0. interpretable como un "tamaño". Propiedades Varias propiedades pueden deducirse directamente de la definición. μ) se denomina espacio de medida. a los subconjuntos de un conjunto dado. y se necesitaría una cantidad no contable de ellos para cubrir la recta entera. tal que la diferencia simétrica T Δ S está contenida en un conjunto nulo. de modo que el límite al lado derecho de la igualdad es ∞. y su unión es la recta real completa. invariante por translaciones. k+1] para cada entero k. que es invariante por rotaciones. sin embargo. entonces la intersección de los conjuntos En es medible (de nuevo. E2. . si al menos uno de los En tiene medida finita. los números reales con la medida de Lebesgue estándar forman un espacio σ-finito pero no finito. La medida μ se dice completa si todo conjunto despreciable es medible (y por lo tanto. • La medida de Haar para un grupo topológico localmente compacto es una generalización de la medida de Lebesgue y tiene una propiedad de unicidad similar. • La medida exterior de Hausdorff-Besicovitch se usa en geometría fractal para medir el df-contenido de un conjunto fractal de dimensión df. Un conjunto en un espacio de medida tiene medida σ-finita si es una unión contable de conjuntos de medida finita. si S es finito. y conjunto despreciable si está propiamente contenido en uno nulo. ya que cada conjunto de medida finita contiene finitos puntos. sobre una σ-álgebra sobre R que contenga a los intervalos. Alternativamente. esto es. Este espacio de medida no es σ-finito. hay una cantidad contable de tales intervalos. • La medida cero es la definida mediante μ(S) = 0 para todo S. tómese Todos estos conjuntos tienen medida infinita. nulo también). E3. que asigna a cada conjunto finito de números reales el número de puntos en el conjunto. Σ. para cada n ∈ N. Medidas sigma-finitas Un espacio de medida (X. μ) se dice finito si μ(X) es un número real finito (en lugar de ∞). Una medida puede extenderse a una completa considerando la σ-álgebra de conjuntos T ⊆ X que difieren de un conjunto medible S en un conjunto despreciable. • La medida de ángulo circular. Completitud Un conjunto medible S es llamado un conjunto nulo si μ(S) = 0.Teoría de la medida 62 Intersecciones contables Si E1. Y se dice σ-finito (leído sigma finito) si X es la unión contable de conjuntos medibles de medida finita. cada uno tiene medida 1. entonces Esta igualdad no es necesariamente cierta si ninguno de los En no tiene medida finita. su intersección es vacía y por lo tanto tiene medida 0.. tómense los números reales con la medida de conteo. • La medida de conteo se define por μ(S) = número de elementos en S. la σ-finitud puede ser comparada a la separabilidad de los espacios topológicos. o en caso contario. por ejemplo. Por ejemplo. así. Considérese el intervalo cerrado [k. En tal caso se define μ(T) = μ(S).1]) = 1. .es una sucesión contable de conjuntos medibles. más aún. Ejemplos A continuación se listan algunos ejemplos importantes de medidas. y En+1 ⊆ En para todo n. y tal que μ([0. Los espacios de medida σ-finita tienen algunas propiedades convenientes. por la definición de σ-álgebra).. • La medida de Lebesgue es la única medida completa. "Homogénea de grado k" significa que "re-escalar" cualquier conjunto por un factor c > 0 multiplica la "medida" del conjunto por un factor ck. el dual de L∞. "mean width"). 1. es útil tener una "medida" cuyos valores no se restrinjan a los reales no negativos y el infinito. y combinaciones lineales de esas "medidas". La homogénea de grado n-1 es el "volumen de superficie". no necesariamente no negativas definidas sobre las uniones finitas de conjuntos compactos y convexos en Rn consiste (salvo múltiplos escalares) en una "medida" que es "homogénea de grado k" para cada k = 0. Una medida que tome valores en un espacio de Banach se llama medida espectral. y los que aparecen en las paradojas de Hausdorff y Banach-Tarski. Todas éstas están conectadas de alguna forma con el axioma de elección. Es igual que una medida. La homogénea de grado 1 es una función misteriosa llamada "anchura media" (en inglés.. y Radon.Teoría de la medida • Todo espacio de probabilidad da lugar a una medida que toma el valor 1 sobre todo el espacio (y por tanto toma todos sus valores en el intervalo unitario [0. En general. Tal medida es denominada medida de probabilidad. 2. se habla de medidas positivas. un mal nombre. 63 Contraejemplos Contrariamente a lo que podría esperarse. . esta definición se usó inicialmente. de las generalizaciones. Otras medidas notables son las de Borel. mientras que tal tipo de función con valores en los números complejos se llama medida compleja. Históricamente. Por ejemplo. Jordan. pero no resultó ser tan útil. con valores positivos. El interesante resultado en geometría integral conocido como teorema de Hadwiger establece que el espacio de funciones de conjunto invariantes por translaciones.. y la compactificación de Stone-Čech. algunos ejemplos de estos conjuntos contraintuitivos son el conjunto de Vitali. salvo que en lugar de requerir aditividad contable. sólo se necesita aditividad finita.. son usadas a menudo en análisis funcional en el teorema espectral. Generalizaciones Para ciertos propósitos. La homogénea de grado 0 es la característica de Euler. n. no todos los conjuntos del espacio euclídeo son medibles. La que es homogénea de grado n es el volumen ordinario n-dimensional. finitamente aditivas. Otra generalización es la medida finitamente aditiva.1]). . Para distinguir las medidas usuales. una función de conjunto numerable aditiva con valores en los números reales (con signo) se llama medida con signo. las medidas finitamente aditivas están conectadas con nociones como los límites de Banach. En estas condiciones no es posible deducir la probabilidad de un valor puntual de la variable.Distribución de probabilidad continua 64 Distribución de probabilidad continua En teoría de la probabilidad una distribución de probabilidad se llama continua si su función de distribución es continua. ni una media ponderada de variables discretas y absolutamente continuas. se llama a X variable aleatoria continua.5 cm es posible. la distribución de probabilidad es la integral de la función de densidad. por lo que tenemos entonces que: Una distribución de probabilidad continua. En las distribuciones de probabilidad continuas. no puede calcularse mediante la adición simple de probabilidades de valores individuales. Una variable aleatoria con la distribución de Cantor es continua de acuerdo con la primera definición. no se da el caso en una variable aleatoria continua. cada valor tiene una probabilidad infinitesimal que estadísticamente equivale a cero. Existe una definición alternativa más rigurosa en la que el término "distribución de probabilidad continua" se reserva a distribuciones que tienen función de densidad de probabilidad. Mientras que en una distribución de probabilidad discreta un suceso con probabilidad cero es imposible. Definición Para una variable continua hay infinitos valores posibles de la variable y entre cada dos de ellos se pueden definir infinitos valores más. el resultado 3. Si la distribución de X es continua. si se mide la anchura de una hoja de roble. pero según la segunda. Para una variable aleatoria X absolutamente continua es equivalente decir que la probabilidad P[X = a] = 0 para todo número real a. y se puede analizar como cambia la probabilidad acumulada en cada punto (estos cambios no son probabilidades sino otro concepto: la función de densidad. la definición implica que en una distribución de probabilidad continua X se cumple P[X = a] = 0 para todo número real a. pero es posible calcular la probabilidad acumulada hasta un cierto valor (función de distribución de probabilidad). con más precisión. las variables aleatorias a menudo ofrece una distribución discreta o absolutamente continua. Estas funciones se llaman. no es absolutamente continua. en virtud de que hay un incontables conjuntos de medida de Lebesgue cero (por ejemplo. En el caso de variable continua la distribución de probabilidad es la integral de la función de densidad. En aplicaciones prácticas. pero tiene probabilidad cero porque hay infinitos valores posibles entre 3 cm y 4 cm. la distribución normal. Puesto que la función de distribución de una variable aleatoria X viene dada por . el conjunto de Cantor). variables aleatorias absolutamente continuas (véase el Teorema de Radon-Nikodym). Tampoco es discreta. Formalmente. aunque la probabilidad de ese intervalo no lo es. la probabilidad de que X tome el valor a es cero para cualquier valor de a. Esta aparente paradoja se resuelve por el hecho de que la probabilidad de que X tome algún valor en un conjunto infinito como un intervalo. como se puede hacer en el caso de va discretas. Cada uno de esos valores individuales tiene probabilidad cero. Por ejemplo. por lo que tenemos entonces que: . aunque también aparezcan de forma natural mezclas de los dos tipos. esto es. la probabilidad del suceso nulo es cero.Distribución de probabilidad continua 65 Sea una va continua. Algunas FDP están declaradas en rangos de Distribuciones continuas Las distribuciones de variable continua más importantes son las siguientes: • • • • • • • Distribución Beta Distribución exponencial Distribución F Distribución Gamma Distribución ji cuadrado Distribución normal Distribución t de Student Enlaces externos. la FDP es una función no decreciente que cumple: 1. 2. como la de la distribución normal. una distribución de probabilidad o función de densidad de probabilidad (FDP) de tal que. es una función La gráfica de intervalo se conoce a veces como curva de densidad. Es decir. así. la probabilidad de todo el espacio muestral es 1. . área bajo la curva de entre Para que 1. . • Wikimedia Commons alberga contenido multimedia sobre Distribuciones de probabilidad. Es decir. sea una FDP ( 0 para toda . la probabilidad de que tome un valor en el es el área bajo la curva de la función de densidad. 2. Commons . ) sea legítima. la función mide concentración de probabilidad y alrededor de los valores de una variable aleatoria continua. para cualesquiera dos números y siendo . debe satisfacer las siguientes dos condiciones: Ya que la probabilidad es siempre un número positivo. a . El valor esperado y la varianza de una variable aleatoria X con distribución exponencial son: .Distribución exponencial 66 Distribución exponencial Distribución exponencial Función de densidad de probabilidad Función de distribución de probabilidad Parámetros Dominio Función de densidad (pdf) Función de distribución (cdf) Media Mediana Moda Varianza Coeficiente de simetría Curtosis Entropía Función generadora de momentos (mgf) Función característica En estadística la distribución exponencial es una distribución de probabilidad continua con un parámetro cuya función de densidad es: Su función de distribución es: Donde representa el número e. "data analysis & simulation" MathWorks Benelux [2] ModelRisk [3].Distribución exponencial 67 La distribución exponencial es un caso particular de distribución gamma con k = 1. dado que eficiente: es también una variable aleatoria con distribución . incluyendo la exponencial. fitting distrubutions with R [4] . que se distribuyen según la distribución de Poisson. Ejemplo Ejemplos para la distribución exponencial es la distribución de la longitud de los intervalos de variable continua que transcuren entre la ocurrencia de dos sucesos "raros". puede utilizarse la versión más Relaciones La suma de variables aleatorias independientes de distribución exponencial con parámetro es una variable aleatoria de distribución gamma. Además la suma de variables aleatorias que siguen una misma distribución exponencial es una variable aleatoria expresable en términos de la distribución gamma. Vito Ricci. libre sin costo. a una serie de datos: • • • • • • • Easy fit [1]. incluye intervalos de confianza a base de la distribución binomial . automatically fit distributions and parameters to samples [5] StatSoft distribution fitting [6] CumFreq [7] . "risk modelling software" Ricci distributions. Software Se puede usar software y un programa de computadora para el ajuste de una distribución de probabilidad. 2005 Risksolver. Calcular variables aleatorias Se pueden calcular una variable aleatoria de distribución exponencial distribución uniforme : por medio de una variable aleatoria de o. ocurre en un Proceso de Poisson de intensidad es una variable aleatoria con distribución gamma. com/ mestadisticos/ T7DContinuas/ node20.se llaman la distribición distribución Erlang con un parámetro . htm http:/ / www. html http:/ / www. Distribución Chi-cuadrada Enlaces externos • http://mathworld. com/ http:/ / cran. Distribución Erlang. php Distribución gamma En estadística la distribución gamma es una distribución de probabilidad continua con dos parámetros y cuya función de densidad para valores es Aquí es el número e y la aquella es es la función gamma. info/ cumfreq. Para valores (el factorial de Distribución gamma. com/ risksolver8. nl/ products/ statistics/ demos. php?language=espanol http:/ / cajael. com/ articles/ distribution_fitting. pdf http:/ / www.com/GammaDistribution. solver. htm http:/ / www. feec.por ejemplo para describir un proceso de Poisson . stud. html http:/ / www. cz/ ~xvapen02/ vypocty/ ex. mathwave. statsoft. html?file=/ products/ demos/ shipping/ stats/ cfitdfitdemo. En este caso . vosesoftware.html • [1] Calcular la probabilidad de una distribución Gamma con R (lenguaje de programación) . El valor esperado y la varianza de una variable aleatoria X de distribución gamma son Relaciones El tiempo hasta que el suceso número parámetro . com/ textbook/ distribution-fitting/ http:/ / www. org/ doc/ contrib/ Ricci-distributions-en. Eso es la suma de variables aleatorias independientes de distribución exponencial con Véase también: Distribución Beta. r-project. mathworks. waterlog.Distribución exponencial 68 Enlaces externos • Calculadora Distribución exponencial [8] • [9]Calcular la probabilidad de una distribución exponencial con R (lenguaje de programación) Referencias [1] [2] [3] [4] [5] [6] [7] [8] [9] http:/ / www.wolfram. vutbr. ). Distribución gamma 69 Referencias [1] http:/ / cajael. php Distribución t de Student Distribución t de Student Función de densidad de probabilidad Función de distribución de probabilidad Parámetros Dominio Función de densidad (pdf) grados de libertad (real) Función de distribución (cdf) donde es la función hipergeométrica Media Mediana Moda Varianza Coeficiente de simetría Curtosis para . indefinida para otros valores para para para . indefinida para otros valores . com/ mestadisticos/ T7DContinuas/ node29. Gosset estudió un cociente relacionado. el cociente central con parámetro de no-centralidad .. es una variable aleatoria que sigue la distribución t de Student no Aparición y especificaciones de la distribución t de Student Supongamos que X1.. Aparece de manera natural al realizar la prueba t de Student para la determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones cuando se desconoce la desviación típica de una población y ésta debe ser estimada a partir de los datos de una muestra. Caracterización La distribución t de Student es la distribución de probabilidad del cociente donde • Z tiene una distribución normal de media nula y varianza 1 • V tiene una distribución ji-cuadrado con grados de libertad • Z y V son independientes Si μ es una constante no nula.Distribución t de Student 70 Entropía • • : función digamma. con media μ y varianza σ2. Entonces sigue una distribución normal de media 0 y varianza 1. Xn son variables aleatorias independientes distribuidas normalmente.. donde es la varianza muestral y demostró que la función de densidad de T es . la distribución t (de Student) es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño.. : función beta Función generadora de momentos (mgf) (No definida) En probabilidad y estadística. Sin embargo. dado que la desviación estándar no siempre es conocida de antemano. Sea la media muestral. co/ova/estadistica/docs/libros/tstudent. La distribución depende de . siendo entonces el intervalo de Es este resultado el que se utiliza en el test de Student: puesto que la diferencia de las medias de muestras de dos distribuciones normales se distribuye también normalmente.com/ doc_edu/mat. para efectos prácticos el valor esperado y la varianza son: E(t(n))= 0 y Var (t(n-1)) = n/(n-2) para n > 3 Historia La distribución de Student fue descrita en 1908 por William Sealy Gosset. pdf) • Tabla distribución t de Student • Distribución t-Student: Puntos porcentuales para probabilidad superior (http://www. La distribución de T se llama ahora la distribución-t de Student. Intervalos de confianza derivados de la distribución t de Student El procedimiento para el cálculo del intervalo de confianza basado en la t de Student consiste en estimar la desviación típica de los datos S y calcular el error estándar de la media confianza para la media = . lo cual es muy importante en la práctica. Myers. De ahí que Gosset publicase sus resultados bajo el seudónimo de Student.[1] Referencias [1] Walpole. que prohibía a sus empleados la publicación de artículos científicos debido a una difusión previa de secretos industriales.uptc. Roland. pero no de o . .com/mestadisticos/T7DContinuas/node11. Guinness. Gosset trabajaba en una fábrica de cerveza.php) Calcular la probabilidad de una distribución t-Student con R (lenguaje de programación) . la distribución t puede usarse para examinar si esa diferencia puede razonablemente suponerse igual a cero.edu. Enlaces externos • Tabla de distribución de T de Student (http://tablas-estadisticas. Keying (2002).Distribución t de Student 71 donde es igual a n − 1.com/2010/06/t-de-student. Probability and Statistics for Engineers and Scientists. Raymond y Ye. El parámetro representa el número de grados de libertad.blogspot.vaxasoftware. Pearson Education.html) • Prueba t de Student en la UPTC de Colombia (http://virtual.html) • (http://cajael. Función de probabilidad El eje horizontal es el índice k. Función de distribución de probabilidad Parámetros Dominio Función de probabilidad (fp) Función de distribución (cdf) incompleta) Media Mediana Moda Varianza Coeficiente de simetría Curtosis (dónde es la Función gamma .Distribución de Poisson 72 Distribución de Poisson Distribución De Poisson El eje horizontal es el índice k. Las líneas que conectan los puntos son solo guías para el ojo y no indican continuidad. La función solamente está definida en valores enteros de k. 71828 . entonces según la fórmula de Dobinski. la distribución de Poisson es una distribución de probabilidad discreta que expresa. De hecho. cuando el valor esperado de la distribución de Poisson es 1. el mayor de los representan la función parte entera). que la dio a conocer en 1838 en su trabajo Recherches sur la probabilité des jugements en matières criminelles et matière civile (Investigación sobre la probabilidad de los juicios en materias criminales y civiles). a partir de una frecuencia de ocurrencia media. La divergencia Kullback-Leibler desde una variable aleatoria de Poisson de parámetro λ0 a otra de parámetro λ es .) Tanto el valor esperado como la varianza de una variable aleatoria con distribución de Poisson son iguales a λ. Cuando λ es un entero positivo. usaremos un modelo de distribución de Poisson con λ = 10×4 = 40.Distribución de Poisson 73 Entropía Función generadora de momentos (mgf) Función característica En teoría de probabilidad y estadística.. la probabilidad que ocurra un determinado número de eventos durante cierto periodo de tiempo. La función generadora de momentos de la distribución de Poisson con valor esperado λ es . Propiedades La función de masa de la distribución de Poisson es donde • k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de que el evento suceda precisamente k veces). Los momentos de orden superior son polinomios de Touchard en λ cuyos coeficientes tienen una interpretación combinatorio. el n-ésimo momento iguala al número de particiones de tamaño n. • e es la base de los logaritmos naturales (e = 2. • λ es un parámetro positivo que representa el número de veces que se espera que ocurra el fenómeno durante un intervalo dado.. Fue descubierta por Siméon-Denis Poisson. las Las variables aleatorias de Poisson tienen la propiedad de ser infinitamente divisibles. si el suceso estudiado tiene lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos. La moda de una variable aleatoria de distribución de Poisson con un λ no entero es igual a enteros menores que λ (los símbolos modas son λ y λ − 1. Por ejemplo. Distribución de Poisson 74 Relación con otras distribuciones Sumas de variables aleatorias de Poisson La suma de variables aleatorias de Poisson independientes es otra variable aleatoria de Poisson cuyo parámetro es la suma de los parámetros de las originales. Dicho de otra manera, si son N variables aleatorias de Poisson independientes, entonces . Distribución binomial La distribución de Poisson es el caso límite de la distribución binomial. De hecho, si los parámetros n y distribución binomial tienden a infinito y a cero de manera que límite obtenida es de Poisson. de una se mantenga constante, la distribución Aproximación normal Como consecuencia del teorema central del límite, para valores grandes de puede aproximarse por otra normal dado que el cociente , una variable aleatoria de Poisson X converge a una distribución normal de media nula y varianza 1. Distribución exponencial Supóngase que para cada valor t > 0, que representa el tiempo, el número de sucesos de cierto fenómeno aleatorio sigue una distribución de Poisson de parámetro λt. Entonces, los tiempos discurridos entre dos sucesos sucesivos sigue la distribución exponencial. Ejemplos Si el 2% de los libros encuadernados en cierto taller tiene encuadernación defectuosa, para obtener la probabilidad de que 5 de 400 libros encuadernados en este taller tengan encuadernaciones defectuosas usamos la distribución de Poisson. En este caso concreto, k es 5 y , λ, el valor esperado de libros defectuosos es el 2% de 400, es decir, 8. Por lo tanto, la probabilidad buscada es Este problema también podría resolverse recurriendo a una distribución binomial de parámetros k = 5, n = 400 y =0,02. Distribución de Poisson 75 Procesos de Poisson La distribución de Poisson se aplica a varios fenómenos discretos de la naturaleza (esto es, aquellos fenómenos que ocurren 0, 1, 2, 3,... veces durante un periodo definido de tiempo o en un área determinada) cuando la probabilidad de ocurrencia del fenómeno es constante en el tiempo o el espacio. Ejemplos de estos eventos que pueden ser modelados por la distribución de Poisson incluyen: • El número de autos que pasan a través de un cierto punto en una ruta (suficientemente distantes de los semáforos) durante un periodo definido de tiempo. • El número de errores de ortografía que uno comete al escribir una única página. • El número de llamadas telefónicas en una central telefónica por minuto. • El número de servidores web accedidos por minuto. • El número de animales muertos encontrados por unidad de longitud de ruta. • El número de mutaciones de determinada cadena de ADN después de cierta cantidad de radiación. • El número de núcleos atómicos inestables que decayeron en un determinado período • El número de estrellas en un determinado volumen de espacio. • La distribución de receptores visuales en la retina del ojo humano. • La inventiva [1] de un inventor a lo largo de su carrera. Enlaces externos • • • • Distribución de Poisson Puntual [2] Distribución de Poisson Acumulada [3] Calculadora Distribución de Poisson [4] Cálculo de la probabilidad de una distribución de Poisson [5] usando R Referencias [1] [2] [3] [4] [5] http:/ / www. leaonline. com/ doi/ pdfplus/ 10. 1207/ s15326934crj1103_3 http:/ / tablas-estadisticas. blogspot. com/ 2010/ 06/ poisson-puntual. html http:/ / tablas-estadisticas. blogspot. com/ 2010/ 06/ poisson-acumulada. html http:/ / www. stud. feec. vutbr. cz/ ~xvapen02/ vypocty/ po. php?language=espanol http:/ / cajael. com/ mestadisticos/ T6DDiscretas/ node7. php Desviación estándar 76 Desviación estándar La desviación estándar o desviación típica (denotada con el símbolo σ) es una medida de centralización o dispersión para variables de razón (ratio o cociente) y de intervalo, de gran utilidad en la estadística descriptiva. Se define como la raíz cuadrada de la varianza. Junto con este valor, la desviación típica es una medida (cuadrática) que informa de la media de distancias que tienen los datos respecto de su media aritmética, expresada en las mismas unidades que la variable. Para conocer con detalle un conjunto de datos, no basta con conocer las medidas de tendencia central, sino que necesitamos conocer también la desviación que presentan los datos en su distribución respecto de la media aritmética de dicha distribución, con objeto de tener una visión de los mismos más acorde con la realidad al momento de describirlos e interpretarlos para la toma de decisiones. Formulación Muestral La varianza representa la media aritmética de las desviaciones con respecto a la media que son elevadas al cuadrado. Si atendemos a la colección completa de datos (la población en su totalidad) obtenemos la varianza poblacional; y si por el contrario prestamos atención sólo a una muestra de la población, obtenemos en su lugar la varianza muestral. Las expresiones de estas medidas son las que aparecen a continuación donde nos explican mejor el texto. Expresión de la varianza muestral: Segunda forma de calcular la varianza muestral: demostración: podemos observar que como (sumamos n veces 1 y luego dividimos por n) y como obtenemos Expresión de la cuasivarianza muestral (estimador insesgado de la varianza poblacional): Expresión de la varianza poblacional: 15 respectivamente. la desviación estándar de esas medidas es de vital importancia: si la media de las medidas está demasiado alejada de la predicción (con la distancia medida en desviaciones estándar). 8. 6. mediana y moda. . tomando la raíz cuadrada positiva de la varianza. Por la formulación de la varianza podemos pasar a obtener la desviación estándar. 6. ya que las mediciones caen fuera del rango de valores en el cual sería razonable esperar que ocurrieran si el modelo teórico fuera correcto. 14. La desviación estándar es uno de tres parámetros de ubicación central. Además se puede tener una mejor tendencia de medida al desarrollar las formulas indicadas pero se tiene que tener en cuenta la media. y si por el contrario. muestra la agrupación de los datos alrededor de un valor central (la media o promedio). Por ejemplo. 14) y (6.08. Esto es coherente. 5. 8) cada una tiene una media de 7. obtendremos la desviación típica poblacional. Sus desviaciones estándar muestrales son 8. Interpretación y aplicación La desviación estándar es una medida del grado de dispersión de los datos con respecto al valor promedio.Desviación estándar 77 donde es el valor medio de Expresión de la desviación estándar poblacional: El término desviación estándar fue incorporado a la estadística por Karl Pearson en 1894. Expresión de la desviación estándar muestral: También puede ser tomada como con a como y s como Desviaciones estándar en una distribución normal. 8. las tres muestras (0. la desviación estándar es simplemente el "promedio" o variación esperada con respecto a la media aritmética. (0. La tercera muestra tiene una desviación mucho menor que las otras dos porque sus valores están más cerca de 7. La desviación estándar puede ser interpretada como una medida de incertidumbre. Cuando se va a determinar si un grupo de medidas está de acuerdo con el modelo teórico. si efectuamos la raíz de la varianza muestral. La desviación estándar de un grupo repetido de medidas nos da la precisión de éstas. Dicho de otra manera. 0. entonces consideramos que las medidas contradicen la teoría. obtenemos la desviación típica muestral.77 y 1. Así. efectuamos la raíz sobre la varianza poblacional. 14). también llamada desviación típica.Desviación estándar 78 Desglose La desviación estándar (DS/DE). Se suele representar por una S o con la letra sigma. la desviación estándar es "el promedio del cuadrado de la distancia de cada punto respecto del promedio". La desviación estándar de un conjunto de datos es una medida de cuánto se desvían los datos de su media. 11. En este caso. 1. en la práctica interesa realizar inferencias poblacionales. . N = 6 porque hay seis datos: . Los datos representan la edad de los miembros de un grupo de niños: { 4. se usa n-1 (Corrección de Bessel) También hay otra función más sencilla de realizar y con menos riesgo de tener equivocaciones : Ejemplo Aquí se muestra cómo calcular la desviación estándar de un conjunto de datos. Calcular el promedio o media aritmética . Distribución de probabilidad continua Es posible calcular la desviación estándar de una variable aleatoria continua como la raíz cuadrada de la integral donde Distribución de probabilidad discreta La DS es la raíz cuadrada de la varianza de la distribución de probabilidad discreta Así la varianza es la media de los cuadrados de las diferencias entre cada valor de la variable y la media aritmética de la distribución. . específicamente. 7 } 1. De hecho. 13. Esta medida es más estable que el recorrido y toma en consideración el valor de cada dato. Aunque esta fórmula es correcta. por lo que en el denominador en vez de n. 2. es una medida de dispersión usada en estadística que nos dice cuánto tienden a alejarse los valores concretos del promedio en una distribución. 1 ) Sustituyendo por 6. Calcular la desviación estándar Sustituyendo N . ( 6 .Desviación estándar i = número de datos para sacar desviación estándar Sustituyendo N por 6 79 Este es el promedio. 2.33 Éste es el valor de la desviación estándar.1 por 5. Enlaces externos • [1]Simulación de la desviación tipica de una variable discreta con R (lenguaje de programación) Referencias [1] http:/ / cajael. com/ mestadisticos/ T1EDescriptiva/ node7. php . se llama intervalo de confianza a un par de números entre los cuales se estima que estará cierto valor desconocido con una determinada probabilidad de acierto. donde (1 . mientras que para un intervalo más pequeño. A este valor se le llamará (debido a que es el error que se . θ.α por ciento para la estimación de un parámetro poblacional θ que sigue una determinada distribución de probabilidad. α es el llamado error aleatorio o nivel de significación.α)·100 es el porcentaje deseado (véase el uso de las tablas en una distribución normal). También pueden construirse intervalos de confianza con la desigualdad de Chebyshov. Es habitual que el parámetro presente una distribución normal. En estas circunstancias. Formalmente. Se desea obtener una expresión tal que En esta distribución normal de medias se puede calcular el intervalo de confianza donde se encontrará la media poblacional si sólo se conoce una media muestral ( ).α y se denomina nivel de confianza. si el tamaño de las muestras es lo suficientemente grande. Esto se representa como sigue: . se sigue que: En una distribución Z ~ N(0. La probabilidad de éxito en la confianza para la estimación del valor μ. Ejemplos Intervalo de confianza para la media de una población De una población de media y desviación típica se pueden tomar muestras de elementos. aumentan sus posibilidades de error. esto es. estos números determinan un intervalo.[3] la distribución de medias muestrales es. estimación se representa con 1 .[1] El nivel de confianza y la amplitud del intervalo varían conjuntamente. 1) puede calcularse fácilmente un intervalo dentro del cual caigan un determinado porcentaje de las observaciones.α. En definitiva. esto es. que se calcula a partir de datos de una muestra. una medida de las posibilidades de fallar en la estimación mediante tal intervalo. Para la construcción de un determinado intervalo de confianza es necesario conocer la distribución teórica que sigue el parámetro a estimar. es sencillo hallar z1 y z2 tales que P[z1 ≤ z ≤ z2] = 1 . es una expresión del tipo [θ1. de forma que un intervalo más amplio tendrá más posibilidades de acierto (mayor nivel de confianza). un intervalo de confianza al 1 . prácticamente. y el valor desconocido es un parámetro Las líneas verticales representan 50 construcciones diferentes de intervalos de poblacional. Cada una de estas muestras tiene a su vez una media ( con la media poblacional:[2] ).Intervalo de confianza 80 Intervalo de confianza En estadística. θ2] tal que P[θ1 ≤ θ ≤ θ2] = 1 . que ofrece una estimación más precisa. con una confianza determinada. una distribución normal (o gaussiana) con media μ y una desviación típica dada por la siguiente expresión: . Habitualmente se manejan valores de confianza del 95 y del 99 por ciento. donde P es la función de distribución de probabilidad de θ. Se puede demostrar que la media de todas las medias muestrales coincide Pero además.α. Si estandarizamos. [5] para los niveles de confianza estándar son 1.Intervalo de confianza cometerá. donde s es la desviación típica de una muestra. ± el producto del valor crítico y n es grande (habitualmente se toma n ≥ 30):[4] . Aproximaciones para el valor para . Para ello se necesita calcular el punto junto con su "opuesto en la distribución" muestra en la siguiente imagen: —o. como se Dicho punto es el número tal que: Y en la versión estandarizada se cumple que: Así: Haciendo operaciones es posible despejar para obtener el intervalo: De lo cual se obtendrá el intervalo de confianza: Obsérvese que el intervalo de confianza viene dado por la media muestral por el error estándar Si no se conoce . mejor dicho. Estos puntos delimitan la probabilidad para el intervalo. un término opuesto).96 para y 2. su versión estandarizada o valor crítico— 81 .576 . [4] Sotomayor Velasco. A. Consultado el 20-04-2009. Hacking.99 [6] Rius Díaz. Freund. . Gabriel. Journal of the American Statistical Association. (1962). (1984). Kiefer. htm). Keeping.2. Biometrika. • • • • • • • • Fisher. 62. Philosophical Transactions of the Royal Society of London A. p. Intervalos de confianza para medias (http:/ / books. Cengage Learning Editores. 227-228). K. « 8. ISBN 84-7496-653-1. Cambridge University Press. Zar. Cambridge. (1956). Edinburgh (p. a un nivel de confianza del (1-α)·100% es: En la demostración de estas fórmulas están involucrados el Teorema Central del Límite y la aproximación de una binomial por una normal. . Robinson. es/ libro/ html. ISBN 970686136X. 333-380. [3] En la práctica se considera normal la distribución si n > 30. Neyman.[6] Referencias [1] Rius Díaz. . bioestadistica. Probabilidad y estadística para ingeniería y ciencias. R. bioestadistica.95 y 0. (1975). Wisniewski. uma. 32). Métodos y aplicaciones (http:/ / www. E. bioestadistica. . Biostatistical Analysis. htm)». Introduction to Statistical Inference. uma. G. J. 72. Métodos y aplicaciones (http:/ / www. pp. es/ libro/ node100. J. conocida una proporción muestral pn de una muestra de tamaño n. I.6. H. htm). es/ libro/ html. Oliver and Boyd. 151-161.2. 236. (1977). (1937). J. Bioestadística. Estimación confidencial (http:/ / www. (1965) Logic of Statistical Inference. ISBN 84-7496-653-1. Intervalo para una proporción (http:/ / www. htm)». « 8. 230. Consultado el 24-04-2009. E. bioestadistica. S. google. [5] Véanse en las tablas de la normal tipificada las entradas correspondientes a los valores 0. Málaga: Universidad de Málaga. Piotr Marian (2001). Statistical Methods and Scientific Inference. Málaga: Universidad de Málaga. NJ (pp. Mathematical Statistics.Intervalo de confianza 82 Intervalo de confianza para una proporción El intervalo de confianza para estimar una proporción p. NJ. Van Nostrand. es/ books?id=0VYkub0HvJwC)». (1962). 789-827. New Jersey. Francisca (octubre de 1997). Prentice Hall International. Englewood Cliffs. Prentice Hall. uma. uma. es/ libro/ node108. J. D. Bioestadística. Consultado el 07-04-2009.2. Francisca (octubre de 1997). Princeton. [2] Es una consecuencia del Teorema Central del Límite. 43-45. « 10. Población El número de elementos o sujetos que componen una población estadística es igual o mayor que el número de elementos que se obtienen de ella en una muestra (n). lo cual lo hace modelo de estudio para el proyecto establecido. geográficas o temporales. Tipos de población Existen distintos tipos de poblaciones que son: • Población base: es el grupo de personas designadas por las siguientes características: personales. juntadeandalucia. • Muestra estudiada: es el grupo de sujetos en el que se recogen los datos y se realizan las observaciones.Población estadística 83 Población estadística Población estadística. envases de coca-cola • Sobrepoblación • Óptimo de población • Padrón Enlaces externos • Revisiones del padrón municipal de Andalucía JUBA [1] Referencias [1] http:/ / www. la clasificación característica de los mismos. también llamada universo o colectivo. El número de muestras que se puede obtener de una población es una o mayor de una. de la que se obtiene la muestra o participantes en un estudio epidemiológico a la que se quiere extrapolar los resultados de dicho estudio (inferencia estadística). es el conjunto de elementos de referencia sobre el que se realizan las observaciones. • Población muestreada: es la población base con criterios de viabilidad o posibilidad de realizarse el muestreo. Población en epidemiología En epidemiología una población es un conjunto de sujetos o individuos con determinadas características demográficas. • Población diana: es el grupo de personas a la que va proyectado dicho estudio. siendo realmente un subgrupo de la población muestreada y accesible. que son elegibles para participar en el estudio. en estadística. htm . es/ iea/ padron/ revpad. a partir de los estadísticos muestrales calculados a partir de los elementos de la muestra. el muestreo puede ser más exacto que el estudio de toda la población porque el manejo de un menor número de datos provoca también menos errores en su manipulación. En tales casos. Ejemplo La descripción de una muestra. puede obtenerse una información similar a la de un estudio exhaustivo con mayor rapidez y menor coste (véanse las ventajas de la elección de una muestra.222 habitantes Probabilidad del evento: Nivel de confianza: Desviación tolerada: Tamaño de la muestra: ej. En cualquier caso. Nivel de confianza El nivel de confianza de una aseveración basada en la inferencia estadística es una medida de la bondad de la estimación realizada a partir de estadísticos muestrales. X La interpretación de esos datos sería la siguiente: . Estimación Una estimación es cualquier técnica para conocer un valor aproximado de un parámetro referido a la población. para lo cual deben ser representativas de la misma. El número de sujetos que componen la muestra suele ser inferior que el de la población. Valor de la población. Las muestras se obtienen con la intención de inferir propiedades de la totalidad de la población. Parámetro o Estadístico muestral Un parámetro estadístico o simplemente un estadístico muestral es cualquier valor calculado a partir de la muestra. que describe a una población y puede ser estimado a partir de una muestra. 96% ej. puede ser del tipo mostrado en el siguiente ejemplo: Dimensión de la población: ej. Otras definiciones relacionadas Espacio Muestral El espacio muestral del que se toma una muestra concreta está formado por el conjunto de todas las posibles muestras que se pueden extraer de una población mediante una determinada técnica de muestreo. más abajo). 270 Resultado ej. 5% ej. en ocasiones. 222. Para cumplir esta característica la inclusión de sujetos en la muestra debe seguir una técnica de muestreo. Hombre o Mujer 50% ej. varianza o una proporción. pero suficiente para que la estimación de los parámetros determinados tenga un nivel de confianza adecuado. como por ejemplo la media. el conjunto de individuos de la muestra son los sujetos realmente estudiados. Por otra parte. Para que el tamaño de la muestra sea idóneo es preciso recurrir a su cálculo.Muestra estadística 84 Muestra estadística En estadística una muestra estadística (también llamada muestra aleatoria o simplemente muestra) es un subconjunto de casos o individuos de una población estadística. y los resultados obtenidos sobre ella. se consigue mayor rapidez. El proceso de estudio es destructivo o es necesario consumir un artículo para extraer la muestra (ejemplos: vida media de una bombilla. en sí mismo. Descripción matemática de una muestra aleatoria El uso de muestras para deducir fiablemente características de la población requiere que se trate con muestras aleatorias. o más exactamente un muestreo de tamaño N. y si tienen la misma distribución). cosa que sólo puede hacerse considerando otro tipo de muestreos aleatorios robustos que permitan decir si la primera muestra era aleatoria o no. imposible de analizar en su totalidad.1 . Si la muestra estadística considerada no constituye una muestra aleatoria las conclusiones basadas en dicha muestra no son fiables y en general estarán sesgadas en algún aspecto. Section 8. precisión de un proyectil. • Estimamos en un 50% para cada sexo y para el propósito del estudio es suficiente un 90% de seguridad con un nivel entre 90 . no es una muestra). resulta muy difícil comprobar si una determinada muestra es o no aleatoria. John Wiley. en la mayoría de los casos. con la misma distribución de probabildad F. 1962. infinita. La población es suficientemente homogénea respecto a la característica medida. En general.222 habitantes y queremos saber cuántos son hombres o mujeres. de entender una muestra es considerar que una muestra es una sucesión de N experimentos independientes de una misma cantidad. si las variables aleatorias consideradas son independientes entre sí. Es importante diferenciar una muestra de tamaño N. con lo cual resultaría inútil malgastar recursos en un análisis exhaustivo (por ejemplo. muestras sanguíneas). Las características de la población varían si el estudio se prolonga demasiado tiempo. Referencias [1] Samuel S. El concepto de muestra incluye de alguna manera el procedimiento escogido para obtener los datos (es decir. Rapidez: al reducir el tiempo de recogida y tratamiento de los datos. carga soportada por una cuerda.[1] Otra forma más intuitiva. por tanto. Wilks. 2. como ocurre en determinados experimentos aleatorios) y. Si la población es muy grande (en ocasiones. Viabilidad: la elección de una muestra permite la realización de estudios que serían imposible hacerlo sobre el total de la población. 3. 7. los gastos de recogida y tratamiento de los datos serán menores que si los obtenemos del total de la población. por las siguientes razones: 1. 5. del resultado concreto de de los N experimentos (que como conjunto de valores fijos.).222 y en un censo numerado comprobamos el género para los seleccionados. • Generamos una tabla de 270 números al azar entre 1 y 222. 6. Mathematical Statistics. etc. En términos matemáticos. 85 Ventajas de la elección de una muestra El estudio de muestras es preferible.5 y 90 + 5.Muestra estadística • La población a investigar tiene 222. 4. dada una variable aleatoria X con una distribución de probabilidad F. una muestra aleatoria de tamaño N es un conjunto finito de N variables independentes. Reducción de costos: al estudiar una pequeña parte de la población. promedio de notas. superior) Nominal:Corresponde a aquellas en las cuales no existe un orden intuitivo. etc.el sexo. nº de hijos. dada una muestra estadística de valores . la varianza muestral podría usarse para estimar la varianza poblacional. Ejemplos Tipos de variables estadísticas.por ejemplo nivel de educación (básico. Continua:variable que toma valores no enteros Ejemplo: Estatura exacta. Más formalmente un estadístico es una función medible T que. por ejemplo: estado civil. la definición de Varianza es la siguiente: Momentos muestrales Con las mismas notaciones usadas a la media y varianza muestral se define el estadístico momento muestral no centrado como: Nótese que m1 es precisamente la media muestral. . les asigna un número. nº de sillas de una sala. Análogamente se define el estadístico momento muestral centrado como: .[1] Esto se denomina como realizar una estimación puntual.Estadístico muestral 86 Estadístico muestral En estadística un estadístico (muestral) es una medida cuantitativa. la media de los valores de una muestra (media muestral) sirve para estimar la media de la población de la que se ha extraído la misma. medio. Así. derivada de un conjunto de datos de una muestra. Variable cualitativa Ordinal o Derivada : Son aquellas que existe un orden intuitivo. por ejemplo. Media muestral Si se tiene una muestra estadística de valores para una variable aleatoria X con distribución de probabilidad F(x. etc. con el objetivo de estimar o inferir características de una población o modelo estadístico. etc. etc.θ) (donde θ es un conjunto de parámetros de la distribución) se define la media muestral n-ésima como: Varianza muestral De forma análoga a la Media Muestral y utilizando los mismos elementos que en la misma. que sirve para estimar determinado parámetro de la distribución de la que procede la muestra. Variable cuantitativa Discreta:variables que pueden tomar valores enteros. el número de datos en cada muestra i). denominado estimador. Una estimación puntual de algún parámetro de una población es un solo valor obtenido a partir de un estadístico. un estadístico es suficiente para los objetivos de la inferencia estadística si contiene. es decir. para comprobar si la modificación en las condiciones de un proceso (humano o natural) esencialmente aleatorio producen una elevación o disminución de la media poblacional. Al comparar las 2 medias. La prueba consiste en examinar el estadístico t obtenido a partir de la dos muestras como: Y este valor se compara con un valor de referencia basado en el número de grados de libertad y el nivel de significación. en cierto sentido. Véase también: Distribución t de Student . y como originalmente indicó. y entonces poder afirmar que las dos muestras corresponden a distribuciones de probabilidad de media poblacional distinta. este número viene dado por (siendo Ni el tamaño muestral. en concreto del número de grados de libertad conjunto de las dos muestras. o la proporción de una muestra para estimar el parámetro de una distribución binomial. cuando usamos la media muestral para estimar la media de una población. Por ejemplo. es suficiente para θ o para la familia si y sólo si. frecuentemente siempre se supone que el nivel de signigicación α sea menor que 0. o por el contrario afirmar que la diferencia de medias puede deberse a oscilaciones estadísticas azarosas. toda la «información» acerca de la función de distribución a partir de la cual se ha generado la muestra. Contraste de hipótesis Test t-Student Es un test que permite decidir si dos variables aleatorias normales (gausianas) y con la misma varianza tienen medias diferentes. la distribución Aplicaciones Estimación puntual La estimación puntual consiste en utilizar el valor de un estadístico. para calcular el valor de un parámetro desconocido de una población. Dicho valor de referencia se obtiene a partir de la distribución t de Student. entonces se dice pertenece a una familia de distribuciones dadas por un vector paramétrico . El test opera decidiendo si una diferencia en la media muestral entre dos muestras es estadísticamente significativa. La eficacia del test aumenta con el número de datos del que constan las dos muestras. Formalmente si que un cierto estadístico condicionada de no depende de es una muestra de una variable aleatoria cuya distribución de probabilidad .Estadístico muestral que guarda las siguientes relaciones con estadísticos previamente definidos: 87 Propiedades Suficiencia El concepto de estadístico suficiente fue introducido por Fisher en 1922. Dada la ubicuidad de la distribución normal o gausiana el test puede aplicarse en numerosos contextos.05. google. p. • 'Manual de Estadística Empresarial con ejercicios resueltos' de Eva Ropero. google. Parámetros poblacionales y estadísticos muestrales (http:/ / books. solicitar la colaboración de otros centros o ampliar el periodo de reclutamiento. Si el número de sujetos es insuficiente habría que modificar los criterios de selección. es/ books?id=ly-EjOkkL9UC) (2.3. Detectar una determinada diferencia.5%. Ramón Areces. 2. Editorial Delta Publicaciones. • 'Introducción a la Estadística Económica y Empresarial. Así: 1. 32. 2007 (Madrid). llegando a la conclusión errónea de que no existe tal diferencia. Los estudios con tamaños muestrales insuficientes. ISBN 848004263X. Ana Isabel.Estadístico muestral test F-Snedecor estas son de regresion r=(25(1404)-(183)(185))/√(((25(1395)-(18〖3)〗^2 (25(1427)-(185)^2)) r=1245/√((34875-33489)(35675-34225)) r=1245/√((1386)(1450)) r=1245/1417. Javier Martín-Pliego López. es/ books?id=ly-EjOkkL9UC& printsec=frontcover& dq=inferencia+ estadÃstica& as_brr=3#PPA32. Si el número de sujetos es excesivo. Manzano Arrondo. « 1. 2. entre los grupos de estudio con un mínimo de garantía.M1)». 3.. Vicente. Zamora Sanz. Tamaño de la muestra En estadística el tamaño de la muestra es el número de sujetos que componen la muestra extraída de una población. . el estudio se encarece desde el punto de vista económico y humano. ilustrada edición). no son capaces de detectar diferencias entre grupos.638882 r= 0. Estimar un parámetro determinado con el nivel de confianza deseado. k: es una constante que depende del nivel de confianza que asignemos. . 2008 (Madrid). Además es poco ético al someter a más individuos a una intervención que puede ser menos eficaz o incluso perjudicial. Teoría y Práctica. El tamaño de una muestra es el número de individuos que contiene. Objetivos de la determinación del tamaño adecuado de una muestra 1. María Eleftheriou. Luana Gava y Eva Romero. Reducir costes o aumentar la rapidez del estudio.878220833 88 Referencias [1] Casas Sánchez. (1997). en un estudio de investigación epidemiológico la determinación de un tamaño adecuado de la muestra tendría como objetivo su factibilidad. si realmente existe. Jose M. Por ejemplo.5 % de confianza es lo mismo que decir que nos podemos equivocar con una probabilidad del 4. Consultado el 14/04/2009. necesarios para que los datos obtenidos sean representativos de la población. Inferencia Estadística (http:/ / books. Editorial Thomson. El nivel de confianza indica la probabilidad de que los resultados de nuestra investigación sean ciertos: un 95. Una fórmula muy extendida que orienta sobre el cálculo del tamaño de la muestra para datos globales es la siguiente: n = ( (k^2) * N*p*q) / ( (e^2 * (N-1) )+( (k^2) * p*q)) N: es el tamaño de la población o universo (número total de posibles encuestados).' de Fco. 44 85% 1. Altos niveles de confianza y bajo margen de error no significan que la encuesta sea de mayor confianza o esté más libre de error necesariamente. σ= Desviación estándar de la población.96) e: es el error muestral deseado. es 1-p. valor que queda a criterio del encuestador.58 99% 89 (Por tanto si pretendemos obtener un nivel de confianza del 95% necesitamos poner en la fórmula k=1.65 90% 95% 1. valor que queda a criterio del encuestador. suele utilizarse un valor constante de 0.58. Ejemplos: Ejemplo 1: si los resultados de una encuesta dicen que 100 personas comprarían un producto y tenemos un error muestral del 5% comprarán entre 95 y 105 personas. suele utilizarse un valor que varía entre el 1% (0. Ejemplo 3: si los resultados de una encuesta electoral indicaran que un partido iba a obtener el 55% de los votos y el error estimado fuera del 3%. e = Límite aceptable de error muestral que.5% 2. se estima que el porcentaje real de votos estará en el intervalo 52-58% (55% +/.28 80% 1.09). se lo toma en relación al 95% de confianza equivale a 1. que generalmente cuando no se tiene su valor. q: proporción de individuos que no poseen esa característica. La fórmula anterior se obtiene de la fórmula para calcular la estimación del intervalo de confianza para la media: X ̅-Z σ/√n √((N-n)/(N-1))≤μ≤X ̅+Z σ/√n √((N-n)/(N-1)) En donde el error es: e=Z σ/√n √((N-n)/(N-1)) Elevando al cuadrado el error se tiene: 〖(e)〗^2=(Z σ/√n √((N-n)/(N-1)))^2 e^2=Z^2 σ^2/n (N-n)/(N-1) Multiplicando fracciones: e^2=(〖Z^2 σ〗^2 (N-n))/n(N-1) Eliminando denominadores: e^2 n(N-1)=〖Z^2 σ〗^2 (N-n) Eliminando paréntesis: e^2 nN-e^2 n=〖Z^2 σ〗^2 N-〖Z^2 σ〗^2 n Transponiendo n a la izquierda: e^2 nN-e^2 n+〖Z^2 σ〗^2 n=〖Z^2 σ〗^2 N Factor común de n: n(e^2 N-e^2+Z^2 σ^2 )=〖Z^2 σ〗^2 N Despejando n: . Es un valor constante que. si no se tiene su valor. El error muestral es la diferencia que puede haber entre el resultado que obtenemos preguntando a una muestra de la población y el que obtendríamos si preguntáramos al total de ella. p: proporción de individuos que poseen en la población la característica de estudio. Ejemplo 2: si hacemos una encuesta de satisfacción a los empleados con un error muestral del 3% y el 60% de los encuestados se muestran satisfechos significa que entre el 57% y el 63% (60% +/.5 que es la opción más segura.15 75% 1. n: tamaño de la muestra (número de encuestas que vamos a hacer). N = tamaño de la población. antes es preciso minimizar la principal fuente de error que tiene lugar en la recogida de datos. Este dato es generalmente desconocido y se suele suponer que p=q=0.01) y 9% (0.3%).96 (como más usual) o en relación al 99% de confianza equivale 2. es decir.96 2 95. Z = Valor obtenido mediante niveles de confianza.3%) del total de los empleados de la empresa lo estarán. generalmente cuando no se tiene su valor. Para calcular el tamaño de la muestra suele utilizarse la siguiente fórmula: Otra fórmula para calcular el tamaño de la muestra es: n=(Nσ^2 Z^2)/((N-1) e^2+σ^2 Z^2 ) Donde: n = el tamaño de la muestra.Tamaño de la muestra Los valores k más utilizados y sus niveles de confianza son: k Nivel de confianza 1.5. 3. Estimación de una proporción Los datos que tenemos que incluir en la fórmula para calcular el número de sujetos necesarios de la muestra (N) son: 1.5〗^2∙〖2. mayor espacio muestral.9116=285. debemos conocer previamente: • error tipo I y tipo II: Hay que establecer el riesgo de cometer un error de tipo I que se está dispuesto a aceptar. y e = 0.Tamaño de la muestra n=(〖Z^2 σ〗^2 N)/(e^2 N-e^2+Z^2 σ^2 ) Ordenando se obtiene la fórmula para calcular el tamaño de la muestra: n=(Nσ^2 Z^2)/((N-1) e^2+σ^2 Z^2 ) Ejemplo ilustrativo: Calcular el tamaño de la muestra de una población de 500 elementos con un nivel de confianza del 99% Solución: Se tiene N=500. que suele ser entre el 5 y el 20%.05)〗^2+〖0. yo lo dije asi. Estimación de una media Los datos que tenemos que incluir en la fórmula para calcular el número de sujetos necesarios en la muestra (N) son: 1.58.05/2. 3. El riesgo α fijado suele ser 0. • Conocer la variabilidad del criterio de evaluación en la población.05 y Zα/2 de 1. Para el cálculo del tamaño de la muestra en una estimación de parámetros son necesarios los conceptos de Intervalo de confianza.5〗^2 〖∙2..05 y Zα/2 de 1. y a menor diferencia.5.77=286 90 Estimación de parámetros La estimación de parámetros consiste en el cálculo aproximado del valor de un parámetro en la población.. : Precisión con que se desea estimar el parámetro ( es la amplitud del intervalo de confianza). Además hay que establecer el riesgo que se acepta de cometer un error tipo II. Normalmente de forma arbitraria se acepta un riesgo del 5%. error. P: Valor de la proporción que se supone existe en la población.05. Zα/2: valor de Z correspondiente al riesgo α fijado. menor tamaño muestral.96. valor crítico y valor α (véase estimación por intervalos). El riesgo α fijado suele ser 0. • Definir la Magnitud de la diferencia efecto o asociación que se desea detectar: A mayores diferencias preestablecidas en el planteamiento de la hipótesis. variabilidad del parámetro. . y como no se tiene los demás valores se tomará σ=0. • Si la hipótesis es unilateral o bilateral: El planteamiento de una hipótesis bilateral o "de dos colas" requiere mayor tamaño muestral.. Reemplazando valores en la fórmula se obtiene: n=(Nσ^2 Z^2)/((N-1) e^2+σ^2 Z^2 ) n=(500∙〖0. Contraste de hipótesis Para conocer el tamaño de la muestra en un estudio de investigación en el que queremos conocer las diferencias existentes entre dos hipótesis. 2. i: Precisión con que se desea estimar el parámetro ( es la amplitud del intervalo de confianza).58〗^2)/((500-1) 〖(±0. para el 99% de confianza Z = 2. 2. nivel de confianza. utilizando la inferencia estadística.96. Zα/2: valor de Z correspondiente al riesgo α fijado.58〗^2 )=832. : Varianza de la distribución de la variable cuantitativa que se supone que existe en la población. a partir de los valores observados en la muestra estudiada. .29 = Media de las dos proporciones y . Así. Se define Sn como la suma de n variables aleatorias.1).[1][2] Definición Sea la función de densidad de la distribución normal definida como[1] con una media µ y una varianza σ2. intervención o técnica. independientes. curva de Gauss o campana de Gauss). si Sn es la suma de n variables aleatorias independientes. placebo. El caso en el que su función de densidad es . las variables Zn convergerán en distribución a la distribución normal estándar N(0.13 = Valor de la proporción en el grupo de referencia. Como consecuencia.Tamaño de la muestra Comparación de dos proporciones Para calcular el número de sujetos necesarios en cada una de las muestras (n). la media de Sn es n·µ y la varianza n·σ2.44 = Valor de la proporción en el grupo del nuevo tratamiento. para cada número real z: donde Pr( ) indica probabilidad y lim se refiere a límite matemático. si Φ(z) es la función de distribución de N(0. Con tal de hacer más fácil la comprensión del teorema y su posterior uso.96 = Valor Z correspondiente al riesgo deseado 1. a la distribución se le conoce como normal estándar. y con una media µ y varianza σ2 finitas (σ2≠0): de manera que. debemos prefijar: • • • • • 1. dado que son variables aleatorias independientes. si es de dos colas. 0. 91 Coeficiente de correlación La asociación entre dos variables cuantitativas necesita normalmente la utilización del coeficiente de correlación r de Pearson. Teorema del límite central El teorema del límite central o teorema central del límite indica que. entonces la función de distribución de Sn «se aproxima bien» a una distribución normal (también llamada distribución gaussiana. Equivalencia de dos intervenciones • Portal:Matemática. en condiciones muy generales. 0. idénticamente distribuidas. Así pues.96 = Valor Z correspondiente al riesgo deseado. control o tratamiento habitual. se hace una estandarización de Sn como para que la media de la nueva variable sea igual a 0 y la desviación estándar sea igual a 1.1). el teorema asegura que esto ocurre cuando la suma de estas variables aleatorias e independientes es lo suficientemente grande. Contenido relacionado con Matemática. cuando n tienda a infinito. 0. Es muy común encontrarlo con la variable estandarizada Zn en función de la media muestral . Laurie (1997). Two Proofs of the Central Limit Theorem (http:/ / www.. « Central Limit Theorem (http:/ / mathworld. . . Consultado el 13 de diciembre de 2010. pp. 2 .. con valor esperado y varianza finitas. [2] Grinstead. MathWorld. pdf)» (en inglés. csusb. [3] Charles Stanton. 77. edu/ ~chance/ teaching_aids/ books_articles/ probability_book/ Chapter9. html)» (en inglés). idénticamente distribuidas. Charles M. Nota: es importante remarcar que este teorema no dice nada acerca de la distribución de de media y varianza.u-cursos. así como encontrarlo en versiones no normalizadas como puede ser:[4][5] Teorema (del límite central): Sea . ISBN 0821807498. csusb. All of Statistics. Yuval (Enero/Febrero 2010) (en inglés). math... Pablo (30 de julio de 2004). Snell. pp. J.. Entonces. Delieutraz. en general. . Consultado el 13-12-2010. PDF). . [4] Wasserman. cs. «5. 325-360.. Jimena. ISBN 0-387-40272-1. [4] . tales como la inferencia estadística o la teoría de renovación. p. . independientes e idénticamente distribuidas de una distribución con media μ y varianza σ ≠0. Consultado el 15/04/2009. Wolfram Research. Convergence of Random Variables» (en inglés). « Central limit theorem (http:/ / www. [5] *Weisstein. Probability and Statistics Demos (http:/ / www. puesto que son equivalentes. Central Limit Theorem (http:/ / www. dartmouth. . toronto. encuentra aplicación en muchos campos relacionados. edu/ faculty/ stanton/ ). google. si n es suficientemente grande. mayor en el centro de las mismas que en sus extremos o colas. Eric W. un conjunto de variables aleatorias. Sea Entonces . un conjunto de variables aleatoria. • La aproximación entre las dos distribuciones es. es/ books?id=14oq4uWGCkwC) (2 edición). normalizada y compacta el enunciado del teorema es:[3] Teorema del límite central: Sea . « Teorema central del límite (https://www..Teorema del límite central 92 Enunciado formal De manera formal. • Existen diferentes versiones del teorema. cl/ingenieria/2009/2/MA3401/1/material_docente/bajar?id_material=260765)» (en castellano) (PDF). html)» (en inglés). com/ CentralLimitTheorem. independientes e idénticamente distribuidas con media μ y varianza σ2 distinta de cero. edu/ ~yuvalf/ CLT. « 9. AMS Bookstore. motivo por el cual se prefiere el nombre "teorema del límite central" ("central" califica al límite. más que al teorema). wolfram. excepto la existencia Propiedades • El teorema del límite central garantiza una distribución normal cuando n es suficientemente grande. • Blaiotta. 1-3. edu/ faculty/ stanton/ probstat/ clt. Introduction to Probability (http:/ / books. Referencias [1] Filmus. • Este teorema. Una de las más simples establece que es suficiente que las variables que se suman sean independientes. perteneciente a la teoría de la probabilidad. pdf). la variable aleatoria tiene aproximadamente una distribución normal con y . math. Springer. en función de las condiciones utilizadas para asegurar la convergencia. Larry. Commons Ronald Fisher Ronald Aylmer Fisher. 55 respuestas a dudas típicas de Estadística. Allí comenzó el estudio de una extensa colección de datos. Dos años antes. Londres. Hertfordshire. El artículo mostraba que la herencia de rasgos. cuyos resultados fueron publicados bajo el título general de Studies in Crop Variation. Fisher realizó muchos avances en la estadística. S. Publicó varios artículos sobre biometría. Su respuesta al problema estadístico de los investigadores en biología y agronomía fue introducir y desarrollar ideas originales en el campo de la inferencia estadística y en el de diseño de . comenzó a escribir reseñas de libros para la Eugenic Review e incrementó gradualmente su interés en el trabajo genético y estadístico. los valores de variables continuas. 93 Enlaces externos • Wikimedia Commons alberga contenido multimedia sobre Teorema del límite central. considerablemente superior a la de la correlación. mensurables por valores reales. En 1909 la escasez de sus recursos económicos y su extraordinaria capacidad académica le valieron una beca para cubrir su estancia en el Gonville and Caius College de la Universidad de Cambridge. 17 de febrero de 1890 – m. era consistente con los principios mendelianos. que inauguró la fundación de la llamada genética biométrica e introdujo la metodología del análisis de varianza. pp. C. Durante la guerra. Inglaterra). 1925). se dedicó al estudio pionero de los principios del diseño de experimentos (The Design of Experiments. ISBN 84-7978-643-4. R. (n. Fisher atravesó momentos de extrema carestía económica.Teorema del límite central Consultado el 15 de diciembre de 2010. A pesar de las dificultades. biólogo evolutivo y genetista inglés. Biografía académica Fisher nació en East Finchley. 187-189. estadístico. matemático. junto con John Maynard Keynes. Adelaida. Grima Cintas. Londres. Ronald Aylmer Fisher. Estadística En 1919 Fisher empezó a trabajar en la Rothamsted Experimental Station (Harpenden. donde obtuvo su graduación en matemáticas en 1913. 29 de julio de 1962) científico. 1935). siendo una de sus más importantes contribuciones.A. la inferencia estadística creada por él en 1920. Madrid: Ediciones Díaz de Santos. incluyendo el célebre The Correlation Between Relatives on the Supposition of Mendelian Inheritance. Pere (2004) (en castellano). Punnett y Horace Darwin. hijo de Charles Darwin. Durante los siguientes siete años. Roberto. • Behar Gutiérrez. se había convertido en uno de los fundadores más activos de la Sociedad de Eugenesia de la Universidad de Cambridge. elaboró sus trabajos sobre el análisis de varianza y comenzó a prestar una atención especial a las ventajas metodológicas de la computación de datos (Statistical Methods for Research Workers. Después de retirarse de Cambridge en 1957 se integró como investigador senior en el CSIRO en Adelaida. En 1933 abandonó Rothamsted para ocupar la cátedra de Eugenesia en la University College London. Utilizando los datos del censo de 1911 para Gran Bretaña. demostrando que la posibilidad de que una mutación incremente la adaptación de un organismo disminuye con la magnitud de la mutación y que las poblaciones más grandes conllevan más variación. Un tercio de la obra estaba dedicado a la aplicación de estas ideas al ser humano. pero que habían crecido por las ventajas económicas asociadas a tener un número reducido de hijos. el mimetismo y la evolución de la dominancia. Fisher es uno de los principales fundadores de la genética de poblaciones.[1] 94 Genética de poblaciones y teoría evolutiva Junto con Sewall Wright y J. ocupó la Cátedra de Genética en Cambridge. que logró conciliar la metodología biométrica con la genética mendeliana. . El interés de Fisher por la genética y la evolución se despertó en Cambridge. B.Ronald Fisher experimentos. La causa. que estimuló y guio gran parte de su trabajo en genética humana. El reconocimiento hizo crecer su fama y se convirtió en un investigador docente de prestigio internacional. Para superar esta "lacra". descubrió la utilidad del uso de los cuadrados latinos para mejorar significativamente los métodos agrícolas. S. Su libro The Genetical Theory of Natural Selection consistió en una síntesis de la literatura ya publicada al respecto. En 1929 fue admitido en la Royal Society. la cátedra fue disuelta y se exilió a Rothamsted. Eugenesia Fisher fue un ardiente promotor de la eugenesia. la primera fase de la Síntesis evolutiva moderna. En 1943. Fisher proponía que las ventajas económicas de las que disfrutaban las familas pequeñas. Sus trabajos sobre el cromosoma del ratón culminaron en 1949 con la publicación de The Theory of Inbreeding. introduciendo también nuevas ideas sobre la selección sexual. en su opinión. Fisher sentó las bases de la genética poblacional. radicaba en el incremento del estatus social de las familias que no eran capaces de producir mucha descendencia. después de atravesar una larga crisis económica y personal. una esterilización voluntaria y positiva que nunca se aplicase como castigo. los Mendelianos eran la escuela dominante. cuando se hallaba investigando la eficacia de los fertilizantes en el rendimiento de las cosechas e intentando que la calidad de la tierra no fuese un factor indeseable que influyese en el rendimiento de la cosecha. Murió de cáncer de colon en 1962. y Fisher pronto estuvo convencido de que el mendelismo era el principal mecanismo de la herencia. con la lectura de una serie de artículos de Karl Pearson ("Mathematical Contributions to the Theory of Evolution"). Australia. desaparecieran por medio de subsidios estatales. con el inicio de la guerra. En 1947 fundó junto con Cyril Darlington la revista Heredity: An International Journal of Genetics. Por ejemplo. Fisher mostraba la relación inversa entre fertilidad y clase social. de modo que tienen una mayor probabilidad de supervivencia. Fisher atribuía el declive y la caída de las civilizaciones al hecho de que se había alcanzado un momento histórico en el que había comenzado a decaer la fertilidad de las clases altas. Entre 1929 y 1934 Fisher participó muy activamente en la campaña emprendida por la Eugenics Society a favor de la aprobación de una ley que permitiese la esterilización en base a criterios eugénicos. En la misma universidad. Haldane. En 1939. . • The Genetical Theory of Natural Selection (1930) ISBN 0-19-850440-3.blackwellpublishing. Ed. Br. 1 online (http://www. • Box. 50 cosas que hay que saber sobre matemáticas. 10: 507-521. ISBN 978-987-1496-09-9. 22: 700-725 (1925) • "Applications of Student's distribution" Metron. ISBN 0-05-000873-0 Contributions to mathematical statistics (1950) ISBN B0000CHSZU. A. 42: 321-341. (1926) • "The general sampling distribution of the multiple correlation coefficient" Proceedings of Royal Society. A. ISBN 0-471-09300-9.Ronald Fisher 95 Referencias [1] Tony Crilly (2011). Fisher: The Life of a Scientist. Proc.library. Roy.asp) Cap..blackwellpublishing. 222: 309-368. Math. 2: 805-813. Min. Agric.com/ridley/classictexts/fisher1. Joan Fisher (1978) R. New York: Wiley. • "On the mathematical foundations of theoretical statistics]" Philosophical Transactions of the Royal Society. 121: 654-673 (1928) • "Two new properties of mathematical likelihood" Proceedings of Royal Society. 2002) • Salsburg. Int. Soc. Toronto. (1922) • "On a distribution yielding the error functions of several well known statistics" Proc.edu. . (1918). (1924) • "Theory of statistical estimation" Proceedings of the Cambridge Philosophical Society. 5 vol. 5: 90-104 (1925) • "The arrangement of field experiments" J.com/ridley/classictexts/fisher2. 33: 503-513. coautor:Frank Yates) The theory of inbreeding (1949) ISBN 0-12-257550-4. G. (1922) • "On the dominance ratio. 6 online (http://www. Ariel..au/digitised/fisher): • Statistical Methods for Research Workers (1925) ISBN 0-05-002170-2.A.edu.adelaide. "Interpreting Probability: Controversies and Developments in the Early Twentieth Century" (Cambridge University Press. library. A. David (2002) The Lady Tasting Tea: How Statistics Revolutionized Science in the Twentieth Century. Roy. • David Howie. 144: 285-307 (1934) Libros La lista completa de las publicaciones se encuentra disponible en University of Adelaide website (http:/ / www. Cap. Soc.adelaide. ISBN 0-8050-7134-2 Bibliografía Selección de artículos Disponibles en University of Adelaide website (http://www.. agricultural and medical research (1938.asp) • • • • • • • The design of experiments (1935) ISBN 0-02-844690-9. ISBN B0000CKL1X The use of multiple measurements in taxonomic problems (in Annals of Eugenics 7/1936) Statistical tables for biological. A." Biometrika. Fisher (1971-1974). University of Adelaide. (1915) • "The correlation between relatives on the supposition of Mendelian inheritance" Trans.au/digitised/fisher): • "Frequency distribution of the values of the correlation coefficient in samples from an indefinitely large population. Edinb. Cong. Edinb. 52: 399-433. Statistical methods and statistical inference (1956) ISBN 0-02-844740-9 Collected Papers of R. Biographical Memoirs of Fellows of the Royal Society of London 9:91-120 Available on University of Adelaide website (http://digital.soton. Fisher: The Life of a Scientist. A.economics. por John Aldrich (http://www.library.au/digitised/fisher/index.economics. Wikiquote • Una guía de R.html) • Frank Yates & Kenneth Mather (1963) Ronald Aylmer Fisher. A.aol.ca/Fisher/Methods/ ) • Una colección de citas de Fisher compiladas por A. New York: Wiley. Edwards (http://www. biografía y 2 volúmenes de correspondencia y artículos. Fisher.st-and. ISBN 0-471-09300-9.edu.ac.edu.dcs.uk/staff/ aldrich/fisherguide/quotations.uk/~history/Extras/Fisher_Life.html) • Primera edición del Statistical Methods for Research Workers (http://psychclassics.html) • Bibliografía. de la Biblioteca de la Universidad de Adelaide (http://www.com/jeff570/mathword.Ronald Fisher 96 Biografías • Box.ac. F. Preface (http://www-groups. Joan Fisher (1978) R.htm) • Sobre la contribución de Fisher al lenguaje de la Estadística (http://members.pdf) Enlaces externos • Wikiquote alberga frases célebres de o sobre Ronald Fisher. au/coll/special//fisher/fisherbiog.ac.yorku.htm) .soton.adelaide.uk/staff/aldrich/fisherguide/ rafreader. W.library.adelaide. Nicoguaro. HiTe. Ugly. Dedalo380. Tirithel. Jjgibaja. JorgeGG. Mxcatania. Artorius. Kved. Savh.. Ravave. Paintman. Matdrodes. Cookie. 38 ediciones anónimas Contraste de hipótesis Fuente: http://es. Andreateletrabajo. Dhcp. Srbanana.php?oldid=54449791 Contribuyentes: AlfonsoERomero. Peejayem. Pino. Sabbut. Francisco Albani. NudoMarinero. BuenaGente. Paulrc. Cgb. MotherForker.Sergio. Diegusjaimes. Omary22 24. Açipni-Lovrij. Alvaro9. Icvav. Fcojperez.php?oldid=54575629 Contribuyentes: Af3. Gafotas. Juliowolfgang. Santiperez. Lobillo. Javier Jelovcan. Farisori. Mafores. Pabloallo. Valentin estevanez navarro. Aiax. Tano4595. Kved. Alvaro qc. Gökhan. Tano4595. Xerox 5B. Lauranrg. Ricardogpn. Paulrc. Aremar00. Roche.wikipedia. Diegusjaimes. AlfonsoERomero. Joseaperez. MHQ1973. Davius. Elpolaco08. Diegusjaimes. Isha. Joseaperez. Magister Mathematicae. Humbefa. Tano4595. Jorge c2010. Roberto Fiadone. Pino. Ciberrojopower. FbPort. Emijrp. Jkbw. Juan Mayordomo. Leonpolanco. Pólux. Hu12. Mpeinadopa. Wilfredor. Sageo. Ciberelm. Antonio92. Airunp. Joseaperez. 42 ediciones anónimas Distribución gamma Fuente: http://es. 26 ediciones anónimas Distribución t de Student Fuente: http://es. Ctrl Z. Peregrino. Ernesto Graf. Gustronico. Estadistica 2009. Gustronico. 12 ediciones anónimas Distribución exponencial Fuente: http://es. Kurtan.org/w/index. Taragui. ManuP. Lucien leGrey. Jorge c2010. Muro de Aguas. Dodo. Hemerson p. Juan Mayordomo. Eseotres. Matdrodes.php?oldid=54320170 Contribuyentes: Af3. Akhram. Juliowolfgang. Dermot. Dodo. Juan Mayordomo. Tano4595. Davius.wikipedia.wikipedia.org/w/index. Allforrous.delanoy.php?oldid=54620709 Contribuyentes: Abece. GermanX. Lucien leGrey. Juan Manuel. Saloca. Lobillo. Jmcalderon.org/w/index. AqueronteBlog. Rafiko77. AlfonsoERomero. Manwë. Pilaf. Template namespace initialisation script. Diegusjaimes. Dianai. VanKleinen.php?oldid=53084143 Contribuyentes: Af3.org/w/index. Maquita. Paintman. Savh. Götz. Tano4595. Jmvkrecords. Greek. CayoMarcio. Schummy. Joseangelmadrid. Cristiangy. Farisori. Sabbut. GermanX. Immersia. RedTony. Mariana de El Mondongo. Carlos. 177 ediciones anónimas Distribución de probabilidad Fuente: http://es. Diegusjaimes. Jkbw. HUB. Matdrodes. Technopat. Cookie. Dodo. Sfandino. ConPermiso. Ylmer. Fsd141. Neodop. Joseaperez. Ungoliant. Kved. Xenoforme.wikipedia. Dreitmen. Joseaperez. Cgb. Wesisnay. Madalberta. Alexv86. Davius. Vaskop. Lloux. Morini. GermanX.php?oldid=53767237 Contribuyentes: Af3.wikipedia. FrancoGG. Penetic. Chesnok. PabloCastellano. Manuelt15. Nikolin rio. Moriel. Tartaglia. Toad32767. AlfonsoERomero. Tirithel. Gökhan. Toad32767. 58 ediciones anónimas Hipótesis nula Fuente: http://es. Enen. Amanuense. Açipni-Lovrij. Ampersand &. Superzerocool. Fenicio. Isha.org/w/index. Dnu72. Farisori. Stoni. Diegusjaimes. JAGT. Juan Manuel.php?oldid=54600441 Contribuyentes: . Diegusjaimes. PabloCastellano. Paintman. Airunp.Fuentes y contribuyentes del artículo 97 Fuentes y contribuyentes del artículo Prueba F de Fisher Fuente: http://es. Qwertyytrewqqwerty. Karshan. Alex economist. Retama. Aguskiller. Maldoror. Tano4595. Juan Manuel. Emiduronte. Tartaglia. Humbefa. Flakinho.wikipedia. Pablorov. Murphy era un optimista. Joseaperez. Magister Mathematicae. Joseaperez. Nicop. Jtico. FAR. Vic Fede. Pedro Felipe. Marsal20. 128 ediciones anónimas . Xatufan. CommonsDelinker.org/w/index. Matdrodes.wikipedia. 12 ediciones anónimas Análisis de la varianza Fuente: http://es. Miss Manzana. Savh. Thingg. Pólux. 35 ediciones anónimas Distribución de probabilidad continua Fuente: http://es. Eduardosalg. Jerowiki. Paintman. Jkbw. Rufflos. Adailton. Poco a poco.org/w/index. Jkbw. Luisedu90. Mahadeva. Ybenitez. Fibonacci. Cgb. Technopat. Tano4595. Umarth8.php?oldid=54610286 Contribuyentes: Amaralaw.org/w/index. Antonorsi. Cogliatti juan i. Af3. Andreasmperu. Folkvanger. Alexav8. Zahualli. 114 ediciones anónimas Variable aleatoria Fuente: http://es. Crashjd. LP. Super braulio. Guilloip. Humberto. 34 ediciones anónimas Probabilidad Fuente: http://es. Interwiki. Niqueco.php?oldid=54410818 Contribuyentes: Alakasam. Christianfgc.php?oldid=54534252 Contribuyentes: Acratta. Davius. Megazilla77. Oxartum. JoseA. Af3. Grecio. Sauron. Tartaglia. Humbefa. Sergio Andres Segovia. Carlosfran2ceu. GermanX. 9 ediciones anónimas Distribución F Fuente: http://es. GermanX. Rufflos. Cgb. Phirosiberia. Oscar . Ybenitez. Tano4595. Aldo93. Xenoforme. Template namespace initialisation script. HiTe. Eduardosalg. JakobVoss. Roberto Pablo CASTILLO. Jkbw. Jkbw. SPZ. JorgeGG. Mafiucl. Jorge c2010. Ricardogpn. Icvav. Jorgerod6.php?oldid=54079896 Contribuyentes: Cinabrium. Farisori.wikipedia. 114 ediciones anónimas Varianza Fuente: http://es. Makaka33.php?oldid=53137372 Contribuyentes: Aldo david. Pino. Ginés90. 136 ediciones anónimas R (lenguaje de programación) Fuente: http://es. Leonpolanco. Matdrodes. Greek. Cgb. Hlnodovic. Camilo. Fenicio. Er Komandante. Ybenitez. Edmenb. Davius. HUB. Wewe. Egaida.org/w/index. Marianov.delanoy. Metrónomo. AngelHerraez. Matdrodes. Jkbw. LP. Califasuseso. Pieter. Tano4595. Farisori. Katerin jimena. Jcaraballo. Trujilloleonardo. Juan Mayordomo. Evaromero. Marsal20. Farisori. Banfield. Newton-200.org/w/index. BlackBeast. Joanfchipial. Humbefa.wikipedia. Bentzia. Manuelt15.org/w/index. Antur. Ictlogist. Alex15090.org/w/index. Equi. Juan Mayordomo. Leonpolanco. Juan Mayordomo. Humbefa.wikipedia. Asddas.org/w/index. JorgeGG. JakobVoss.wikipedia. Acratta. Alexv86. Juan Mayordomo. Gato ocioso. Camilo. Wewe. 17 ediciones anónimas Esperanza matemática Fuente: http://es. Splash04. Mortadelo2005. Jarisleif. Tortillovsky. Joxemai. Thebiguserpratwiki. Gperjim.wikipedia. Germanrinconrey. Supercyberedgar. Ricardo Alquimista. Numbo3. Joseaperez. Pasmargo. Tano4595. Soteke. Pedro Nonualco. Rjgalindo. B1mbo.wikipedia. Sebrev. Diegusjaimes. Taragui. 403 ediciones anónimas Teoría de la probabilidad Fuente: http://es. Jjgibaja. Zladmat. Technopat. Dodo. Rorduna. JakobVoss. JorgeGG. Mrzeon. Comosea.php?oldid=54449708 Contribuyentes: Acratta. Tano4595. Juancdg. Raulshc. Verdecito. Flores.wikipedia. Augustomarijuan. Juan Manuel. Jmcalderon.wikipedia.Gracia-Lázaro.wikipedia. Maldoror.wikipedia. Blaze 257. JakobVoss. Schummy. Samcienfuegos. Farisori. Kved. Juan Mayordomo. Edwoodocasio. Wissons. J. Sabbut. Mxcatania. LuchoX. Dreitmen. Vitamine.php?oldid=54449688 Contribuyentes: -antonio-. Ibon Martínez. Joseaperez. Phirosiberia. BlackBeast. Raulshc. Diegusjaimes. Mar del Sur. Patrick McKleinschuss. Canyq. Camilo. Sabbut. Farisori. Elwikipedista. Pybalo. Template namespace initialisation script. Ialad. Carter17. Matdrodes.php?oldid=53908398 Contribuyentes: A ver. Portland. Cookie. Laura Bauer. Acratta. Petruss. Banfield. Flakinho. Matdrodes. Tostadora. JoeLoui. Folkvanger. Lauranrg. Juan Manuel. Euratom. Fiquei.org/w/index. Nicop. Gorpik. Fenicio. Juan Manuel. Antony1204. Resped. Miguelisimo1985. Resped. Jmcalderon. Diegusjaimes. Magister Mathematicae. Einundswanzig. Gizmo II. Cgb. Huhsunqu. Taichi. Proximo. Paintman. Juliabis. Uncertain. Javierito92. Moriel. Elwikipedista.. Rdaneel. Ivn. Guanucoluis. AlvaroEstadisticaCEU. Valentin estevanez navarro. Juan Mayordomo. David0811. JAGT. Gperjim. Sebrev. Centroamericano. Petruss. Soteke. Julian Colina. JakobVoss. Semontanés. Juan Carlos Tapia. Mario Ayala. Netito777. NeMeSiS. Mperort348. Af3. Wewe.org/w/index. Veremos. Morytelov. Akma72. J. Angel GN. Pólux. Tirithel.org/w/index. Diegusjaimes. Dany yun. Evra83. Vitamine. Humbefa. Marsal20. Rubpe19. PabloAlv. JakobVoss.José. LauraFarina.php?oldid=54564851 Contribuyentes: Af3. Yogobah. Ilmer Condor.php?oldid=53835434 Contribuyentes: Acarabal. ConPermiso. 20 ediciones anónimas Distribución normal Fuente: http://es. JorgeGG. Diegusjaimes. Duarte. Deemonita.wikipedia. GermanX. GermanX. Juan Mayordomo. Žiedas. Darizabalo. JakobVoss. Alex economist. Neozonik. Cgb. Carlos J. Maxidigital. Farisori. Raimundo Pastor.wikipedia. Elbarak. Davius. Nakp. Ast Derek. Juan Mayordomo. Kved. Ricardogpn. Rufflos. Amanuense. Juan Mayordomo. Moonkey. Mordecki.php?oldid=46180155 Contribuyentes: Ezarate. Alchaemist. Fgiones. Hlino. Adrien. Magister Mathematicae. Emijrp. Isha. JAGT. Davius. Pólux. JorgeGG. JakobVoss.php?oldid=54540740 Contribuyentes: Adrien. Triku. Palissy. AstroNomo. 71 ediciones anónimas Distribución de Poisson Fuente: http://es. Madalberta. Amanuense. Davidmosen. Juan Mayordomo. Fvmeteo. Oscar . Juan Manuel. Doloco. AlfonsoERomero. JViejo. Germanrinconrey.org/w/index. Futbolero. Porao. Vivero.php?oldid=53187093 Contribuyentes: .. Jagarsoft. Charly montoya. Juan Mayordomo. Jorge c2010. Cgb. Cflm001.org/w/index. Dnu72. Taichi.wikipedia. Matdrodes. Matdrodes. Jcaraballo. Sabbut. Tomatejc. Juan carvacho. Snakeeater.wikipedia. Alefisico. Luis1970. AlfonsoERomero. MarcoAurelio. Zuirdj. Cgb. Jkbw. Template namespace initialisation script. 157 ediciones anónimas Función de densidad de probabilidad Fuente: http://es. Oscar . Ezarate. 225 ediciones anónimas Distribución binomial Fuente: http://es. Cgb. Farisori. Ctrl Z. Juanjo Conti. Raulshc.wikipedia. Alfambra. Mel 23. OboeCrack. JakobVoss. Tartaglia. Walterotta. Alakasam. Hprmedina. Kokoo.org/w/index. Rafiko77. 68 ediciones anónimas Teoría de la medida Fuente: http://es. Juanwrs. Carloschida. 71 ediciones anónimas Distribución χ² Fuente: http://es. Er Komandante. Ialad. Rufflos. Mxcatania. Danielba894. Farisori. Juan Manuel. Camilo. Alberto Salguero. GermanX.org/w/index. Matdrodes. Matdrodes. Joseaperez.Alberto. Eselito5. Valsaneder1. Juan Mayordomo. Mahadeva. Super braulio. Correogsk. Mion. Varyatanil. Juan Mayordomo. Ciberelm. Javier Jelovcan. Jynus. Allforrous. Davius.php?oldid=53814979 Contribuyentes: Califasuseso. AnselmiJuan. Tartaglia. PetrohsW. Danielyapahl. Agremon. Lauranrg. GermanX. Pruizpesce.Sergio. Den fjättrade ankan.org/w/index.org/w/index. Eduardosalg. Babbage. Nogueiras. Daniki7. Cgb. RoyFocker. Dodo. Moriel. JoseA. Paulrc. Wilmer32. Jerowiki. Jerowiki. Paintman. The Bear That Wasn't. Carlos Manuel Nina.php?oldid=54569211 Contribuyentes: . Pinar. Hiperfelix. Humberto. Phirosiberia. Humberto. Eduardosalg. Juan Mayordomo. HiTe. Rastrojo. Evaromero. Einundswanzig. Grillitus. Petronas. Tamorlan. Matdrodes. Plalopez. Laura Fiorucci.xv. MaSt. Rickynoram.wikipedia. Taragui. Davidge. Tartaglia. Tostadora. Dianayopli. FrancoGG.wikipedia. Nicop. Juan Mayordomo. Greek. Roberpl. Soulreaper. Isha. Any Rand. Jerowiki. Jorge C. Alcmos. Suisui. Ramjar. Góngora. Gizmo II. Elwikipedista. Cgb. Pabloes. Super braulio. Alrojo. 9 ediciones anónimas 98 . Airunp. Aiax. MadriCR. Erescepemi.php?oldid=54610763 Contribuyentes: Abelgrc. VanKleinen. Correogsk. Cbuzeta. Rafiko77.M. Tirithel. Natrix. Nemo. 42 ediciones anónimas Ronald Fisher Fuente: http://es. Fanwandter. DarkMars. Pabloes. Hprmedina. CarlosHoyos. Muro de Aguas. Uncronopio.wikipedia. AngieGM. Jkbw. JohnManuel. Jarisleif. Juan Manuel. Magister Mathematicae. Ggenellina. Fz. Especiales. Matdrodes. Laura Fiorucci. Moriel. Periku. Amadís. Eva R M. Luis lencina. Paintman. Humbefa. BL.wikipedia. Mafores. Diegusjaimes. Vitamine. Gonzalo. Xenoforme. 298 ediciones anónimas Intervalo de confianza Fuente: http://es. Javierito92. Vitamine. CLARO. Doggui. Humberto. Mar del Sur. Marsal20.wikipedia. Manwë. Elwikipedista. Limbo@MX. Juan Mayordomo. Diegusjaimes. Matdrodes. Jkbw. Gafotas. 116 ediciones anónimas Teorema del límite central Fuente: http://es. Dogor. Drever. Mgsmariosuarez. Tartaglia. XalD. Patelapiara. XCesar. Emiduronte.org/w/index. Salvor Hardin. FrancoGG. HUB.org/w/index.org/w/index.wikipedia. Madalberta. Sabbut. Focojoaco. Diegusjaimes. Lauranrg. Açipni-Lovrij. Banfield. 44 ediciones anónimas Tamaño de la muestra Fuente: http://es. 90 ediciones anónimas Muestra estadística Fuente: http://es. Sanzcors. Pólux.org/w/index. Richy. Julian Colina. Diegusjaimes. Marvinn. Farisori. JorgeGG. Tirithel. Pinar. Julian Colina. Marsal20. vlc. 37 ediciones anónimas Población estadística Fuente: http://es. Tartaglia.php?oldid=53834989 Contribuyentes: Acratta. Carmin. Carlosgs83. Tomatejc. Juan Mayordomo.Al. Jorge c2010.Fuentes y contribuyentes del artículo Desviación estándar Fuente: http://es. Anacardo. Typhoon. DamianFinol. Eduardosalg. Zaskie. Petruss. Farisori. Belgrano. Belb. Netito777. Hampcky. Pepelopex. Tubet. Ricardo M. JEDIKNIGHT1970. Yeza. Bryansalazar. Juan Mayordomo. Manwë. Iulius1973. Zuirdj. JorgeGG. Dreitmen.php?oldid=53803950 Contribuyentes: Airunp. Magister Mathematicae. Santy-041194. Filipo. Tano4595. Gaius iulius caesar.org/w/index. Dermot. Xqno. Alhen. Joseaperez.wikipedia. Farisori.wikipedia. Sergio Andres Segovia. Mabermej. Rosarinagazo. DaveFX. Taichi. 168 ediciones anónimas Estadístico muestral Fuente: http://es.org/w/index. Jagarsoft. Juan Mayordomo. Sebrev. Hprmedina. Roberto Fiadone. Davius. Evaromero. Jasev. Javicivil.php?oldid=54499243 Contribuyentes: Antonorsi. CASF. David0811. FrancoGG. SpeedyGonzalez. Cheveri. Tartaglia. Dianai. Jkbw. Jjafjjaf. Drivera90. Super braulio.org/w/index. Lmendo. Platonides. Correogsk.org/w/index. Pólux. Srbanana. McMalamute. Chesnok. Gallowolf. Triku. Chrisyagami. Isha. Gerwoman. Jkbw.php?oldid=53321160 Contribuyentes: Beto29. Josamaga. Ctrl Z. Polo162.ruiz. Niqueco. EL AGUSTIN. Ja. Rondador. Raulshc. Alcarraz. Cookie. Halfdrag. Manuelt15. Juan Mayordomo. Matdrodes. Davius. JakobVoss. Aeris17. ManuelGR. Bazookao. Losmaspintas. Antón Francho. Dominican. H4x0r.php?oldid=53972788 Contribuyentes: Alakasam. Mecamático. Wewe. Açipni-Lovrij. Ceancata. Don Depresor. Poco a poco. Relleu. Joseaperez. Mafores. Juan Mayordomo.cruz. Alakasam. Jynus. Matdrodes. Matdrodes. Bamanishia. Fiquei. Tartaglia. SaeedVilla. Vitamine. Edmenb. Dark Bane. Raulshc. Tartaglia. Raulshc. Dvdcrojas. Maldoror. Leonpolanco. FAR. Antonorsi. Jarisleif. JRGL. Hlnodovic. Diegusjaimes. Mxcatania. Resped. Sauron. Mcapdevila.php?oldid=53038773 Contribuyentes: Califasuseso. Cobalttempest. Leonpolanco. FAL56. Spirit-Black-Wikipedista. Digigalos. Jorge c2010. JAGT. Wewe. Stoni. Joseaperez. Mel 23. Netito777. Juan Mayordomo. Lobillo. MarcosER. Nicolasdiaz. Poco a poco. Technopat. Retama. Roberto Fiadone. Martincarr.php?oldid=54150697 Contribuyentes: -Erick-. HUB. Vic Fede.esparza. Gribeco.php?title=Archivo:Normal_distribution_cdf.php?title=Archivo:Standard_deviation_diagram_(decimal_comma).php?title=Archivo:Spanish_Wikiquote. Juiced lemon Archivo:Poisson distribution PMF. Joxemai.php?title=Archivo:Measure_illustration.png Licencia: Public Domain Contribuyentes: Autopilot. Bonzo.r-project.png Fuente: http://es.php?title=Archivo:Normal_Distribution_CDF.wikipedia.Fuentes de imagen. Fischer.org/w/index.svg Fuente: http://es.org/w/index.wikipedia.wikipedia. WikipediaMaster Archivo:chi-square distributionCDF.svg Fuente: http://es.wikipedia Archivo:T distributionCDF. Inductiveload.png Licencia: GNU General Public License Contribuyentes: Alejo2083.php?title=Archivo:Binomial_distribution_cdf.org/w/index.org Archivo:Yes_check.png Licencia: GNU Free Documentation License Contribuyentes: Anarkman.wikipedia.wikipedia.png Licencia: GNU General Public License Contribuyentes: Ardonik.php?title=Archivo:Binomial_Distribution. Ch1902. MarkSweep Image:Gamma distribution pdf. Liftarn._Fischer.png Licencia: Public Domain Contribuyentes: Joxemai.php?title=Archivo:Exponential_distribution_pdf.php?title=Archivo:Poisson_distribution_PMF.org/w/index.wikipedia.wikipedia. PAR.php?title=Archivo:NYW-confidence-interval. MarkSweep.wikipedia. Mtrillo Archivo:Nuvola apps edu mathematics-p.wikipedia.SVG Fuente: http://es.wikipedia Archivo:Normal approximation to binomial. Echtner. Licencias y contribuyentes Archivo:F distributionPDF.org/w/index. Skeezix1000.png Fuente: http://es.org/w/index.org/w/index. It Is Me Here. MarkSweep Archivo:Exponential distribution cdf.svg Fuente: http://es. Grendelkhan. created by Reidab. User:Ramac et al.wikipedia.org/w/index.wikipedia._A.svg Licencia: Public Domain Contribuyentes: Tsyplakov Archivo:ConfIntervNormalP.wikipedia. Juiced lemon.org/w/index. A.mcd.org/w/index. Grafite.png Fuente: http://es.png Fuente: http://es.svg Fuente: http://es.png Fuente: http://es.png Licencia: GNU General Public License Contribuyentes: Alejo2083. Cburnett.0 Contribuyentes: Original uploader was Thorin at fr. Fnfd.php?title=Archivo:Binomial_distribution_pmf.org/w/index.wikipedia Archivo:Spanish Wikiquote.svg Licencia: Creative Commons Attribution 2. from http://www.org/w/index.php?title=Archivo:Crowd_outside_nyse.wikipedia.jpg Fuente: http://es.svg Fuente: http://es.php?title=Archivo:F_distributionCDF.png Licencia: Public Domain Contribuyentes: Oleg Alexandrov Archivo:Exponential distribution pdf.JPG Licencia: Creative Commons Attribution-Sharealike 1. Juiced lemon. Saippuakauppias.wikipedia.org/w/index. Gerbrant. Autopilot.svg Licencia: Public Domain Contribuyentes: Tayste Archivo:Rlogo.svg Fuente: http://es. Cburnett.org/w/index.JPG Fuente: http://es.php?title=Archivo:DisNormal01.php?title=Archivo:Normal_distribution_pdf.php?title=Archivo:Chi-square_distributionCDF.svg Licencia: GNU Free Documentation License Contribuyentes: Original uploader was Nusha at sl.org/w/index. Waldir Archivo:Abraham de moivre. 1 ediciones anónimas Archivo:Student densite best.png Licencia: GNU General Public License Contribuyentes: Alejo2083.svg Licencia: Public Domain Contribuyentes: User:HiTe Archivo:Normal Distribution CDF.wikipedia. J 1982.org/w/index. Hystrix. Elcobbola. WikipediaMaster Archivo:Normal distribution pdf.png Fuente: http://es.png Licencia: GNU Free Documentation License Contribuyentes: en:User:Pdbailey Archivo:chi-square distributionPDF. Licencias y contribuyentes 99 Fuentes de imagen.jpg Licencia: Public Domain Contribuyentes: Original uploader was Bletchley at en. Autopilot.png Licencia: Public Domain Contribuyentes: EugeneZelenko.php?title=Archivo:F_distributionPDF.wikipedia.php?title=Archivo:T_distributionCDF.jpg Fuente: http://es.png Fuente: http://es. Flamurai (SVG convertion) Archivo:R.wikipedia Archivo:Standard deviation diagram (decimal comma). Archivo:Wikibooks-logo. PAR.php?title=Archivo:Wikibooks-logo.wikipedia.svg Fuente: http://es.php?title=Archivo:Gamma_distribution_pdf. 5 ediciones anónimas Archivo:Standard deviation diagram.wikipedia.wikipedia.php?title=Archivo:Standard_deviation_diagram.org/w/index.php?title=Archivo:Exponential_distribution_cdf.svg Fuente: http://es.png Fuente: http://es.jpg Fuente: http://es. 1 ediciones anónimas Archivo:PoissonCDF.wikipedia.svg Fuente: http://es.wikipedia. Kilom691. Cburnett. Stannered.php?title=Archivo:Nuvola_apps_edu_mathematics-p.png Fuente: http://es.wikipedia Archivo:NYW-confidence-interval.png Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:PoissonCDF.jpg Licencia: Public Domain Contribuyentes: Bjh21.svg Fuente: http://es.php?title=Archivo:Yes_check. It Is Me Here.wikipedia.org/w/index.wikipedia.org/w/index.php?title=Archivo:Commons-logo.svg Licencia: GNU Free Documentation License Contribuyentes: User:MarkSweep Archivo:Crowd outside nyse.org/w/index.php?title=Archivo:Normal_approximation_to_binomial.svg Fuente: http://es.wikipedia.SVG Licencia: logo Contribuyentes: James. Spuk968.png Licencia: GNU General Public License Contribuyentes: R Foundation.png Fuente: http://es.org/w/index. Inductiveload.wikipedia.wikipedia. MarkSweep. 10 ediciones anónimas Archivo:Normal distribution cdf.org/w/index.png Fuente: http://es.org/w/index. Wikiwide. based on the earlier PNG version. Infrogmation.svg Licencia: GNU Free Documentation License Contribuyentes: Original uploader was Nusha at sl.png Fuente: http://es.php?title=Archivo:Abraham_de_moivre.php?title=Archivo:Chi-square_distributionPDF.png Fuente: http://es.org/w/index.org/w/index.svg Fuente: http://es.wikipedia.jpg Licencia: Public Domain Contribuyentes: AnRo0002. Romary.org/w/index.svg Licencia: Public Domain Contribuyentes: Tayste Archivo:Binomial distribution cdf.svg Licencia: Public Domain Contribuyentes: Inductiveload Archivo:standard deviation diagram (decimal comma).org/w/index.svg Licencia: GNU Lesser General Public License Contribuyentes: David Vignoni (original icon).svg Fuente: http://es.org/w/index. It Is Me Here. Archivo:Binomial distribution pmf.svg Fuente: http://es.php?title=Archivo:R.php?title=Archivo:Standard_deviation_diagram_(decimal_comma). PAR. Gryffindor. It Is Me Here. MarkSweep.png Licencia: GNU General Public License Contribuyentes: Original uploader was Pdbailey at en.wikipedia.svg Licencia: Public Domain Contribuyentes: SVG by Gregory Maxwell (modified by WarX) Image:Measure illustration.png Licencia: GNU General Public License Contribuyentes: Gerbrant.wikipedia. Soerfm.php?title=Archivo:Student_densite_best. Joxemai.png Licencia: Public Domain Contribuyentes: EugeneZelenko. Yerpo.org/w/index.wikipedia. EugeneZelenko.svg Licencia: logo Contribuyentes: SVG version was created by User:Grunt and cleaned up by 3247.png Licencia: GNU Free Documentation License Contribuyentes: en:User:Pdbailey Archivo:F distributionCDF.wikipedia.png Fuente: http://es.wikipedia.php?title=Archivo:Rlogo.nz .5 Contribuyentes: Mwtoews Archivo:Binomial Distribution.org/w/index.org/w/index.php?title=Archivo:ConfIntervNormalP.svg Licencia: GNU Free Documentation License Contribuyentes: cflm (talk) Archivo:Commons-logo.org/w/index.svg Licencia: logo Contribuyentes: User:Bastique. 竹 麦 魚(Searobin) Archivo:DisNormal01.wikipedia.org/w/index. org/licenses/by-sa/3.0 Unported //creativecommons.0/ .Licencia 100 Licencia Creative Commons Attribution-Share Alike 3.