VARIABLES ALEATORIAS Y DISTRIBUCIÓN DEPROBABILIDADES HAMLET MATA MATA PROF. DE LA UNIVERSIDAD POLITÉCNICA DE EL TIGRE-VENEZUELA http://hamletyestadisticaspss.jimdo.com/ Variable Aleatoria es una función que asocia un número real, perfectamente definido, a cada punto muestral. A veces las variables aleatorias (va) están ya implícitas en los puntos muestrales. EJEMPLO 1: Sea el evento, la experiencia relacionada con la medición de la estatura de 100 individuos. Un punto muestral (resultado de un experimento) es ya un número (estatura). La va está implícita. EJEMPLO 2: Sea el evento, lanzar una moneda 3 veces al aire. Si se representa la cara con c y el sello con s, entonces el espacio muestral será: Espacio Muestral = {ccc, ccs, csc, scc, css, scs, ssc, sss} La probabilidad de cada suceso elemental es 1/8. Por ejemplo p(ccc) = 1/8, ya que la probabilidad de sacar cara en una tirada es 1/2 según la definición clásica y las tiradas son independientes. DEFINIMOS LA VARIABLE ALEATORIA X: número de caras, que puede tomar los valores {0, 1, 2, 3}. Se buscan todos los puntos muestrales que dan lugar a cada valor de la variable y a ese valor se le asigna la probabilidad del suceso correspondiente. x Sucesos px 0 {zzz} 1/8 1 {czz, zcz, zzc} 3/8 2 {ccz, czc, zcc} 3/8 3 {ccc} 1/8 En el caso de las variables discretas, como en el ejemplo, es una función que para cada valor de la variable da su probabilidad. EJEMPLO 3. Sea el evento experimental, lanzar al aire 2 monedas. Se sabe que el espacio muestral de este experimento contiene 4 puntos muestra les. S = {(c, c), (c, s), (s, c), (s, s)}, donde el primer elemento de cada par indica si se obtuvo cara (c) o sello (s) en la primera moneda, y el segundo lo mismo con respecto a la segunda moneda. La probabilidad de cada punto muestral es entonces 1/4. Ahora bien, normalmente no estamos interesados en los puntos muestrales, sino en cierta magnitud asociada con los puntos muestrales. Por Ej. Se podría estar interesado en el número de caras que hay en cada punto muestral. Si definimos una variable Xi como el número de caras en el punto muestral si, Xi tomará los valores X1 = 2, X2 = 1, X3 = 1, X4 = 0. Por lo tanto, Xi es una variable aleatoria. Una variable X es una variable aleatoria si es una magnitud susceptible de tomar diversos valores con determinadas probabilidades. Es una regla que asocia un número con cada evento simple en el espacio muestra de un experimento. Por lo general, esta regla se simboliza por medio de las mayúsculas X, Y o Z. DEFINICIÓN: Una variable aleatoria es una función que asocia un número real a cada elemento del espacio muestral. O también, Una Variable Aleatoria es una función que asigna un número real a cada resultado en el espacio muestral de un experimento aleatorio. Una variable es aleatoria si toma diferentes valores como resultado de un experimento aleatorio. Esta variable aleatoria puede ser discreta o continua. Si puede tomar sólo un número limitado de valores, entonces es una variable aleatoria discreta. En el otro extremo, si puede tomar cualquier valor dentro de un intervalo dado, entonces se trata de una variable aleatoria continua. La distribución de probabilidad X se describe por una fórmula que enuncia la probabilidad como una función de x. Es decir, la distribución de X está especificada por la función f x ( x) P( X x) . El subíndice de f x (x) revela la variable aleatoria de interés. El subíndice se omitirá cuando no halla ninguna confusión sobre la probabilidad del resultado. Puesto que f x (x) está definida como una probabilidad, f x (x) es una función que va del conjunto de valores posibles de la variable aleatoria al intervalo [0, 1]. DEFINICIÓN: La función f x (x k ) P(X x k ), k 1,2,3,... que va del conjunto de los valores posibles de la variable aleatoria discreta X al intervalo [0, 1] recibe el nombre de función de probabilidad. Para una variable aleatoria X , f x ( x) satisface las siguientes propiedades: 1..... f x ( x k ) P(X x k ) 2....f x ( x k ) 0,... 3.... Para todo x. f x (x k ) 1 x Se ha esgrimido el término experimento estadístico para representar cualquier proceso a través del cual se generan diversas observaciones al azar. Con frecuencia no interesan los detalles asociados con cada punto muestral, sino simplemente alguna descripción numérica del resultado. Por ejemplo, el espacio muestral que da una descripción detallada de cada uno de los resultados posibles de los alumbramientos de una mujer en 3 ocasiones, pueden escribirse así: S = (Espacio Muestral) = {HHH, HHM, HMH, MHH, HMM, MHM, MMH, MMM} Si lo que interesa es sólo el número de hembras que alumbra la mujer, entonces se podría asignar un valor numérico de 0, 1, 2 ó 3 a cada uno de los puntos muestrales. Los números 0, 1, 2 y 3 son cantidades aleatorias que se determinan a través del resultado del experimento. Se podría pensar como los valores que toma alguna variable aleatoria X, que en este caso representa el número hembras que nacen cuando la mujer tiene 3 alumbramientos. DEFINICIÓN: Si un espacio muestral contiene un número finito de posibilidades o una secuencia sin final con igual número de elementos que números enteros, se le denomina variable aleatoria discreta (espacio muestral discreto). A una variable aleatoria se le denomina variable aleatoria discreta si su conjunto de posibles resultados es contable. Las distribuciones discretas son aquellas en las que la variable puede pude tomar un número determinado de valores. Las variables aleatorias discretas representan datos que se refieren, tales como el número de artículos defectuosos en una muestra de m de ellos o el número de accidentes en carreteras por año en un estado determinado. EJEMPLO: si se lanza una moneda al aire puede salir cara o cruz; si se tira un dado puede salir un número de 1 al 6; en una ruleta el número puede tomar un valor del 1 al 32. El resultado de un experimento estadístico que puede no ser finito ni contable. Un ejemplo de este paradigma ocurre cuando se produce una investigación para medir las distancias que recorre cierta marca de automóvil en una distancia de prueba especificado con 5 litros de gasolina. Asumiendo que el trayecto es una variable que se puede medir con cualquier grado de precisión, entonces resulta claro que se tiene un número infinito de distancias posibles en el espacio muestral y que no puede igualarse al número de números enteros. Si se registrara también la cantidad de tiempo en que se efectúa el recorrido de la diferentes marcas, da nueva cuenta de los intervalos de tiempos posibles que conforman el espacio muestral serian infinitos en número e incontables. Se observa con esto que no todos los espacios muestrales son necesariamente discretos. DEFINICIÓN: Si un espacio muestral contiene un número infinito de posibilidades iguales al número de puntos que se encuentran en un segmento de Cuando una variable aleatoria puede tomar valores en una escala continua. lo cual implica que hay implícita una función matemática. X puede tomar cualquier valor en el intervalo [0. se obtiene como resultado una distribución de probabilidad. lo cual implica que la variable aleatoria puede asumir diversos valores específicos. Existen diversas distribuciones estándar de probabilidad que pueden utilizarse como modelos para una amplia gama de variables aleatorias discretas en aplicaciones de negocios. de otra manera. se le llama continua. EJEMPLO: El peso medio de los alumnos de una clase puede tomar infinitos valores dentro de cierto intervalo (42. 42. entonces ésta es una variable aleatoria discreta. 72.513 años. la esperanza media de vida de una población (72. 51234 años). Supongamos el experimento de lanzar una moneda hacia una línea marcada en el suelo. Tal es el caso de aquella variable aleatoria que representa la distancia que cierta marca de automóvil puede recorrer. 42. Una variable aleatoria es discreta cuando únicamente puede tomar un determinado número de valores en un intervalo. etc). Si el espacio muestral consiste en un Conjunto discontinuo de sucesos. Si los registros diarios del hospital indican que los valores de la variable aleatoria van desde 100 hasta 115 pacientes diarios. .2). la variable aleatoria N° de caras obtenidas al lanzar 2 monedas. Por ejemplo. Las distribuciones continuas son aquellas que presentan un número infinito de posibles soluciones. o simplemente mediante P(X). Por ejemplo.línea.3764 kg. los valores posibles de una variable aleatoria continua son precisamente los mismos valores contenidos en el espacio muestral continuo. En la mayoría de los problemas prácticos. en un hospital para tratamiento del cáncer de pulmón no se tiene manera de saber con exactitud cuántos hombres van a ser atendidas en un día cualquiera. Se puede especular en una variable aleatoria como un valor o una magnitud que cambia de un desarrollo a otra. Pueden denotarse los valores de probabilidad individuales mediante el símbolo f(x). las variables aleatorias continuas representan datos medidos. se le denomina variable aleatoria continua (espacio muestral continuo). La suma de las probabilidades para todos los resultados numéricos posibles debe ser Igual a 1. Para una variable aleatoria discreta. Supongamos que la distancia máxima a que puede caer la moneda de la marca es 1 metro (entendiendo como distancia la del centro de la moneda a la línea). 1 y 2. Una variable aleatoria es continua cuando puede tomar cualquier valor en un intervalo. en un camino de prueba. 7. 376541kg.5 años. sin seguir una secuencia predecible. Si definimos una variable aleatoria X que represente esa distancia. entonces una variable asociada con ese conjunto se le llama discreta. con 5 litros de gasolina. ya sea mediante un listado o a través de una función matemática. es una variable aleatoria discreta en el intervalo (0. distancias o períodos de vida posibles. mediante P(x = X).1]. Cuando se asignan valores de probabilidad a todos los datos numéricos posibles de una variable aleatoria X. tales como alturas.0. se pueden enumerar todos los valores numéricos posibles de la variable en una tabla con las probabilidades correspondientes. Con frecuencia. temperaturas.37 kg. se le denomina variable aleatoria continua. Solo puede tomar los valores 0. pesos. DISTRIBUCIONES DE PROBABILIDAD PARA VARIABLES ALEATORIAS Una variable aleatoria es un evento numérico cuyo valor se determina mediante un proceso al azar. 06 0. la variable X. En el proceso del lanzamiento de una moneda 3 veces.68 7 10 0. las probabilidades que se determinan a través de una función matemática se ilustran en forma gráfica mediante una función de densidad de probabilidad o curva de probabilidad. los valores que puede tomar esta variable aleatoria son finitos (0.64 E ( X ) 5. Entonces.20 + 0. por lo tanto. Demanda diarios de arrendamiento de camionetas Durante un periodo de 50 días.20 6 14 0.40 8 4 0.24 1. EJEMPLO 1. Así. En la última columna de la tabla se incluyen las frecuencias observadas en ese periodo de 50 días.14 0.2.56.08 = 0. Cuando una de esas variables aleatorias toma diversos valores. En la última columna de la Tabla se incluyen las frecuencias observadas en este periodo de 50 días. Demandas Número de Probabilidad P(X ) Valor Posibles X Días Ponderado X . puede observarse que la probabilidad de que se hayan solicitado exactamente siete camionetas en un día elegido al azar en ese periodo es de 0. lo que se denomina distribución de las probabilidades asociadas a cada uno de los valores de la variable aleatoria.18 4 7 0.08 0. Las distribuciones de probabilidad logran representarse a través de una tabla.56 5 12 0. Por ejemplo. en cuyo caso tal regla de correspondencia se le denomina función de probabilidad. una gráfica o una fórmula. puesto que 3 de los puntos muestrales igualmente probables dan como resultado 2 sellos y 1 cara. convertidas en probabilidad. Tabla B. Si se suponen arreglos iguales para los eventos simples del siguiente ejemplo: .28 1.20 1.28 + 0.3).P( X ) 3 3 0.Para una variable aleatoria continua no es posible enumerar todos los posibles valores fraccionarios de la variable y.00 DISTRIBUCIONES DE PROBABILIDAD PARA VARIABLES DISCRETAS Las variables aleatorias.66 TOTALES 50 1. si consideramos la variable aleatoria X = ”número de caras obtenidas en los tres lanzamientos”. supongamos el experimento consistente en lanzar tres veces una moneda no trucada. que representa el número de sellos.1. y que la probabilidad de que se hayan solicitado seis o más es de 0. son aquellas que se relacionan con la ocurrencia de un fenómeno aleatorio. una variable aleatoria discreta adquiere cada uno de sus valores con cierta probabilidad. En la Tabla A se muestra el número de camionetas que se han solicitado para rentar en una arrendadora de automóviles.20. en un periodo de 50 días. VARIABLES ALEATORIAS DISCRETA: La variable aleatoria X se dice que es discreta si los números asignados a los sucesos elementales de E son puntos aislados. Sus posibles valores constituyen un conjunto finito o infinito numerable. la probabilidad asociada a cada uno de tales valores puede ser organizada como una distribución de probabilidad. toma el valor 2 con una probabilidad de 3/8. 3. en forma aleatoria.Un envió de ocho computadoras similares para un distribuidor contiene tres defectuosas. es 1/3. reciben una de las tres herramientas.. 2. Esta fórmula seria necesariamente función de los valores numéricos x. previamente revisados. luego los arreglos posibles en los que podrían devolverse las herramientas y el número de agrupaciones correctas serán: b Espacio Muestral 3 SJB 1 1 0 0 1 SBJ JSB JBS BSJ BJS La probabilidad de que ningún obrero reciba de nuevo la herramienta que tenía. r(x) y así sucesivamente. para cada posible resultado x. la probabilidad de que B tome el valor de cero. g(x).. Al conjunto de pares ordenados (x. en ese orden. a tres obreros de un taller.Sea X una variable aleatoria cuyos valores de x son los números posibles de computadoras defectuosas adquiridas por el comerciante. Jesús y Boris respectivamente. f(x)) se le denomina función de probabilidad o distribución de probabilidad de la variable aleatoria discreta X. x puede se cualquiera de los números 0. SOLUCIÓN. f ( x) 1. es decir f (3) P(X 3) . EJEMPLO. J y B representan las herramientas de Saul. que se denotarán por f(x). localice la distribución de probabilidad para el número de computadoras imperfectas. Los posibles valores b de B y sus probabilidades están dados por b P(B = b) 0 1 3 1 1 2 3 1 6 Obsérvese que los valores de b agotan todos los casos posibles y por ello las probabilidades suman 1. tres herramientas de seguridad. SOLUCIÓN.Un empleado de un depósito le regresa. Entonces: . f(x)) es una función de probabilidad o una distribución de probabilidad de la variable aleatoria discreta X si. Si Saúl (S). Jesús (J) y Boris (B). Con frecuencia. resulta conveniente representar todas las probabilidades de una variable aleatoria X a través de una fórmula. Si un comerciante hace una compra aleatoria de dos de esas computadoras. DEFINICIÓN: El conjunto de pares ordenados (x.. se escribe f(x) = P(X= x). 1 y 2. Por lo tanto. 1. P( X x) f ( x). enumere los puntos muestrales para los órdenes posibles de devolución de las herramientas y calcule los valores b de la variable aleatoria B que representa el número de agrupaciones correctas. f ( x) 0.Si S. Luego. es decir. CS.f (2) P(X 2) 8 28 2 Por lo tanto. 1 y 2. SS} y se puede observar que la variable X puede tomar como valores 0. f (0) P(X 0) .. la distribución de probabilidad de X es: x f(x) 0 10 28 1 15 28 2 3 28 EJEMPLO: Analice la variable aleatoria X. El espacio muestral es el conjunto {CC. como la cantidad de caras observadas cuando se lanzan dos monedas al aire. 3 5 3 5 10 0 2 1 1 15 .. Con esta información se puede construir un histograma como el siguiente: PROBLEMA . SC... f ( 1 ) P ( X 1 ) 28 28 8 8 2 2 3 5 3 2 0 . Calculando las probabilidades tenemos: P(de no observar caras) = P(SS) = P(X=0) = ¼ P(de observar una cara) = P(SC o CS) = P(X=1) = 2 P(de observar dos caras) = P(CC) P(X=2) = ¼ = /4 Si ahora se organizan estos resultados en el siguiente cuadro: X 0 P(X=x) ¼ 1 2 /4 2 ¼ Se alcanzará explicar por qué se usa el nombre "distribución de probabilidad". Se Lanzan dos dados al aire. ¿Cuál es en los dados sea menor que 8? probabilidad de que la suma de los puntos SOLUCIÓN: Si asumimos que todos los resultados observados al lanzar los dos dados son equiprobables (si todos los sucesos elementales que lo integran tienen la misma probabilidad) entonces el espacio muestral del experimento, con treinta y seis posibles resultados, se presentan a continuación: Tabla 1. Espacio muestral resultante al lanzar dos dados 1 2 3 4 5 6 1 1,1 1,2 1,3 1,4 1,5 1,6 2 2,1 2,2 2,3 2,4 2,5 2,6 3 3,1 3,2 3,3 3,4 3,5 3,6 4 4,1 4,2 4,3 4,4 4,5 4,6 5 5,1 5,2 5,3 5,4 5,5 5,6 6 6,1 6,2 6,3 6,4 6,5 6,6 Como nos interesa la suma de los puntos observados, si obtenemos el resultado (3, 5) le asignamos el valor 8, correspondiente a la suma de 3 y 5. Podemos calcular la probabilidad de que la suma sea igual a 8, contando todos los resultados donde la suma es ocho. El evento de que la suma es ocho contiene 5 resultados: {(2,6), (3,5), (4,4), (5, 3), (6,2)}; por lo tanto la probabilidad deseada es 5/36. Podemos repetir este proceso con cada uno de los resultados para obtener las siguientes sumas probables al lanzar dos de acuerdo con la tabla 2. Tabla 2. Distribución de probabilidad del total de las sumas observadas al lanzar dos dados Sumas 2 3 4 5 6 7 8 9 10 11 12 Probabilidades 1 36 2 36 3 36 4 36 5 36 6 36 5 36 4 36 3 36 2 36 1 36 Hemos encontrado la distribución de probabilidad de los valores posibles de la suma al tirar dos dados. Si R representa el resultado observado en el dado rojo y V el resultado que se observará en el dado verde, podemos expresar el valor que nos interesa así: X = R + V. Antes de lanzar los dados no sabemos qué valores observaremos para R y V, por lo tanto tampoco lo sabemos para X. El valor que asumirá X puede variar de lanzada en lanzada, sujeto a la distribución especificada en la tabla de arriba. Así X es una variable, que asume un número finito de valores sujeto a una distribución de probabilidad. Este es un ejemplo de una variable aleatoria discreta. Otros ejemplos son las variables R y V. En general, si S es un espacio muestral con una medida de probabilidad P, definimos una variable aleatoria como una función que asigna un número real a cada uno de los elementos de S. Interpretamos, por ejemplo X = 8 como el evento de que se observó el resultado 8 al lanzar los dos dados, es decir el evento {(2,6), (3,5), (4,4), (5, 3), (6,2)} ocurrió. También asignamos a X = 8 la probabilidad de ese evento. Así vemos que P(X=8) = P({ (2,6), (3,5), (4,4), (5, 3), (6,2)}) = 5/36= 0.14. Es usual denotar las variables aleatorias por letras mayúsculas y los valores que puede asumir por letras minúsculas. En este caso la variable X puede asumir un valor entre un conjunto finito de valores posibles. Cualquier variable que pueda asumir un número finito de valores decimos es una variable aleatoria discreta. También son variables aleatorias discretas aquellas que pueden asumir un número muy grande o infinito de valores que potencialmente podrían ser contados, tal como el número de habitantes del planeta, el número de granos de maíz producidos en el planeta en una fecha determinada, el número de los árboles de un país. En la Tabla 2 vemos que a cada valor posible de X, le asignamos un número correspondiente a su probabilidad. Así podemos definir otra función: f(x) = P(X = x), para cada número x en el campo de valores de la variable X. Esta función se llama la función de probabilidad o distribución de probabilidad de la variable X. Para el ejemplo de la suma de los puntos al tirar dos dados, los valores de esta función están dados en la Tabla 2, la cual se puede reescribir usando los conceptos estudiados. Tabla 3. Distribución de probabilidad del total de las sumas observadas al lanzar dos dados. x 2 3 4 5 6 7 8 9 10 11 12 f(x) 1 36 2 36 3 36 4 36 5 36 6 36 5 36 4 36 3 36 2 36 1 36 Vemos que f(x) nunca adquiere un valor menor de cero. Esto se debe a que f(x) representa una probabilidad, la cual nunca puede ser menor de cero. De igual manera f(x) nunca puede ser menor de 1. Si sumamos todos los valores que puede tener f(x) obtenemos 1, debido a que estamos sumando las probabilidades de que la variable aleatoria asuma uno de los valores establecidos. Por su definición, la función de probabilidad tiene las siguientes características: 1. f ( x ) 0 para todo valor x en su dominio. 2. f ( x ) 1 ( donde la sumatoria se extiende sobre todos los valores x en x el dominio de f. Los valores de la función de probabilidad se pueden representar en una gráfica como la siguiente: Diagrama de la distribucion de probabilidad de la suma de dos dados 0,18 0,16 Probabilidades 0,14 0,12 0,1 0,08 0,06 0,04 0,02 0 1 2 3 4 5 6 7 8 9 10 11 12 Sumas de dos dados La probabilidad de observar (En la grafica) un valor particular de la variable aleatoria, digamos X = 3 está dado por la altura de la barra sobre el 3, es decir, P(X = 3) = 2/36 = 0.056. De igual manera, en vez de asociar la altura de la barra con la probabilidad, podemos ver que el área de la barra sobre el 3 es 2/36 1 = 2/36 = 0.056 ya que la altura de la barra es 2/36 y su ancho es 1. Usar el área de las barras para representar la probabilidad es muy útil para extender la noción de probabilidad a otras variables. Podemos usar el histograma de probabilidad para calcular probabilidades tal como P(X 4). Vemos que P(X 4) = P(X =2 ó X =3 ó X =4) = P(X = 2) + P(X = 3) + P(X = 4) , ya que los eventos donde X = 2, X = 3 y X = 4 son disjuntos. Entonces P(X 4) = 1/36 + 2/36 + 3/36 = 6/36, sumando las áreas de la barras que están sobre el 4 y a su izquierda. Debemos ser muy cuidadosos con las desigualdades, ya que P(X 4) = 6/36, mientras que P(X< 4) = 3/26. Extendiendo esta idea de probabilidades acumulativas, podemos definir otra función partiendo de la distribución de probabilidad. Si X es una variable aleatoria discreta, definimos la función de distribución de X o función de distribución acumulativa de X de la siguiente manera: f ( x) p( X i x) f ( x),..Para.... <x< x i Las propiedades de las distribuciones de variables discretas son dos, y que posteriormente, al hablar de las distribuciones de variables continuas, se repetirán de manera muy similar: a) Todos los valores de la distribución son mayores o iguales que cero, y además son menores o iguales que uno. 0 ≤ P(X=x) ≤ 1. b) La suma de todas las probabilidades de la distribución es la unidad. Esta demostración es para mostrar que la distribución probabilística binomial cumple con tales propiedades. GEOMÉTRICA. y los principales. Es la que manipula la distribución de la probabilidad de obtener cierta cantidad de éxitos al realizar una cantidad de experimentos con probabilidad de éxito constante y con ensayos independientes. pero con un tamaño de muestra grande en relación al tamaño de la población. Es la distribución donde todos los eventos elementales tienen la misma probabilidad. Geométrica. . Es la distribución de la probabilidad de que ocurra un evento raro en un periodo de tiempo. Por ejemplo: tirar un dado. donde la función P(X=x)= 1/6 para valores de x = {1. 4. De donde se puede afirmar que: la suma de todas las probabilidades de los eventos posibles de una variable aleatoria es igual a la unidad. De Poisson. 3. Se puede observar que en ningún caso las combinaciones toma valores negativos. Por ejemplo: tirar un dado. 2. Es la que manipula la distribución de la probabilidad de obtener cierta cantidad de éxitos al realizar una cantidad de experimentos con probabilidad de éxito constante y con ensayos independientes. un espacio o un lugar. 6} BINOMIAL. Es similar a la binomial. Es la distribución donde todos los eventos elementales tienen la misma probabilidad. 2. Modelos de distribuciones de probabilidad de variables discretas UNIFORME. DE POISSON. 5. es decir. HIPERGEOMÉTRICA. f (x) P(X=x) = 1. Es similar a la binomial. Es la distribución de la probabilidad de realizar cierto número de experimentos antes de obtener un éxito. y como p y q son positivos o cero. un espacio o un lugar. Es la distribución de la probabilidad de que ocurra un evento raro en un periodo de tiempo. entonces todos los valores de la distribución probabilística son positivos o cero. donde la función P(X=x)= 1 /6 para valores de x = {1. Hay que recalcar que estas propiedades se enuncian suponiendo que conocemos el valor de la probabilidad. pero con un tamaño de muestra grande en relación al tamaño de la población. 4. 6} BINOMIAL. Precisamente esto conlleva a modelos teóricos que estiman los resultados. La que más nos interesará de estas será la distribución binomial que explicaremos posteriormente. pero en la realidad esto no ocurre. 3. 5. que no sabemos la probabilidad y lo que se hace es trabajar con estimaciones. son los que a continuación se exhiben: MODELOS DE DISTRIBUCIONES DE PROBABILIDAD DE VARIABLES DISCRETAS UNIFORME. HIPERGEOMÉTRICA. Es la distribución de la probabilidad de realizar cierto número de experimentos antes de obtener un éxito. x 0 1 1 1 1.P( x ) POR EJEMPLO: Consideremos la variable X del ejemplo de caras observadas en dos lanzamientos de monedas. su desviación estándar se calcula: ( 0 1 )2 del ejemplo 1 1 1 1 1 1 1 1 1 2 ( 1 1 )2 ( 2 1 )2 1. 0. P(X) es el cociente de la frecuencia entre el número total de eventos (probabilidad frecuencial de ocurrencia). la varianza de una distribución de probabilidad de una variable discreta será: Entonces. n f puede expresarse como X . 1 4 2 4 Análogamente. n Considerando la definición de probabilidad de un evento. ( ) es la media de la población. por lo que la media de una distribución de probabilidad de una variable discreta es: x. 1. Es decir. donde. la varianza se definió como procedimiento semejante al anterior se tiene: 2 2 f (x )2 n . X tal que su distribución de probabilidad sea: X P(X=x) 0 ¼ 1 /4 2 ¼ 2 Entonces. la cual utilizando la fórmula. 2. . xf . para calcular su media ( ) se realiza la siguiente operación: 2 xP ( x) 0. y haciendo un ( x )2 n f Finalmente.MEDIA Y DESVIACIÓN ESTÁNDAR DE UNA DISTRIBUCIÓN DE PROBABILIDAD PARA VARIABLES DISCRETAS En una distribución de frecuencias para datos agrupados se calculaba la media. 4 2 4 4 2 4 4 4 2 2 . la desviación estándar de una distribución de probabilidad de una variable discreta es: ( x )2 P( x ) POR EJEMPLO: Considerando la misma distribución de probabilidad anterior. entonces se obtiene una secuencia de valores para X. si se coloca una masa igual a f x (x) en cada punto x de la recta real. Por lo tanto el valor esperado de la variable aleatoria discreta X. para identificar el valor central de la variable aleatoria. i 1 La media de X puede interpretarse como el centro de la masa del rango de los valores de X. expresada por E (X ).. Xi = Resultado i de X.. el término función de probabilidad puede interpretarse mediante esta analogía con la mecánica. se puede expresar con la siguiente formula matemática: N x E ( X ) X i P( X i ) . i= 1. tal como el promedio ( x ). La media de X puede calcularse corno el promedio ponderado de los valores posibles de X. La función de probabilidad de X puede interpretarse como la proporción de ensayos en los que X = x. es: x E ( X ) xf x ( x) x N o x E ( X ) X i P( X i ) . También.. asignando al resultado x un factor de ponderación f x ( x ) P( X x ) . no es necesario realizar el experimento muchas veces con la finalidad de determinar el valor medio de X. En consecuencia. donde: i 1 X = Variable aleatoria de Interés. Puede emplearse un resumen de estos valores. Esto es. se puede decir que: La media.ESPERANZA MATEMÁTICA O VALOR ESPERADO DE UNA VARIABLE ALEATORIA DISCRETA Valor esperado de una variable aleatoria discreta Si X es una variable aleatoria. P( X i ) Probabilidad de ocurrencia del evento i de X. .. El valor esperado o Esperanza Matemática de una variable aleatoria discreta se puede considerar como su promedio ponderado sobre todos los resultados posibles siendo las ponderaciones la probabilidad relacionada con cada uno de los resultados. La media ( x ) de una distribución de probabilidad es el valor esperado de su variable aleatoria. Esta medida de resumen se puede obtener multiplicando cada resultado posible Xi por su probabilidad correspondiente P( X i ) y después sumando los productos resultantes. Esperanza Matemática o valor esperado de una variable aleatoria x o discreta X.N. . entonces E(X) es el punto donde la recta queda en equilibrio. 2. 3. Por consiguiente. representada como E (X ) . y el experimento aleatorio que determina el valor de X se repite muchas veces. y se representa como x . 7/16 y 5/16 son las fracciones del total de lanzamientos que resulta en 0. 7/16. y representarla como E(X). En efecto. estas probabilidades son justamente las frecuencias relativas que a la larga corresponden a los eventos dados. seguida de una cara en la segunda tirada. se tiene que el espacio muestra1 para el experimento es S = {CC. se deduce que P(X = 0) = P(SS) = 1 . de modo que tenga la siguiente forma equivalente 0 4 7 5 1 2 1. y 5/16. o simplemente como . SS} Donde es C cara y S sello. respectivamente. si se conocen los distintos valores que intervienen y sus frecuencias relativas. Suponiendo que se tiran al aire dos monedas normales. . una cara. 4 1 . Por ejemplo. se puede calcular entonces la media o el promedio de un conjunto de datos. Por consiguiente. Por consiguiente. P(X = 2) = P(HH) = 4 Donde un elemento. También es común entre los estadísticos designar a este valor como Esperanza o Expectativa Matemática.06. 16 16 16 Los números 4/16. cuando esté claro de que variable aleatoria se trata. una cara 7 veces y dos caras 5 veces. Utilícese ahora este método de las frecuencias relativas para calcular a la larga el número promedio de caras por lanzamiento de dos monedas que podría esperarse. 16 Este es un valor promedio y no necesariamente un resultado posible del experimento. si 4/16 ó 1/4 de los lanzamientos resultan 0 caras. CS.06. 1 y 2. indica que de la primera tirada resultó Sello. o bien como valor esperado de la variable X. Este valor promedio se conoce como media de la variable aleatoria X o media de la distribución de probabilidad de X. por ejemplo. el número medio de caras por lanzamiento seria 1. El promedio de caras por lanzamiento de las dos monedas es entonces (0)(4) (1)(7) (2)(5) 1. el ingreso mensual promedio de un vendedor no es probable que sea igual a alguno de sus cheques de pago mensuales. Puesto que los 4 puntos muestrales son igualmente probables. SC. Supóngase que en el experimento se obtienen cero caras 4 veces. Ahora bien. sin conocimiento alguno del número total de observaciones en el conjunto de datos. sin importar que el número total de lanzamientos sea de 16. SC.06. 4 P(X = l) = P(SC) + P(CS) = 1 . dos caras. 1 000 o aun de 10 000. Estas fracciones son también las frecuencias relativas que corresponden a los diferentes valores de X en el experimento. entonces los valores de X pueden ser 0. Reestructúrese ahora el cálculo para el número promedio de caras resultantes.MEDIA DE UNA VARIABLE ALEATORIA Si se tiran dos monedas al aire 16 veces y X representa el número de caras que ocurren por lanzamiento. 1 y 2 caras. .0. EJEMPLO.. EL método descrito para calcular el número esperado de caras en cada tirada de 2 monedas. es . En el caso de variables aleatorias continuas. 2. 3.70. Sin embargo. En un juego de azar de un casino. 1 2 3 35 35 35 35 35 7 E ( X ) 0 Por lo tanto.. El espacio muestral formado por todos los posibles resultados que pueden obtenerse cuando se lanzan 3 monedas de manera simultánea. de la variable aleatoria X por su probabilidad correspondiente f ( x1 ).. 1 12 18 4 60 12 1.. SOLUCIÓN. y f(3) = 4/35.. f(l) = 12/35. f ( xn ). x2 . La distribución de probabilidad de X está dada por 4 3 x 3 x f(x) . Se considera que X representa el número de químicos en el comité. S = sello)... f ( 3 ) 35 35 35 35 7 7 7 7 3 3 3 3 Los cálculos obtenidos son: f(0) = 1/35. se le paga a una persona 5 dólares si al tirar a aire 3 monedas obtiene solo caras o sellos. 7 3 Aplicando la formula se calculan los diferentes f ( xi ) así: 4 3 4 3 4 3 4 3 1 12 18 0 3 0 1 31 2 3 2 3 33 4 f (0) . mientras que esta persona deberá pagar 3 dólares si obtiene sólo una o dos caras. o en forma equivalente si la moneda se lanzan 3 veces sucesivamente (C = cara. EJEMPLO.. para x = 0. logrará en promedio 1 cara por tirada. indica que la media o valor esperado de una variable aleatoria discreta puede obtenerse multiplicando cada uno de los valores x1 .7 químicos... si se selecciona al azar una y otra vez un comité de 3 miembros a partir de un grupo de 4 químicos y 3 biólogos. 1. la definición del valor esperado es en esencia la misma. el mismo contendría en promedio 1. Esto significa que una persona que tira al aire 2 monedas una y otra vez... y sumando luego los resultados. sólo que las sumatorias se reemplazan por integrales. xn . esto se verifica sólo si la variable aleatoria es discreta. Determine el número esperado de químicos en un comité de tres personas seleccionado al azar de un grupo de 4 químicos y 3 biólogos.1 4 1 2 1 4 E ( X ) 0 1 2 1. f ( 1 ) . ¿Cuál es la ganancia esperada de jugador? SOLUCIÓN.. Entonces. f ( x2 ). f(2) = 18/35.. f ( 2 ) .. Por ejemplo. Hasta donde creamos que la experiencia de los pasados 100 días es un comportamiento típico. Se puede pensar en una variable aleatoria como un valor o una magnitud que cambia de una presentación a otra. SCS . Recuerde que la probabilidad de salir cara es 2 2 2 8 igual a la de salir sello. perderá 1 $ al lanzar las 3 monedas. es decir. un juego justo se define como aquel donde hay una ganancia esperada de cero. Se puede argumentar que cada una de estas posibilidades es igualmente posibles y ocurre con una probabilidad igual a 1/8. el número total de días en que se tomaron los registros (número atendido). Un enfoque alternativo seria aplicar la regla multiplicativa de probabilidad para sucesos independientes con cada uno de los elementos del espacio muestral (S). y los valores posibles de X 5 $ si ocurre el evento E1 CCC . podemos utilizar este registro para asignar una probabilidad a cada número posible de pacientes y encontrar una distribución de probabilidad. en promedio. SSS}. entonces ésta es una variable aleatoria discreta. sin seguir una secuencia predecible. CSS . Observe que en la tabla aparece una distribución de frecuencias. así: 1 1 1 1 P(CCS ) P(C ) P(C ) P( S ) . dividimos cada valor que aparece en la columna de las frecuencias (fi) de la tabla B . La variable aleatoria de interés es X. Un juego de azar se considera justo si en el promedio el jugador termina sin pérdida o ganancia. La distribución de probabilidad para la variable aleatoria “número de atenciones diarias” se presenta de manera gráfica en la figura I. SCS. CCS.Si se observa que E1 y E2 se presentan con probabilidad de ¼ y ¾ . tanto la tabla B como la figura I nos dan información acerca de la frecuencia de presentación a la larga del número de pacientes atendidos diariamente que esperaríamos observar si este “experimento” aleatorio se efectuara de nuevo. . CSC. CSS. Hemos hecho esto en la tabla B mediante la normalización de la distribución de frecuencias observadas (en este caso. SSS y . SSC. CSC. En la tabla B se ilustra el número de veces que se ha alcanzado cada nivel durante los últimos l00 días. en una clínica para tratamiento del cáncer de mamas no se tiene manera de saber con exactitud cuántas mujeres van a ser atendidas en un día cualquiera. Note que la distribución de probabilidad para una variable aleatoria proporciona una probabilidad para cada valor posible y que estas probabilidades deben sumar 1. Si los registros diarios de la clínica indican que los valores de la variable aleatoria van desde 100 hasta 115 pacientes diarios. que es la cantidad que el jugador puede ganar. SSC. es decir. De la misma forma en esa tabla se registra el valor esperado o esperanza matemática que es simplemente la multiplicación de los valores posibles de la variable aleatoria por la probabilidad de que la variable aleatoria tome esos valores. Además. ½.3 $ si ocurre el evento E2 CCS . Por lo tanto. SCC. respectivamente.S = {CCC. En la tabla B mostramos que ambos requisitos se cumplen. Por lo tanto en este juego el apostador. se concluye que 1 4 3 4 E ( X ) 5 3 1. SCC. Los valores de una variable aleatoria son los valores numéricos correspondientes a cada posible resultado del experimento aleatorio. De modo que el número de pacientes del día siguiente es una variable aleatoria. 0 . 72 5.56 2.15 6.02.02 El valor esperado de la variable aleatoria “número diario de mujeres atendidas en una clinica”.09 0.04 0.05 0.99 9.09 0. 0.12 PROBABILIDAD 0.07 0.1 0. (2) 1 2 3 5 6 7 9 10 12 11 9 8 6 5 4 2 100 Probabilidad de que la variable aleatoria tome estos valores.90 8. es igual 108.04 0.06 0.06 5.96 11.03 0. (3) Esperanza Matemática.08 0. "número diario de pacientes atendidos en una clinica" 0.06 0.08 0.02 1. (1) 100 101 102 103 104 105 106 107 108 109 110 110 112 113 114 115 TOTALES Número de días que se observa este nivel (fi).88 6.14 Grafica correspondiente a la distribucion de probabilidad para la variable aleatoria discreta.12 0.35 9.54 10.30 108.05 0.02 10 10 0 10 1 10 2 10 3 10 4 10 5 10 6 10 7 10 8 10 9 11 0 11 1 11 2 11 3 11 4 11 5 0 Números diarios de mujeres atendidas Si un agente de seguros afirma que puede esperarse que una mujer de 45 años de edad viva otros 33 años.70 12. (1)x(3) 0.01 0.00 2.10 0.11 0.02 0.65 4. Valores posibles de la Variable Aleatoria.02 3.06 0. esto no significa que cualquier persona espere real- .TABLA B NÚMERO DE MUJERES ATENDIDAS DIARIAMENTE DURANTE 100 DÍAS EN UNA CLÍNICA PARA LA ATENCIÓN DE CÁNCER DE MAMA.24 7. en su forma más simple.x 2 800000..P3 0. si apostamos para ganar 500 bolívares. llamado valor esperado o esperanza matemática. ¿Cuál es la utilidad o ganancia esperada? SOLUCIÓN: Si se sustituye x1 1250000.P2 0. entonces 1000 nuestra esperanza matemática es 1 480000 480000x 480 . 800000 o de Bs. de manera que la probabilidad de que salga cara es ½.35. si compramos uno de los 1000 boletos de una rifa.x 4 250000...24.1250000..x3 100000.12) Bs.P4 0.35) 10000(0. PROBLEMA. otras sobrevivirán 25 años. 480 bolívares. Originalmente. La distribución de probabilidad de la variable aleatoria discreta X es x 3 1 3 f ( x) x 4 4 3 x . . Este resultado indica que el usurero espera ganar 579000 Bs. Por lo tanto.. entonces nuestra esperanza matemática es 500x0. el concepto de la esperanza matemática apareció en relación con juegos de azar y. EJEMPLO ¿Cuál es nuestra esperanza matemática.24. x 0 .579000 . 0.. con las respectivas ganancias de Bs... . seria irracional pagar más de 480 bolívares por el boleto. en la que se ofrece como premio un televisor a color. al lanzar al aire una moneda equilibrada? SOLUCIÓN: La moneda está equilibrada. ciertas mujeres de 45 años vivirán 12 años más.29) 25000(0. se determina con el producto de la cantidad que un jugador deposita para ganar y la probabilidad de que gane dicha cantidad.1.. Con su usura. Sean 0. y. y la expectativa de vida de “33 años más” se debe interpretar como una especie de promedio particular. PROBLEMA.35.. Si ahora se aplica la fórmula matemática para la obtención de la Esperanza Matemática se tiene: N x E ( X ) X i P( X i ) .25.12 las probabilidades de que un usurero pueda vender en un año un lote subdividido.. 250000. en un sentido 1000 1000 estrictamente monetario. EJEMPLO ¿Cuál es nuestra esperanza matemática. .. . es decir. 100000 o con una pérdida de Bs. Encuentre la esperanza matemática.. Bs.12 . que vale 480000 bolívares? 1 SOLUCIÓN: La probabilidad de que nos ganemos el televisor es .mente que una mujer de 45 años siga viviendo hasta cumplir los 78 años y muera al día siguiente.24 80000(0. 3. . 0.5 = 250 bolívares... si y sólo si sale cara.29 y 0. En lo concerniente a esa afirmación. i 1 E 125000(0. otras vivirán 38 años más. 2. P1 0. f (2) 64 64 0 4 4 1 4 4 2 4 4 64 1 3 1 3 f (3) 64 3 4 4 Con estos datos se puede formar la siguiente distribución de probabilidad: x f (x) 0 27 64 1 27 64 2 9 64 3 1 64 N Aplicando la siguiente formula : x E ( X ) X i P( X i ) . 64 64 4 64 64 64 64 Luego la esperanza matemática buscada es de 0. 4 entonces F(0) = P[X ≤ 0] = P(X < 0 ) + P(X = 0) = 0 + p(0) = p(0) F(1) = P[X ≤ 1] = P(X ≤ 0) + P(X = 1) = p(0) + p(1) F(2) = P[X ≤ 2] = P(X ≤ 1) + P(X = 2) = p(0) + p(1) + p(2) F(3) = P[X ≤ 3] = P(X ≤ 2) + P(X = 3) = p(0) + p(1) + p(2) + p(3) etc. la función de distribución acumulativa (FDA). F ( x0 ) es igual a: F ( x0 ) P X x0 p( x X xi 0 ) OBSERVACIONES 1. Si X es una variable aleatoria.75. Si X: 0. Entonces. existe la probabilidad P( X x0 ) del evento X x0 (X toma cualquier valor menor o igual a x0).. FUNCIÓN DE DISTRIBUCIÓN ACUMULADA En la teoría de probabilidades y estadísticas. entonces para cualquier número real x0..SOLUCIÓN: 0 3 3 0 2 2 27 27 3 1 3 3 1 3 3 1 3 9 f (0) . 1. F(xo) = P[X ≤ xo] = p(x1) + p(x2) + . 2. Las funciones de distribución acumulativa también se utilizan para especificar la distribución de múltiples variables aleatorias.. f (1) .. 3. o simplemente función de distribución... Diremos que F es la Función de distribución acumulada de probabilidad de X.75.. Se tiene: i 1 27 27 9 1 27 (2)9 (3)1 48 3 E 0 1 2 3 0. + p(xo) 2. La probabilidad P( X x0 ) que depende de la elección de x0 es la probabilidad acumulada hasta x0 que es la función distribución o distribución acumulada y se denota por F(x0). En general: . describe la probabilidad de que un valor real variable aleatoria X con una determinada distribución de probabilidad se encontrará en un valor menor o igual que x. . . n entonces: F(x) = 0 si X < 0. b) P(1 ≤ X ≤ 2) y P(1 < X ≤ 2) c) d) X .. 2.. Como en el caso anterior. Siendo función de probabilidad. 3. FORMA DE PRESENTAR LA DISTRIBUCIÓN ACUMULADA Si la función de probabilidad de X viene dada por: X x1 x2 p( x ) p( x1 ) x3 x4 p( x2 ) p( x3 ) p( x4 ) La función de distribución acumulada F será: CONSIDERACIONES ACUMULADA A TOMARSE F ( xi ) P X xi EN CUENTA EN LA DISTRIBUCIÓN p( x ) i X xi EJEMPLOS Sea X una variable aleatoria discreta cuya función de probabilidad viene dada por: X 0 1 2 3 p(x) 1/8 3/8 3/8 1/8 a) Obtenga la función de distribución acumulada de b) Usando la distribución acumulada. siendo una función de probabilidad no puede ser mayor que 1. La acumulada siempre empieza en 0. Si X: 0. encuentre P(X ≤ 2). F(x) = 1 si X ≥ n. 1.F(x) = P[X ≤ x-1] + P(X = x) = F(x-1) + p(x) 3. no puede tomar valores negativos. P(X > 2). 7/8 = 1/8 Usando propiedades: P(1 ≤ X ≤ 2) = F(2) .F(1) = 7/8 .F(1) + P(X = 1) = 7/8 . se tendrá F(x) = 1 Tomando en cuenta estos criterios. entonces para cualquier número real x0. la función acumulada viene dada por: b)Puesto P(X que F(a) ≤ = 2) P(X = ≤ F(2) a). entonces: = 7/8 Usando complemento: P(X > 2) = 1 . P(1 < X ≤ 2) = F(2) . F ( x0 ) P( X x0 ) Ejemplo 7: Encuentre los valores de la función distribución acumulada F(X) de la variable aleatoria X descrita en el ejemplo 3. para X mayor o igual que el máximo valor de X. X f(X) F(X) 2 1/36 1/36 3 2/36 3/36 4 3/36 6/36 5 4/36 10/36 6 5/36 15/36 . P(X >2) = 1 . existe la probabilidad P( X x0 ) del evento X x0 (X toma cualquier valor menor o igual a x0).SOLUCIÓN a) Recordemos que para todo valor de X menor que el mínimo valor implica que: F(x) = 0 Del mismo modo.4/8 = 3/8 Si X es una variable aleatoria. La probabilidad P( X x0 ) que depende de la elección de x0 es la probabilidad acumulada hasta x0 que es la función distribución o distribución acumulada y se denota por F(x0).4/8 + 3/8 = 6/8 Del mismo modo.F(2) = 1 . X f(X) F(X) 0 15/45 15/45 1 24/45 39/45 2 6/45 45/45 Ahora demostraremos que la probabilidad de un evento se puede expresar en términos de la función distribución acumulada F(X). Fig. obtenemos . y . de la variable aleatoria X del ejemplo 5.7 6/36 21/36 8 5/36 26/36 9 4/36 30/36 10 3/36 33/36 11 2/36 35/36 12 1/36 36/36 Obsérvese que F(X=5) = f(X=2) + f(X=3) + f(X=4) + f(X=5) = La gráfica de la función distribución acumulada de una variable discreta es siempre una gráfica escalonada. su unión es Por el axioma 3 de probabilidad.3 EJEMPLO 8: Halle los valores de la función distribución acumulada. F(X). donde x1 y x2 son dos de los valores cualesquiera Obsérvese que el evento . son eventos mutuamente exclusivos. 6 Función distribución para la variable aleatoria del ejemplo 4. F(x) determina en forma única la distribución de probabilidades de la variable aleatoria correspondiente.P( ) = P( Despejando P P = P( ) + P( ) se tiene ) .P( ) = F(x2) . El integrando f es la función densidad de probabilidad. ya que x se usa para representar al límite superior de la integración. FUNCIÓN DISTRIBUCIÓN CONTINUAS: PARA VARIABLES ALEATORIAS Si X es una variable aleatoria continua. . entonces la regla de la correspondencia que define la función distribución acumulada F(X) es: Hemos usado v para representar la variable de integración. si X es discreta . si X es continua.F(x1) En consecuencia. y al derivar la expresión anterior (Teorema Fundamental del Cálculo) se tiene que La función distribución acumulada es F(x0) = PROPIEDADES DE LA FUNCIÓN DISTRIBUCIÓN ACUMULADA 2. . . Una vez evaluada la integral definida se despeja la constante c. . b. 4. SOLUCIÓN: La integral sobre todo el intervalo es la probabilidad del espacio muestral.Fig. b.x). que es igual a 1. lo cual garantizará que la función obtenida es una función densidad de probabilidad. Sustituyendo el valor de c se obtiene la función densidad La función distribución es entonces la integral de la función densidad para cualquier intervalo (0.9: Determinar el valor de la constante c tal que f(x) defina una función densidad en el intervalo dado y determinar la regla de correspondencia de la función de distribución acumulada correspondiente. si X es continua. . Si X es continua EJEMPLO 4. 4. a. .7 Función distribución 3. la cual permitirá calcular probabilidades para cualquier intervalo. a. Para el segundo caso se hará lo mismo que para el anterior con la diferencia que tenemos una integral impropia. . Si X es continua.c. 4. si X es continua. si X es discreta . . 3. si X es continua. La función densidad es entonces Las propiedades de la función distribución acumulada son: 2. . usaremos un modelo de distribución de Poisson con λ = 10×4 = 40. La distribución hipergeométrica mide la probabilidad de obtener x ( ) elementos de la categoría A en una muestra de n elementos de la población original.71828 .. la probabilidad de que haya x fallos antes del primer éxito es para x = 0. si el suceso analizado ocurre en promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos. 1. . contenido en el conjunto { 1. 2. 3... d pertenecen a la categoría A y N-d a la B. λ es un parámetro positivo que significa el número de veces que se espera que ocurra el fenómeno durante un intervalo dado. 2.. La función de masa de la distribución de Poisson es Dónde: k es el número de ocurrencias del evento o fenómeno (la función origina la probabilidad de que el evento suceda precisamente k veces). Por ejemplo... para x = 1. entonces la probabilidad de que x ensayos sean necesarios para obtener un éxito es ... Si la probabilidad de éxito en cada ensayo es p. 3. La función de probabilidad de una variable aleatoria con distribución hipergeométrica puede deducirse a través de razonamientos combinatorios y es igual a donde N es el tamaño de población.. 3. d es el número de elementos en la población original que pertenecen a la categoría deseada y x es el número de elementos en N la muestra que pertenecen a dicha categoría. Imagínese que se posee una población de N elementos de los cuales... 2. contenido en el conjunto { 0. es una cuestión de convención y conveniencia.. n es el tamaño de la muestra extraída. a partir de una frecuencia de ocurrencia media. Equivalentemente.} o la distribución de probabilidad del número Y = X − 1 de fallos antes del primer éxito.) DISTRIBUCIÓN GEOMÉTRICA: La distribución geométrica es cualquiera de las dos distribuciones de probabilidad discretas siguientes: la distribución de probabilidad del número X del ensayo de Bernoulli necesaria para obtener un éxito. }.. 3. 2. DISTRIBUCIÓN HIPERGEOMÉTRICA: La distribución hipergeométrica es una distribución discreta relacionada con muestreos aleatorios y sin reemplazo. Cuál de éstas es la que uno llama "la distribución geométrica”. e es la base de los logaritmos naturales (e = 2.. la probabilidad de ocurrencia de un determinado número de eventos durante cierto periodo de tiempo. La notación hace n referencia al coeficiente binomial. 1. es decir... el número de combinaciones posibles al seleccionar n elementos de un total N.DISTRIBUCIONES DE VARIABLE DISCRETAS MÁS IMPORTANTES DISTRIBUCIÓN POISSON: La Distribución de Poisson es una distribución de probabilidad discreta que enuncia. Si la distribución asume los valores reales . éxito significa encontrarse con cierta clase de evento. y los términos n sucesivos del desarrollo binomial ( p q ) . vale decir. 1. y se trata de calcular la probabilidad de un determinado número de éxitos. donde p expresa la probabilidad de éxito de un solo ensayo (situación experimental). . su función de probabilidad es: y su función de distribución la función escalonada Su media estadística es y su varianza LA DISTRIBUCIÓN BINOMIAL LA DISTRIBUCIÓN BINOMIAL es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí. en una distribución de Bernoulli. En la distribución binomial el anterior experimento se repite n veces.. mientras que fracaso significa no encontrarse con dicho evento. Estos experimento de Bernoulli se caracterizan por ser dicotómico. la binomial se convierte. En esta guía se hará un breve reposo del Teorema del binomio o Binomio de Newton.DISTRIBUCIÓN UNIFORME DISCRETA: En teoría de la probabilidad. que en su caso más simple es un número natural. p + q = 1). En este caso. y q es la probabilidad de “fracaso” (tal que. se escribe: La función de probabilidad es Donde de en ( y elementos tomados de Siendo las combinaciones en ). Para n = 1. 3. de hecho. con una probabilidad fija p de ocurrencia del éxito entre los ensayos.…. es un binomio elevado a una potencia n. una distribución uniforme discreta es una distribución de probabilidad que toma un número finito de valores con la misma probabilidad.p. El teorema del binomio. de forma independiente. o Binomio de Newton por haber sido éste quien propuso el método general para su desarrollo. con una probabilidad q = 1 . 2. Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p. que únicamente son posibles dos resultados. El nombre que recibe esta distribución se debe a la similitud existente entre la distribución de las probabilidades de obtener 0. A uno se le designa como éxito y presenta una probabilidad de ocurrencia p y al otro se le llama fracaso. donde los elementos de un conjunto finito son equiprobables.elementos considerados como “éxito” de una muestra de tamaño n. p q x TRIÁNGULO DE PASCAL Los coeficientes de los términos del desarrollo de cualquier potencia de un binomio se pueden encontrar en forma inmediata utilizando el llamado triángulo de Pascal. x La probabilidad Px de que un evento se presente POR LO MENOS en n intentos esta expresada por la ecuación: xn x x Px x x x x x veces n x n x . Ejemplo: Los coeficientes del desarrollo del binomio ( a b )5 son aquellos números que se encuentran en la fila horizontal. en donde después del 1 esta el 5. es decir. 10. p q . del triángulo de Pascal. 5. El triángulo se forma de la siguiente manera: En la primera fila horizontal se coloca 1. abn1 b n 0 1 n1 n n n ni i a b . 1. 10. cuarto con el quinto. 1 1 1 1 1 1 1 1 1 2 3 4 5 6 7 1 3 6 10 15 21 1 4 10 20 35 1 5 15 35 1 6 21 1 7 1 . De igual manera se procede para ubicar los coeficientes de cualquier binomio. i 1 i n Para el caso concreto de esta guía. Los coeficientes del desarrollo de cualquier potencia de un binomio son los números que se hallan en la fila horizontal en donde después del 1 esta el exponente del binomio.. 5. En la segunda fila se coloca 1 y 1. 1. se cambiará la notación y se utilizará la propiedad de conmutatividad de los números reales: La probabilidad Px de que un evento ocurra EXACTAMENTE intentos esta dada por la ecuación: x veces en n n x n x Px ..En términos generales. el tercero con el cuarto. Desde la tercera fila en adelante se comienza por 1 y cada número posterior al 1 se obtiene sumando en la fila anterior el primer número con el segundo. el quinto con el sexto y así sucesivamente hasta obtener los coeficientes de la potencia buscada.. el segundo con el tercero. el teorema del binomio establece que: n n n n ( a b ) a n a n1b . . recuerde que el último número de la fila horizontal siempre tiene que ser 1 (ver triángulo). 00001.. Cuando es éxito la variable toma el valor 1 y cuando es fracaso toma el valor 0. permanece constante de un ensayo a otro. ( x y )6 x 6 6 x 5 y 15 x 4 y 2 20 x 3 y 3 15 x 2 y 4 5xy 5 y 6 . Al haber únicamente dos soluciones se trata de sucesos complementarios: A la probabilidad de éxito se le denomina "p" A la probabilidad de fracaso se le denomina "q" Verificándose que: p + q = 1.5.75 = 1. p + q = 0. designada por p.25 + 0. EJEMPLO 3: Probabilidad de ser admitido en la universidad: Probabilidad de ser admitido: p = 0.La probabilidad de éxito. Probabilidad de que no salga cara: q = 0. 2. EJEMPLOS 2: Probabilidad de salir cara al lanzar una moneda al aire: Probabilidad de que salga cara: p = 0.Cada ensayo proporciona un resultado que puede clasificarse como éxito o fracaso.99999 = 1.. Probabilidad de no acertar: q = 0.99999.5 + 0. p + q = 0. la probabilidad de ser admitido en una universidad (o te admiten o no te admiten).5. 4. EJEMPLOS 1: La Probabilidad de salir cara al lanzar una moneda al aire (sale cara o no sale).El experimento se fundamenta en n ensayos repetidos. PROPIEDADES DE LA DISTRIBUCIÓN BINOMIAL 1. Lanzar una moneda diez veces.25. Sea X = número de caras obtenidas. p + q = 0. Ejemplo 4: Probabilidad de acertar un número de lotería de 100000: Probabilidad de acertar: p = 0. . desarrolle los mismos aplicando el triángulo de Pascal: ( 2 x 3 y )5 ( 2 x )5 5( 2 x )4 3 y 10( 2 x )3 ( 3 y )2 10( 2 x )2 ( 3 y )3 5( 2 x )( 3 y )4 ( 3 y )5 ( 2 x 3 y )5 32 x 5 240 x 4 y 720 x 3 y 2 1080 x 2 y 3 810 xy 4 243 y 5 .00001 + 0.75. Probabilidad de no ser admitido: q = 0.Los ensayos son independientes. Considérense los siguientes experimentos y variables aleatorias 1. 3. la probabilidad de acertar un Kino (o aciertas o no aciertas).1 1 8 9 28 36 84 56 70 56 126 126 84 28 8 36 1 9 1 Ejemplo: Sean los binomios ( 2 x 3 y )5 y ( x y )5 ...5 = 1. Estos ejemplos dejan entrever la utilidad de un modelo de probabilidad general que incluya estos experimentos como casos particulares. En el experimento (2). La selección de cualquiera de las otras tres opciones incorrectas da como resultado un ensayo que puede resumirse como un fracaso. la hipótesis de ensayos independientes implica saber que la parte número 5 es defectuosa. respectivamente. Sea X = número de respuestas contestadas de manera correcta. Esto implica que el resultado de uno de los ensayos no tiene ningún efecto sobre el resultado que se obtenga en cualquier otro ensayo. en consecuencia. Los 8 posibles resultados y los correspondientes valores de x son: . sea X = número de pacientes que experimentan mejoría. en el experimento de opción múltiple. el 10 % se reciben con error. sólo la opción que es correcta es la que se considera como un éxito. 3. no tiene ningún efecto sobre la probabilidad de que cualquiera de las demás partes sea defectuosa. la producción de éstas es un éxito. y se pide a una persona que adivine las respuestas. Para los siguientes 30 pacientes a los que se les administrará el medicamento. Un examen de opción múltiple contiene diez preguntas. para cada una de las preguntas. El número de éxitos es una variable aleatoria x que toma valores enteros desde cero hasta 3. sea X = número de niñas. De los siguientes 20 nacimientos en un hospital. normales(N). Sea X = número de partes defectuosas en las siguientes 25 que se produzcan. También pueden utilizarse para este fin “A” “B” o “0” y "1". el resultado de cada ensayo coincide o no con el criterio y X cuenta o no. IJna máquina herramienta desgastada produce 1 % ¡de partes defectuosas. Por desgracia. Por ejemplo. dado que X es el número de partes defectuosas. a menudo es razonable suponer que la probabilidad de éxito en cada ensayo es constante. 4. En el experimento (2). Cada uno de estos experimentos aleatorios pueden considerarse corno formado por una serie de ensayos repetidos. Sea X = número de bits con error en los siguientes cinco por transmitir. A menudo es razonable suponer que los ensayos que forman el experimento aleatorio son independientes. la variable aleatoria es el conteo del número de ensayos que cumplen con un criterio específico. cada ensayo puede resumirse como un éxito o un fracaso. es decir. 5. Un artículo defectuoso se considerara como un éxito. De todos los pacientes que padecen una enfermedad en particular. en ocasiones las etiquetas usuales pueden ser engañosas.2. 6. Asimismo. la producción de 25 partes en el experimento (2) y así sucesivamente. En cada caso. si se supone que el sujeto que lleva a cabo la prueba no tiene ningún conocimiento del tema y sólo adivina la respuesta de cada pregunta. La posibilidad de que cada muestra de aire contenga una molécula rara es 10%. PROBLEMA VA : Sea el experimento binomial aquel donde se selecciona al azar 3 artículos de un proceso manufacturado. Sea X = número de muestras de aire que contienen la molécula rara en las siguientes 18 muestras por analizar. el 35 % experimenta una mejora con cierto medicamento. En el experimento de opción múltiple [experimento (5)]. 10 lanzamientos de la moneda en el experimento (1). Los términos éxito y fracaso son solo etiquetas. Con esto. entonces puede considerarse que la probabilidad de una respuesta correcta para cada pregunta es 1/4. De todos los bits transmitidos por un canal de transmisión digital. 7. si se examinan y se clasifican como defectuosos (D) o sin defectos. cada una con cuatro opciones. . n x Esta es la fórmula de la distribución de probabilidad binomiales. Cada éxito ocurre con una probabilidad p y cada fracaso.. la probabilidad para un determinado pedido (del problema anterior) es p x q n x . ya que dependen del número de ensayos y de la probabilidad de éxitos en un ensayo determinado. La distribución de probabilidad de esta variable aleatoria se le denomina distribución binomial y sus valores serán designados por b(x..n . para eventos Observe el problema VA que cuando n = 3 y p =1/4. p ) f ( x ) .. para la distribución de probabilidad de X. el número de éxitos en n ensayos independientes. x 0. el número de defectos en el problema antes planteado es P( X x ) f ( x ) b( x. se suman las probabilidades de todas las particiones x n x diferentes para obtener la formula general o se multiplica p q por n .Resultados NNN x 0 NDN 1 NND 1 DNN 1 NDD 2 DND 2 DDN 2 DDD 3 Los artículos se seleccionan en forma independiente de un proceso que produce supuestamente 25 % de artículos defectuosos. Este número es igual al número de particiones de n resultados en dos grupos. p). Como esas particiones son mutuamente excluyentes. Se debe determinar ahora el número total de puntos maestrales en el experimento que tiene x éxitos y n – x fracasos. con x en un grupo y n – x en el n otro. En consecuencia. que proporcione la probabilidad de x éxitos en n ensayos en el caso de un experimento binomial. p x q n x .1.. la distribución de probabilidad de X. Tomando en cuenta que los ensayos son independientes. el cual esta determinado por C( n . donde por definición factorial de cero es igual 1). P( NDN ) P( N )P( D )P( N ) 3 El número X de éxitos en n ensayo de un experimento binomial se llama variable aleatoria binomial. x DEFINICIÓN DE DISTRIBUCIÓN BINOMIAL Si un ensayo binomial puede resultar en un éxito con probabilidad p y en un fracaso con probabilidad q = 1 – p. p ).. entonces la probabilidad de selección es 4143 4 9 64 . Primeramente se considerará la probabilidad de x éxitos y de n – x fracasos en un orden especificado. entonces en la distribución de probabilidad de la variable aleatoria binomial X.. el número de defectos.3.2. se puede expresar así: . Por lo tanto.. n. n... con una probabilidad q = 1 – p...n.x ) C x = x n n! (n! se lee factorial x! ( n x )! de n. Generalizando la igualad anterior con el objeto de obtener una formula matemática para b(x.. es n b( x . p).. se pueden multiplicar todas las probabilidades correspondientes a los diferentes resultados.. CEEC. CECE. Calcúlese también. y los otros dos se recibieron correctamente. f ( 3 ) 64 2 4 4 64 3 4 4 La distribución de probabilidad del problema Va es: x f(x) 0 f ( x ) 27 1 64 27 2 64 9 3 64 1 64 EJEMPLO: La posibilidad de recibir de manera errónea un bit transmitido por un canal de transmisión digital.1. el resultado CECE indica que el segundo y el cuarto bit son erróneos..2. CCEE} Si se hace uso de la hipótesis de que los ensayos son independientes.x 1 3 1 3 b x . esto es.1. ECEC. x 0.... el espacio muestral es: Resultado x CCCC 0 CCCE 1 CCEC 1 CCEE 2 CECC 1 CECE 2 CEEC 2 CEEE 3 Resultado x ECCC 1 ECCE 2 ECEC 2 ECEE 3 EECC 2 EECE 3 EEEC 3 EEEE 4 El evento en que X = 2 está formado por seis resultados: S = {EECC. el espacio muestral de este experimento puede describirse como una lista de cuatro letras que indican qué bits fueron recibidos con y sin error. recibido correctamente. P(X = 2). f ( 1 ) 64 0 4 4 1 4 2 27 3 64 4 0 9 1 3 1 3 3 1 3 f ( 2 ) . Sea X = número de bits recibidos con error en los próximos cuatro que serán transmitidos.3. Además.. En este experimento se indica con E un bit erróneo.. Por consiguiente. supóngase que los ensayos de transmisión son independientes. Aplicando Esta fórmula al problema VA se puede calcular la probabilidad de cada evento así: 0 3 1 2 1 3 27 3 1 3 3 1 f ( 0 ) . f ( x ) 4 x 4 4 3 x . Calcule el espacio muestral de este experimento e indíquese el valor de X en cada resultado. Por ejemplo. es 0. Con esto. ECCE. entonces la probabilidad de {EECC} es . y con C un bit sin error.3. es: 4! 4 . Si consideramos que una serie de ensayos Binomiales tiene como características: 1. P( X 2 ) f ( 2 ) 0.1)2(0. Hay que notar que las probabilidades de éxito y de fracaso están relacionadas de la siguiente manera: p + q =1. el número de maneras de separar cuatro objetos en dos grupos. El tamaño de uno de los grupos es x y contiene los errores. Tomando en cuenta la ecuación de Combinación. OTROS EJEMPLO Los siguientes son ensayos Binomiales: Un tornillo. la probabilidad de éxito con p y la de fracaso con q. Los ensayos son independientes entre sí.9)4-x C\IlOs (0. La probabilidad de éxito permanece constante. El sexo de un bebé al nacer puede ser: niño o niña.01 )( 0. la probabilidad de que se presente cualquiera de los seis resultados mutuamente excluyentes para los que X = 2.9 )42 x 2 P( X 2 ) f ( 2 ) 6( 0. mientras que el tamaño del otro grupo es n-x y está formado por los ensayos donde no hay errores. P(X = x) =f(x)= (número de resultados con x errores) multiplicados por (0. Puede construirse un resultado que contiene x errores separando los cuatro ensayos en dos grupos.0486 En general. donde el número de ensayos se denota con n.9)2 = 0. con cuatro opciones.Las flores de la cayena a) rojas b) azules c) amarillas d) naranjas son de color: . es la misma. uno de los cuales tiene tamaño x. en este ejemplo.9 ) P( X 2 ) f ( 2 ) ( 0. ensayo tras ensayo. puede estar defectuoso o no defectuoso. Entonces se tiene lo que se denomina experimento binomial. y 2.81 ) 0.1 ) ( 0.0081 Por otra parte.0081) = 0. x x! ( n x )! 4 4 x 4 x P( X x ) f ( x ) ( 0. Podemos utilizar el siguiente ejemplo: 1.1)x Para ultimar una fórmula general de probabilidad.P(EECC) = P(E)P(E)P(C)P(C) = (0.0486 .1 )2 ( 0.0486 . POR EJEMPLO: Consideremos un examen con tres preguntas de opción múltiple. Las respuestas en una prueba determinada puden ser: correcta o incorrecta. Por tanto. y que será contestado al azar. únicamente es preciso una expresión para el número de resultados que contienen x errores. Por consiguiente: P(X = 2) = 6(0. 3. 422 2 0.016 /2 = 3·(3/4)2·(1 /4)1 /64 = 3·(3/4)1·(1 /4)2 56 9 = P(E1)·P(E2)·P (E3) Al presentar esta información como tabla. se tiene que: P(X= 0) = P(F1 F2 F3) = P(F1)·P(F2)·P (F3) = (3/4 = 1·(3/4)3·(1 )3 = /4)0 27 /6 4 P(X= 1) = P[(E1 F2 F3) (F1 E2 F3) (F1 F2 E3)] = P(X= 2) = P[(E1 E2 F3) (E1 F2 E3) (F1 E2 E3)] = P(X= 3) = P(E1 E2 E3) P(X=x) 0 0. siguiente: X 81 = (1/4 = 1·(3/4)0·(1 )3 = /4)3 1 /64 su respectivo histograma seria el EJEMPLO: Un estudio sobre la influencia relativa de esposos y esposas en las políticas familiares de consumo. Tenemos ahora la variable aleatoria X del ejemplo anterior que representará el número de respuestas correctas. 2. Para calcular la distribución de probabilidad correspondiente. consideraremos como E los éxitos y como F los fracasos (el subíndice indica el número de pregunta). Así pues.Don Cristóbal Colon a) 1592 b) 1692 c) 1492 d) 1792 3. Se cuenta con una cantidad n = 3 de ensayos y q =1 – p = 3/4. ya que la probabilidad de éxito permanece constante en las tres preguntas (p = ¼) y las respuestas de una a otra pregunta son independientes entre sí.2.El significado a) hoja b) árbol c) flor de d) fruto descubrió la a palabra Venezuela en: planta es: Con los datos de esta prueba contamos con un experimento binomial.422 1 0. establece que el marido ejerce una influencia . y 3.141 3 0. Hay que decir que n y p son los llamados parámetros de la distribución. 1. siendo sus posibles valores: 0. a.dos ) P( x 2 ) f ( 2 ) . P( exactamente.3 )0 4! ( 0.3 )4 C14 ( 0.. se lleva a cabo un procedimiento que consiste en seleccionar 10 artículos al azar de cada lote y determinar el número que presenta defectos. b).0.4.3 )3 1 0.30 n x ... P( x 2 ) 1 p( 0 ) p( 1 ) 1 C 04 ( 0. 4!.1..63 %. y p = 0.2..2! Luego la probabilidad de que en exactamente 2 de las a familias los maridos ejerzan una influencia decisiva en la selección de la marca de auto a comprar es de 26.0756 1 0. Por consiguiente.. ¿Cuál es la probabilidad de aceptar un lote de artículos? ¿Cuál es la probabilidad de rechazarlo? . 2.¿Cuál es la probabilidad de que en exactamente 2 de las 4 familias los maridos ejerza una influencia decisiva en la selección de la marca del automóvil a comprar? b..¿Cuál es la probabilidad de que los maridos seleccionen la marca del automóvil en las 4 familias? SOLUCIÓN: Se supone que las decisiones de compras de las familias son independiente y que p permanece constante de una familia a otra. 3 y 4.4 x 4 a ).¿Cuál es la probabilidad de que los maridos ejerzan una influencia decisiva en la selección de la marca del automóvil en por lo menos 2 de las 4 familias? c. entonces se tiene que: 4 b( x .. La solución 1 se le deja al estudiante para que la realice.9163 Entonces la probabilidad de que al menos en 2 de las familias el marido seleccione la marca del automóvil nuevo es de 0.7 )4 ( 1 ) 0.30 )2 2 4! ( 0.7..7 ) f ( x ) 0.7 )4 ( 0..2401 .0837 0.2646 2!.0081 0.. 1. en 70 % de las familias. c). Se supone que el número de artículos en cada lote es grande y que cada lote contiene un 5 % de artículos defectuosos..decisiva en la compra de un automóvil nuevo.01 %..tambien 2 )..( 0.49 )( 0.0837 1 0.70 )2 ( 0.. PROBLEMA: Con el propósito de decidir si se aceptan los lotes de mercancía que envía la fabrica RANICA a un comerciante.7 )1 ( 0.2401 = 24.46 %.P(4 familias) = C44 ( 0. en lo referente a la marca.09 ) 0... x = 0.o.. x 0.0! La probabilidad de que los maridos de las 4 familias seleccionen la marca del automóvil es de 0. n = 4. por lo tanto.7 )0 ( 0..9163 = 91.3..70 x 0.P(al menos dos) = tiene 2 soluciones posibles a saber: 1 ). Sea x el número de familias en las cuales los maridos ejercen una influencia decisiva en la selección de un automóvil nuevo. P( x 2 ) p( 2 ) p( 3 ) p( 4 ).. Suponga que 4 familias han decidido comprar un automóvil nuevo. Un lote se rechaza siempre que se encuentren 2 o más artículos defectuosos entre los 10 seleccionados. Por tal razón.95 )10 x x2 x 10 El estudiante debe realizar la parte 2 de la P( acetar ) y el resultado tiene que ser igual al obtenido en la parte 1.086 8.914 0. entonces: 10 p( x ) f ( x ) . es conveniente describir la distribución de probabilidad binomial mediante se media y su desviación estándar.95 )10 C( 10...05 )0 ( 0.60 %. y la probabilidad de observar un articulo defectuoso en un ensayo es p = 0.. Las variables discretas se miden utilizando números enteros y es posible asociarlas con la idea de "contar".05 ) x ( 0. (0. n 10 . Por lo tanto. puede. Las variables aleatorias que hemos estudiado hasta ahora tienen la propiedad de que son el resultado de contar.P( rechazar ) 10 . .95 )10 x x2 x 10 1 ).05 )( 0. De la misma forma debe realizar los cálculos de la parte b y el resultado tiene que ser igual al de la parte a (0.05 ) x ( 0. Las variables continuas se pueden asociar con la idea de "medir" utilizando fracciones y decimales.0 ) ( 0. la Varianza y la Desviación Estándar de una variable aleatoria Binomial son: E( x ) np 2 npq npq VARIABLE ALEATORIA CONTINUA Una variable numérica puede clasificarse como discreta o continua. a ). las que son el resultado de un proceso de medir.P( aceptar ) p( 0 ) p( 1 ) 2.40 %.tambien.95 )9 P( aceptar ) ( 1 )(1 )( 0.914).05.( 0.1 ) ( 0. es de gran importancia conocer el valor esperado o esperanza matemática y la varianza de la variable aleatoria binomial x.599 0.05 )1( 0... Cuando la variable es continua el modelo probabilístico que más se usa es la distribución normal. Hay otro tipo de variables aleatorias.ser : b ).P( aceptar ) 1 10 . entonces las probabilidades de aceptar un lote x es: 1. LA MEDIA Y LA VARIANZA DE UNA VARIABLE ALEATORIA BINOMIAL El cálculo de p(x) puede ser muy aburrido cuando los valores de n son muy grandes.P( aceptar ) p( 0 ) p( 1 ) C( 10. usando el conocimiento sobre el teorema de Tchebysheff y la regla empírica. sus valores posibles varían en forma discreta (a saltos).( 0.( 0.914 91 .05 ) x ( 0.599 ) ( 10 )( 0.P( rechazar ) 1 P( aceptar 1 0.95 )10 x .086).SOLUCIÓN: Sea x el número de artículos defectuosos observados.315 P( aceptar ) 0. La Media.6302 ) 0. Esto permitirá identificar valores de x que son altamente improbables.. sus valores posibles cubren todo un intervalo en los números reales reales. ..... a. Son aquellas donde las variables en estudio pueden asumir cualquier valor dentro de determinados límites. DISTRIBUCIONES DE PROBABILIDADES CONTINUAS: La variable aleatoria X será continua si los valores asignados pueden ser cualesquiera.1. b] real.. tiene una distribución normal o de Gauss de parámetros μ y σ... b a DISTRIBUCIÓN NORMAL: Se dice que una variable aleatoria continua X.si.a x b..b x.. que toma todos los valores del intervalo [a.... es decir.Cuando el espacio muestral de una variable aleatoria es un intervalo real decimos que la variable es continua. dentro de ciertos intervalos. si consideramos el experimento aleatoria consistente en medir el peso de los estudiantes de una universidad y tomamos la variable aleatoria X=” peso de los estudiantes de una universidad”. si su función de densidad de probabilidad es: La representación gráfica así cómo los significados de la esperanza y varianza son: . DISTRIBUCIÓN UNIFORME: Se dice que una variable aleatoria continua X. si su función de densidad de probabilidad es: 1 f ( x) . la estatura de un estudiante..... Por ejemplo. por ejemplo.a x b b a x a F ( x) P( X x) .si..si. Entonces.. sigue una distribución uniforme de parámetros a y b... esta puede tomar valores entre 30 y más infinito..si. puede tomar cualquier valor de R.0.... La matemática que utilizamos para las variables continuas es diferente a la de las discretas aunque los conceptos probabilísticos sean los mismos de manera que en nuestro estudio de las continuas utilizaremos este paralelo con las discretas. tiene una distribución exponencial de parámetro β. sólo tiene valores positivos para intervalos: P( X = a ) = 0 para cualquier valor de a Para calcular la probabilidad de que X esté en un intervalo (a. la varianza 2 y la desviación típica de una variable aleatoria continua de la siguiente forma: . como en el caso discreto. si su función de densidad de probabilidad es: DENSIDAD DE UNA VARIABLE ALEATORIA CONTINÚA FUNCIÓN DE DENSIDAD Una función y=f(x) es una función de densidad de una variable aleatoria continua si cumple las siguientes condiciones: El primer hecho de importancia es que una va (variable aleatoria) continúa tiene probabilidad cero de tomar un valor específico. la función de densidad está ligada a la va X de modo que cuando sea necesario aclarar a cuál densidad nos referimos podemos usar la notación f x (x). poniéndole el subíndice X a la f. debemos hacer uso de una función asociada a la variable aleatoria. b] o cualquier otro intervalo. las continuas tienen función de densidad. Además. b] o [a. b) o [a. Las variables aleatorias discretas tienen la función de probabilidad. PARÁMETROS DE UNA VARIABLE ALEATORIA CONTINUA Por analogía con las definiciones de estos conceptos para variables aleatorias discretas. la función de densidad de X.DISTRIBUCIÓN EXPONENCIAL: Se dice que una variable aleatoria continua X. se definen la esperanza matemática o media . b) o (a. Hijo de un humilde albañil.. quién se demostró un tanto escéptico y le dijo que lo que sugería era . Cuando Gauss tenía diez años de edad. su maestro solicitó a la clase que encontrará la suma de todos los números comprendidos entre uno y cien. pensaba que haría de la filosofía la obra de su vida. en el que aparece por primera vez la curva de la distribución de errores. Podemos decir que mide la desviación de X respecto de su media. el maestro se dio cuenta de que el niño era una promesa en las matemáticas. DISTRIBUCIÓN NORMAL Se llama distribución normal. El maestro. A los quince.TIPIFICACIÓN DE UNA VARIABLE ALEATORIA Si X es variable Z una variable aleatoria de media y desviación típica . Cuando tenía doce años. La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales. Es una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales. Ello se debe a que el matemático francés Pierre Simon de Laplace (v. la X tiene de media 0 y de desviación típica 1. que pasando el tiempo. a los trece le interesaba las posibilidades de la geometría no euclidiana. descubrió que podría construirse un polígono regular de diecisiete lados usando sólo la regla y el compás. tomando como unidad la desviación típica de X. pero las matemáticas resultaron ser una atracción irresistible. Hanover (Ahora Alemania). entendía la convergencia y probó el binomio de Newton.). El genio y la precocidad de Gauss llamaron la atención del duque de Brunswick. muy importante en el estudio de la distribución normal: x2 e Sin embargo. sociales y psicológicos. levantó en seguida la mano y dio la respuesta correcta. El modelo matemático más importante en estadística es la distribución normal. A esa edad aprendió a leer y hacer cálculos aritméticos mentales con tanta habilidad que descubrió un error en los cálculos que hizo su padre para pagar unos sueldos. criticó los fundamentos de la geometría euclidiana. Falleció.Nació el 30 de Abril 1777 en Brunswick. cuando el muchacho tenía catorce años. Ingresó a la escuela primaria antes de que cumpliera los siete años. quedó asombrado cuando Gauss. ya que provee una descripción adecuada para la distribución de una gran cantidad de variables continuas. muchos autores consideran como auténtico descubridor de la distribución normal a Abraham De Moivre (v. Gauss dio señales de ser un genio antes de que cumpliera los tres años. y con no cierta injusticia. Carl Friedrich Gauss. Gauss. (Ahora Alemania). pensando que con ello la clase estaría ocupada algún tiempo. quien publicó en 1733 un folleto con el título de Approximatio ad summan terminorum binomii (a + b)n. quien dispuso. costear tanto su educación secundaria como universitaria. Enseñó la prueba a su profesor. fue el primero que demostró la siguiente relación. Cuando estudiaba en Gotinga. el 23 de Febrero 1855 en Göttingen. Gauss reveló que encontró la solución usando el álgebra. a quien también le interesaban los clásicos y los idiomas. se conoce como distribución de Gauss. La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro.). distribución de Gauss o distribución de LaplaceGauss. y se llama tipificada de X. .. A la edad de setenta y siete años.. . tallas. la importancia de la distribución normal se debe principalmente a que hay muchas variables asociadas a fenómenos naturales que siguen el modelo de la normal. Caracteres psicológicos. perímetros. Caracteres morfológicos de individuos (personas.. el área total de la curva por encima del eje basal x es la unidad del área = 1. Gauss encontró la fórmula para construir los demás polígonos regulares con la regla y el compás. p.. Dos desvíos estándar encierran un 95% y tres un 99. por ejemplo: consumo de cierto producto por un mismo grupo de individuos. Gauss falleció.ejm. plantas. En resumen. se reconoció el mérito de Gauss. que construyó el mismo Gauss. 30 de Marzo de 1796. el peso de niños recién nacidos. pesos. para un mismo valor de p y valores de n cada vez mayores. se reconoció que era el matemático más grande de los siglos XVIII y XIX.7% de la curva. fue importante en la historia de las matemáticas.imposible. Durante su vida. En otras ocasiones. El profesor... adaptación a un medio. por ejemplo : la media.. Se ha dicho que la lápida que señala su tumba fue escrita con un diagrama. animales. puntuaciones de examen. Y en general cualquier característica que se obtenga como suma de muchos factores. habitualmente llamada distribución de Gauss. tipo B(n. talla de jóvenes de 18 años en una determinada región. Es simétrica en torno a su media ( ). de un polígono de diecisiete lados. Si se trazan líneas perpendiculares a un desvío estándar ( ) de distancia de la media. Es propio que ciertos fenómenos tienden a parecerse en su comportamiento a esta distribución. por ejemplo: cociente intelectual. p). Posteriormente. Caracteres fisiológicos. Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas.. se ve que sus polígonos de frecuencias se aproximan a una curva en "forma de campana".. o de una misma cantidad de abono. por lo tanto cada sector de derecha e izquierda tiene un valor de 0. la media. Valores estadísticos muestrales. Administración. La distribución normal es en forma de campana. por ejemplo. Caracteres sociológicos. no pudiendo negar lo evidente. Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene forma de campana. Otras distribuciones como la binomial o la de Poisson son aproximaciones normales.. por ejemplo: efecto de una misma dosis de un fármaco. afirmó que también él procedió de la misma manera. La mayoría de las variables aleatorias que se presentan en los estudios relacionados con las ciencias sociales. Su obra en las matemáticas contribuyó a formar una base para encontrar la solución de problemas complicadísimos de las ciencias físicas y naturales. grado de Errores cometidos al medir ciertas magnitudes. envergaduras. se obtiene un 68% del área de la curva. Sin embargo. pero Gauss demostró que tenía la razón.5. físicas y biológicas.. diámetros. y la fecha de su descubrimiento. mediana y modo son iguales. al considerar distribuciones binomiales.) de una especie. son continuas y se distribuyen según una función de densidad. Sir Francis Galton construyó un ingenioso dispositivo que permitía obtener de forma experimental la curva de distribución normal. . Dicha curva y tal como vemos en la gráfica. que se alejan de la misma a medida que ganan en singularidad. incluida la inteligencia. se distribuyen siguiendo esta ley normal. presenta un apiñamiento de frecuencias altas en torno a la media. que matemáticamente viene expresada por la función: Donde: e es la constante 2. es la media de la variable aleatoria.En el gráfico se observa la campana de Gauss. es 3.1415… (Relación entre la longitud de la circunferencia y su diámetro).7182…(base de los logaritmos neperianos). La mayoría de las magnitudes. cualquier punto del intervalo.La medida de la distancia al valor central es indicado por la desviación tipo o estándar. 2 es la varianza de la variable aleatoria f(x) la ordenada de la curva. x es la abscisa. es la desviación tipo de la variable aleatoria. representante de la distribución normal y sus desvíos estándares. Ejemplos de distribuciones normales con diferentes parámetros . Para cada valor de y se tendrá una función de densidad diferente. ) representa una familia de distribuciones normales. Como e y π son constantes. la ecuación de la distribución normal se puede representar visualmente como una curva en forma de campana. Donde μ es la media de la variable aleatoria y σ es su desviación típica. la media μx y la desviación estándar σx. Se llama distribución normal "estándar" a aquélla en la que sus parámetros toman los valores μ = 0 y σ = 1. su media y su desviación típica y la representamos así N ( . σ) si su función de densidad está dada por: Donde μ (mu) es la media y σ (sigma) es la desviación estándar (σ2 es la varianza). por lo tanto la expresión N ( . En matemáticas. la forma de la curva normal depende solamente de los dos parámetros de la distribución normal. El área debajo de esta curva se halla por medio del integral de la función y corresponde al porciento o la proporción de puntuaciones que se encuentran en el intervalo dado. La distribución normal queda definida por dos parámetros. El área bajo la función de .Se dice que una variable aleatoria continua X sigue una distribución normal de parámetros μ y σ y se denota X~N (μ. Este tipo de variables se dice que se distribuye normalmente. Las diferentes curvas normales van a variar dependiendo de esos dos parámetros. ) . que se distribuya normalmente con media: μ y desviación típica: σ. La media indica la posición de la campana. En concreto.La curva normal es asintótica al eje de abscisas. Cuanto mayor sea . Según esto. que coincide con su media y su mediana.El área bajo la curva comprendida entre los valores situados aproximadamente a dos desviaciones estándar de la media es igual a 0.. de modo que para diferentes valores de la gráfica es desplazada a lo largo del eje horizontal. 5. más aplanada será la curva de la densidad.96 . Por otra parte.La forma de la campana de Gauss depende de los parámetros y . para este tipo de variables existe una probabilidad de un 50% de observar un dato mayor que la media. y un 50% de observar un dato menor. por tanto.densidad es 1..96. cualquier valor entre y es teóricamente posible.La distancia entre la línea trazada en la media y el punto de inflexión de la curva es igual a una desviación típica ( ). 4.95.... 2.Es simétrica con respecto a su media . igual a 1. la probabilidad de que la variable X esté comprendida entre los valores a y b es el área teñida de rojo en la siguiente figura: PROPIEDADES DE LA DISTRIBUCIÓN NORMAL 1. Cuanto mayor sea el valor de . 1. en el caso de la distribución Normal.Tiene una única moda.. Por ello. la desviación estándar determina el grado de apuntamiento de la curva. La función de densidad. tiene forma de campana: Para una variable aleatoria X. El área total bajo la curva es. existe un 95% de posibilidades de observar un valor comprendido en el intervalo 1. 6. más se dispersarán los datos en torno a la media y la curva será más . 3. . pero la mayor parte del área bajo la curva se encuentra a tres desviaciones estándar de la media. la probabilidad va decreciendo de igual forma a derecha e izquierda (es simétrica).Como se deduce de este último apartado. la más utilizada es la distribución normal estándar. sino una familia de distribuciones con una forma común. que corresponde a una distribución de media 0 y varianza 1.. + ) Son más probables los valores cercanos a uno central que llamamos media Conforme nos separamos de ese valor . 9. diferenciadas por los valores de su media y su varianza. 7. Un valor pequeño de este parámetro indica.La variable tiene un alcance infinito. El 68 % del área de la curva (probabilidad) se encuentra a una desviación estándar de la media. F(x) es el área sombreada de esta gráfica .. por tanto. una gran probabilidad de obtener datos cercanos al valor medio de la distribución. no existe una única distribución normal. 8. FUNCIÓN DE DISTRIBUCIÓN Puede tomar cualquier valor (. .plana.Ql y Q3 están situados a 2/3 de una desviación estándar. De entre todas ellas. kilos. Cuando se estudia la variable de peso de los niños al nacer. grueso de tornillos o frutos de árboles. al comparar las magnitudes entre el punto A y el punto B en los tres análisis con las unidades de la Distribución Normal Estándar. aun cuando las distribuciones de datos muestren la misma forma. estaremos hablando en la misma escala. La diferencia entre las dos distribuciones radica en que las medias y las desviaciones estándar no son iguales. de esta manera. Cuando se diga por ejemplo. Por tanto su función de densidad es y su función de distribución es Siendo la representación gráfica de esta función la siguiente: . La unidad estándar o tipificada se llama Z y se obtiene mediante la fórmula: Z x Donde μ es la media de la distribución y σ su desviación estándar. sin importar las unidades en que fueron medidos los datos. Las puntuaciones estandarizadas (tipificadas) se logran restando la media a cada observación y dividiendo entre la desviación estándar. Este problema se ha resuelto prácticamente al transformar los valores de todas las distribuciones normales a los valores de una distribución normal estandarizada (tipificada) representada por la curva normal estandarizada.LA DISTRIBUCIÓN NORMAL ESTANDARIZADA O TIPIFICACIÓN La Distribución Normal Estándar es una Distribución Normal teórica que utiliza un sistema numérico común. micras o unidades para el ejemplo. niños con niños. En muchas ocasiones se quieren comparar puntuaciones que pertenecen a dos distribuciones normales diferentes. o el número de frutos dañados en un árbol. para poderlas comparar con una distribución patrón es necesario referirlas en la misma unidad de medida. Puesto que hay un número infinito de combinaciones para los dos parámetros. por tanto. Debe quedar claro que las comparaciones únicamente son posibles en poblaciones similares. sean pesos de bebes. la magnitud relativa entre el punto A y el punto B. las unidades métricas son variables. hay un número infinito de curvas normales diferentes. tornillos con tornillos etc. transformados a una unidad estándar. Esta unidad de medida es la desviación estándar (se verá más adelante). se podrá deducir entre otras cosas. entre el punto A y el punto B hay k desviaciones estándar. Sin embargo la comparación se hace posible si se convierten las puntuaciones de ambas distribuciones a puntuaciones z que corresponden a la distribución normal estandarizada o tipificada. Por tanto. o el grueso de tornillos. y la desviación típica es de 0. usamos la fórmula de conversión z. CARACTERÍSTICA DE LA DISTRIBUCIÓN NORMAL TIPIFICADA (REDUCIDA O ESTÁNDAR) No depende de ningún parámetro Su media es 0.9146: . peso de los niños al nacer. t = 0. al valor de X = 4. y a la curva de su función de densidad curva normal tipificada. ¿cuál es la probabilidad de que el peso de un niño varón al nacer sea superior a 4 Kg? Z X 4 3. Si sabemos que el peso medio en el momento de nacer son 3. Ejemplo: Consideremos que el peso de los niños varones venezolanos en el momento del nacimiento se distribuyen normalmente. y su ventaja reside en que hay tablas donde se recoge la probabilidad acumulada para cada punto de la curva de esta distribución. le corresponde el valor.. La curva f(x) es simétrica respecto del eje 0Y Tiene un máximo en el eje Y Tiene dos puntos de inflexión en z =1 y z = -1 La curva normal estándar tiene = 0 y = 1.25 0.5. Cuando la media de la distribución normal es 0 y la varianza es 1 se denomina "normal tipificada". Recordamos que la probabilidad equivale al área bajo la curva.A la variable Z se la denomina variable tipificada de X.82 Kg.25 Kg. En el proceso de tipificación. Para calcular probabilidades en una curva normal no estándar. que el área bajo toda la curva es 1 y que el área bajo cada mitad de la curva es 0. su varianza es 1 y su desviación típica es 1.9146 0.82 Tipificamos la variable aleatoria X. 60) = 0.7422 .35) y P (z > –1.0 %.0968 .7454 .04 .0823 Recordamos que la tabla proporciona el área bajo la curva a la izquierda de z.0934 .9146 .7324 .0885 = 0. EJERCICIOS: Calcular las siguientes probabilidades.07 .35) = 1 – 0. es de 18.9115. z .02 .05 .0918 .08 .En la tabla de la distribución normal tipificada.05 .01 .7517 . Además. Luego: 2 Por lo tanto la probabilidad de que un niño al nacer tenga un peso superior a 4 kg. Por lo tanto.09 0.02 . 1) 2) 3) 4) P(z P(z P(z P(z > < > < –2.0869 .35) = 0. D) Solución: Primero transformamos el valor de x a su equivalente en z: z = (63– 60)/5 = 0.03 .60) = 0.0885 .03 .7257.0901 .6.09 –1. EJEMPLOS: A) Calcular P (z < –1. la probabilidad de t > 0.7486 .0951 .7389 .17) 2.6 . Solución: abajo se reproduce parte de la tabla: B) z .06 . P (z < –1.96) 1.06 .2743.7291 .0853 .01 .35).07 .3 .00 .00 .7549 Al consultar la tabla (ver arriba): P(x < 63) = P(z < 0.04 .7357 . La otra área se obtiene así: P (z > –1. buscamos el valor de α correspondiente al valor de t = 0.7257 .0885.08 . P(x > 63) = P (z > 0. según se puede apreciar en la figura: .39) . C) Una distribución 63).43) –0.0838 .9146 es.60) = 1 – P (z < 0. Su distribución no es de la normal estándar.5) Si = 110 y = 4. tenga un peso superior a 100 Kg? SOLUCIÓN: Expresando por X a la variable que representa el peso de los individuos en esa población. es decir.3) Consideremos. es útil transformar esta característica según la Ecuación siguiente: Así. sino que más bien el problema se plantea a la inversa: a partir de una muestra extraída al azar de la .9772-0.0228. encontramos el problema de que las tablas estándar no P( z 2 ) para valores negativos de la variable.. calcular P(x < 107) y P(x > 105) 6) Si = 30 y = 2. Sin proporcionan el valor de embargo. aproximadamente de un 2. es de: 1–0. ésta sigue una distribución N (80. entonces. Por lo tanto. resultando ser . haciendo uso de la simetría de la distribución normal. con una media de 80 Kg. elegida al azar. se sabe que P( z 2 ) 0. el siguiente problema: Supongamos que se sabe que el peso de los sujetos de una determinada población sigue una distribución aproximadamente normal. es de 0. la probabilidad buscada de que una persona elegida aleatoriamente de esa población tenga un peso mayor de 100 Kg. 10). la probabilidad buscada de que una persona elegida al azar tenga un peso entre 60 y 100 Kg. aproximadamente de un 95%. Resulta interesante comprobar que se obtendría la misma conclusión recurriendo a la propiedad de la distribución normal.9772 = 0. se puede deducir que: Esta última probabilidad puede ser fácilmente obtenida a partir de la tabla. Generalmente no se dispone de información acerca de la distribución teórica de la población. De modo análogo.. podemos deducir que: Por el ejemplo anterior.9544.2) y P(x > 32. es fácil observar que este tipo de situaciones no corresponde a lo que habitualmente nos encontramos en la práctica. No obstante.3%. calcular P(x < 31. Para la segunda probabilidad.0228=0. es decir.9772 . la probabilidad que se desea calcular será: Como el área total bajo la curva es igual a 1. podemos obtener la probabilidad de que el peso de un sujeto esté entre 60 y 100 Kg: Tomando a = -2 y b = 2. ¿Podremos saber cuál es la probabilidad de que una persona. se tiene que: Finalmente. y una desviación estándar de 10 Kg. sin embargo. podríamos pensar en aproximarlos por sus análogos muestrales. y queremos calcular la probabilidad de que X tome un valor entre 39 y 48. Tabla de Áreas bajo la curva normal estándar. el llamado teorema central del límite. EJEMPLO: Supongamos que se dispone del peso de n =100 individuos de esa misma población. obteniéndose una media muestral de X 75 Kg. se realizan una serie de mediciones y se desea extrapolar los resultados obtenidos a la población de origen. Los valores de la tabla que no se muestran en negrita representan la probabilidad de observar un valor menor o igual a z. a partir de la propiedad de la normal se conoce que aproximadamente un 95% de los posibles valores de X caerían dentro del intervalo 1. y una desviación estándar muestral S 12 Kg. resultando . se pretende extraer alguna conclusión acerca del valor medio real de ese peso en la población original. en líneas generales éste es el modo de construir un intervalo de confianza para la media de una población. Puesto que los valores de y son desconocidos.80%.81 ) . un 95% seguros de que el peso medio real en la población de origen oscila entre 75. De modo que 9 81 P39 X 48 0. .96 . EJEMPLO: Supongamos que cierto fenómeno pueda ser representado mediante una va X N ( 45 . con lo cual.378 37. Aunque la teoría estadística subyacente es mucho más compleja.3 Kg. es decir. La solución a este tipo de cuestiones se basa en un resultado elemental de la teoría estadística.96 1. P39 X 48 ?? SOLUCIÓN: Comenzamos haciendo el cambio de variable Z X X 45 X 45 .población que se desea estudiar. Estaremos. Dicho axioma viene a decirnos que las medias de muestras aleatorias de cualquier variable siguen ellas mismas una distribución normal con igual media que la de la población y desviación estándar la de la población dividida por n .6 Kg y 80. podremos entonces considerar la media muestral X N ... n n . n . La cifra entera y el primer decimal de z se buscan en la primera columna. por lo tanto. y el segundo decimal en la cabecera de la tabla. En nuestro caso. 7157 0.9545 0.8 0.5160 0.5478 0.9808 0.8621 0.5239 0.9525 0.9999 0.9993 0.9871 0.9625 0.5438 0.9678 0.9693 0.9968 0.0000 0.5793 0.6985 0.9973 0.9641 0.6 2.9977 0.0000 0.9998 0.9989 0.9927 0.9998 0.0000 0.7123 0.4 1.7%).9989 0.9370 0.9988 0.8729 0.9993 0.3 1.8461 0.0000 0.9793 0.1 1.5753 0.5557 0. la que va desde el inicio de la curva por la izquierda hasta dicho valor.8485 0.9911 0.9995 0.9788 0.9875 0.9963 0. No nos da la probabilidad .9783 0.9997 0.9382 0.9279 0.9798 0.9955 0.7704 0.9969 0.08 0.z 0.5910 0.9868 0.9999 0.8531 0.9761 0.5000 0.9995 0.9505 0.8133 0.9896 0.0000 0.3 2.5319 0.8264 0.9599 0.8980 0.5359 0.9999 1.6480 0.9999 1.7517 0.75.5 0.9582 0.9192 0.9991 0.8925 0.6664 0.9131 0.9972 0.7 1.0000 ¿CÓMO SE LEE ESTA TABLA? La columna de la izquierda indica el valor cuya probabilidad acumulada queremos conocer.9994 0.7019 0.9726 0.09 0.9984 0.9976 0.9732 0.9997 0.9884 0.8438 0.9974 0.8078 0.9999 1.9992 0.7764 0.9515 0.9115 0.9964 0.9656 0.9474 0.9463 0.6591 0.6517 0.9803 0.8 3.9649 0.9861 0.7 y en la primera fila el valor 0.9962 0.0 0.9989 0.8643 0.6064 0.6772 0.9357 0.9319 0.6331 0.9015 0.7 0.9999 0.9997 0. La primera fila nos indica el segundo decimal del valor que estamos consultando.6700 0.9998 0.9857 0.8790 0.9986 0.9441 0.9948 0.8023 0.9778 0.7454 0.8907 0.9997 0.9406 0.9207 0.9931 0.6736 0.9994 0.2 1.3 0.05.6179 0.9987 0.5675 0.6026 0.7190 0.7967 0.9997 0.1 2.6443 0.8508 0.9049 0.5517 0.9066 0.9994 0.9949 0.9998 0.1 0.8708 0.9951 0.9345 0.9082 0.9996 0.9986 0.9821 0.9982 0.9995 0.05 0.04 0.6 1.9999 0.9998 0.9 0.9980 0.6808 0.9901 0.5040 0.7549 0.9554 0.0000 0.9616 0.03 0.9817 0.9977 0.9452 0.5596 0.0000 0.7939 0.8749 0.9987 0.00 0.7054 0.9495 0.9998 0.9998 0.9990 0.9929 0.9744 0.9999 0.5871 0.5199 0.5080 0.8830 0.8665 0.9982 0.9999 0.9979 0.7224 0.9864 0.9999 0.9898 0.6255 0.7881 0.6844 0.0000 0.9 2.9099 0.6628 0.6141 0.1 3.5 1.9251 0.9719 0.9535 0.9671 0.9970 0.9591 0.9997 0.9394 0.02 0.9988 0.6915 0.9992 0.9999 0.9999 0.5714 0.5120 0.9996 0.8869 0.9429 0.9887 0.9999 0.9998 0.8315 0.9961 0.9878 0.6368 0. es decir.99702.5 2.8962 0.9995 0.8365 0.01 0.9664 0.8 1.9265 0.8599 0.9699 0.9934 0.2 2.9999 0.5 3.2 3.9998 0.8238 0.9706 0.9992 0.9979 0.9994 0.9147 0.9999 1.9222 0.9236 0.9991 0.9995 0.5832 0.8413 0.9633 0.9975 0.07 0.9971 0.9999 1.9830 0.9925 0.9978 0.8186 0.9838 0.8554 0.9999 0.9998 0.9938 0.9990 0.6406 0.5398 0.7486 0.9940 0.9850 0.9991 0.9893 0.4 3.9916 0.9418 0.7794 0.7357 0.9985 0. es decir 99.9994 0.9999 1.9936 0.9998 0.9713 0.7734 0.8 2. EJEMPLO: queremos conocer la probabilidad acumulada en el valor 2.0000 0.9756 0.4 0.9946 0.6879 0.9906 0.8340 0.9032 0. La casilla en la que se interseccionan es su probabilidad acumulada (0.9772 0.7580 0.9854 0.9999 1.8577 0.8849 0.9952 0.9957 0.9842 0.9943 0.8888 0.9993 0.9956 0.9881 0.9997 0.8159 0.9981 0.6217 0.9564 0.9812 0.7257 0.9484 0.9996 0.9999 1.9959 0.7 3.9890 0.7852 0.9996 0.9 3.8810 0.9573 0.9995 0.7422 0.9306 0.8770 0.9918 0.8051 0.4 2.9999 1.7995 0.6 3.9999 1.9177 0.9932 0.06 0.7910 0.9985 0.9984 0.8106 0.9997 0.7291 0. Entonces buscamos en la columna de la izquierda el valor 2.7611 0.0 1.9945 0.9920 0.9332 0.9922 0.9608 0.9738 0.9992 0.9993 0.6 0.3 3.9999 0.6950 0.9990 0.9974 0.9 1.9999 0.9998 0.8389 0.9983 0.9996 0.9826 0.8289 0.7389 0.9767 0.5279 0.9998 0.7088 0.8944 0.9996 0.5987 0.9987 0.9909 0.9965 0.2 0.7 2.9997 0.9750 0.9999 0.9981 0.8997 0.6554 0.9292 0.9953 0.9834 0.9999 0.6103 0.7673 0.8686 0.9960 0.5636 0.9846 0.7324 0.9966 0.9162 0.7823 0.9999 0.9997 0. ATENCIÓN: la tabla nos da la probabilidad acumulada.9941 0.9686 0.9999 0.5948 0.0 3.9913 0.9904 0.7642 0.6293 0.9967 0.8212 0.0 2. 98574 esta tabla con una distribución EJEMPLO: el salario medio anual de los empleados de una empresa se distribuye según una distribución normal. 1999791. es del 97. el porcentaje de empleados con salarios inferiores a 7 millones de Bs. La variable Z que corresponde a una variable X de valor 7 es: Z 75 2 1 Ya podemos consultar en la tabla la probabilidad acumulada para el valor 2 (equivalente a la probabilidad de sueldos inferiores a 7 millones de Bs.994.725%.9115 respuesta es 0. . Calcular el porcentaje de empleados con un sueldo inferior a 7 millones de Bs. EJERCICIO 1º: La renta media de los habitantes de un pueblo es de 4 millones de Bs/año. con una varianza de 1.19: la podemos utilizar respuesta es 0. Lo primero que haremos es transformar esa distribución en una normal tipificada. con media 5 millones de Bs. Calcular: a) Porcentaje de la población con una renta inferior a 3 millones de Bs. 1. c) Ingresos mínimo y máximo que engloba al 60% de la población con renta media.99. 1.).concreta en ese punto. a) Porcentaje de la población con una renta inferior a 3 millones de Bs. para ello se crea una nueva variable (Z) que será igual a la anterior (X) menos su media y dividida por la desviación típica Z X En el ejemplo.35: la en el valor 2. La probabilidad de que tome exactamente el valor 2 es despreciable.9998. la probabilidad en un punto concreto es prácticamente despreciable. Se supone que se distribuye según una distribución normal. etc. la nueva variable sería: Z X 5 1 Esta nueva variable se distribuye como una normal tipificada.97725 Por lo tanto. Veamos otros ejemplos: Probabilidad acumulada Probabilidad acumulada Probabilidad acumulada Veamos ahora. 1.7486 respuesta es 0. y desviación típica 1 millón de Bs. ya que podría tomar infinitos valores: por ejemplo: 1. Esta probabilidad es 0. como normal: en el valor 0.5. b) Renta a partir de la cual se sitúa el 10% de la población con mayores ingresos.67: la en el valor 1.9967. En una distribución continua en el que la variable puede tomar infinitos valores. EJEMPLO: Imaginemos que una variable continua puede tomar valores entre 0 y 5. quiere decir que entre la media y este valor de Z hay un 30% de probabilidad. este problema tiene fácil solución.816.816) Ahora tenemos que ver cuál es la probabilidad acumulada hasta ese valor.57.816) Por otra parte. la probabilidad que hay a partir de un valor es igual a 1 (100%) menos la probabilidad acumulada hasta dicho valor: P (Z > 0. b) Nivel de ingresos a partir del cual se sitúa el 10% de la población con renta más elevada. constituyen el 10% de la población con renta más elevada.P (Z < 0. Z) engloba al 60% de población con renta media.22 Despejando X. Ahora calculamos los valores de la variable X correspondientes a estos valores de Z.8 (80%). el 20.282 (aprox. ya que la distribución normal es simétrica respecto al valor medio. P (X < 3) = P (Z < – 0.). por lo que el segmento viene definido por (-0.816) = 1 . lo que quiere decir que por encima se sitúa el 10% superior. + 0. Por otra parte.22 Recuede que el denominador es la desviación típica (raíz cuadrada de la varianza) El valor de Z equivalente a 3 millones de Bs. Como sabemos que hasta la media la probabilidad acumulada es del 50%.0.816) = 1 .816) = P (Z > 0. su valor es 5.282 X 4 1.SOLUCIÓN: Lo primero que tenemos que hacer es calcular la normal tipificada: Z X 4 1. .842).842. El valor de Z que acumula el 80% de la probabilidad es 0.57 millones de Bs. aquellas personas con ingresos superiores a 5.) = 0. Tenemos un problema: la tabla de probabilidades sólo abarca valores positivos. entre -Z y la media hay otro 30% de probabilidad.7925 (aprox.282( 1.22 ) X 4 X 1. no obstante.2075 Luego. 1.842 (aprox. es – 0. c) Nivel de ingresos mínimo y máximo que engloba al 60% de la población con renta media Vemos en la tabla el valor de la variable normalizada Z cuya probabilidad acumulada es el 0.57 .9 (90%). Ese valor corresponde a Z = 1.75% de la población tiene una renta inferior a 3 millones Bs. En definitiva. el segmento (-Z. Por lo tanto.). Ahora calculamos la variable normal X equivalente a ese valor de la normal tipificada: 1. Vemos en la tabla el valor de la variable tipificada cuya probabilidad acumulada es el 0. al ser la distribución normal simétrica. Por lo tanto: P (Z < – 0.57 4 X 5. el 5.0548.9192 = 0.6 .4) = 1 .645 .P (Z < 1.03 millones de Bs. EJERCICIO 2º: La vida media de los habitantes de un país es de 68 años.645 ) X 58 X 9.97 y 5.08% de la población (808 habitantes) vivirán más de 75 años. el 8.95 (95%). Por lo tanto P (X < 60) = (Z < -1.87 1.Los valores de X son 2.6) = P (Z > 1. Ese valor corresponde a Z = 1. b) c) Si usted bebe 45 litros de cerveza al año y su mujer le califica de borracho ¿qué podría argumentar en su defensa? d) a) 5% de la población que más bebe. e inferiores a 5.).4 5 Por lo tanto P (X > 75) = (Z > 1.4) = 1 .645 (aprox. Por lo tanto.87 58 6 X 67 .48% de la población (548 habitantes) no llegarán probablemente a esta edad.P (Z < 5 1. a) Si usted presume de buen bebedor. b) Vemos en la tabla el valor de la variable tipificada cuya probabilidad acumulada es el 0. Se hace un estudio en una pequeña ciudad de 10. con una varianza de 25.03.0808 Luego.0.97 millones de Bs. por lo que por arriba estaría el 5% restante.000 habitantes: a) ¿Cuántas personas superarán posiblemente los 75 años? b) c) ¿Cuántos vivirán menos de 60 años? d) SOLUCIÓN: a) Personas que vivirán (posiblemente) más de 75 años b) Calculamos el valor de la normal tipificada equivalente a 75 años Z 75 68 1. las personas con ingresos superiores a 2. Ahora calculamos la variable normal X equivalente a ese valor de la normal tipificada: X 58 6( 1.6) = 0. EJERCICIO 3: El consumo medio anual de cerveza de los habitantes de una país es de 59 litros. Luego.6) = 1 . c) Personas que vivirán (posiblemente) menos de 60 años d) Calculamos el valor de la normal tipificada equivalente a 60 años Z 60 68 1. constituyen el 60% de la población con un nivel medio de renta. ¿cuántos litros de cerveza tendría que beber al año para pertenecer al 5% de la población que más bebe?. Se supone que se distribuye según una distribución normal. con una varianza de 36. para ello vamos a comenzar por calcular el valor de la normal tipificada equivalente. Ahora calculamos el valor de la normal X equivalente: X 5. con una varianza de 1. La nota media ha sido un 5. ya que por arriba sólo quedaría el 20% restante. ¿Sería oportuno ir organizando una fiesta para celebrar su éxito? b) b) Va a haber una 2ª oportunidad para el 20% de notas más altas que no se hayan clasificados.883 ) 5. a) Tan sólo hay 100 plazas. lo que quiere decir que por encima de usted tan sólo se encuentra un 1.786%.2 6 Por lo tanto P (X < 45) = (Z < -2.842 (aprox.P (Z < 2.049 (ver tablas) de 0.39% de la población bebe menos que usted. Calculamos el valor de la normal tipificada correspondiente a 45 litros: Z 45 58 2.049 ) X 5. ¿A partir de que nota se podrá participar en este "Nuevo Ingreso"? a) Ha obtenido usted un 7.5 X ( 0. Si se han presentado 2.5.842 Despejamos la X. Este valor de Z corresponde a 0.).Despejando X. b) Usted bebe 45 litros de cerveza al año.1 .98214 (98.5 ( 0. su valor es 67.7 b) Vamos a ver con ese 7. b) "Repesca" para el 20% de los candidatos Vemos en la tabla el valor de la normal tipificada que acumula el 80% de la probabilidad.7.2) = P (Z> 2. Por lo tanto. como hay 100 plazas disponibles.842 )(1.2) = 0.87. ¿Es usted un borracho? Vamos a ver en que nivel de la población se situaría usted en función de los litros de cerveza consumidos. esta es la nota a partir de la cual se podrá acudir al "Nuevo Ingreso".000 aspirantes. ese 1. su valor es 6.5 1.7 5. Parece un argumento de suficiente peso para que dejen de catalogarle de "enamorado de la bebida" EJERCICIO 4: A un examen de oposición se han presentado 2.786% equivale a unos 36 aspirantes.2) = 1 . A este valor de Z le corresponde una probabilidad acumulada 1. Z 7. Por lo tanto.38 0.0139 Luego.214%).1.5 2. Usted ha obtenido un 7.38.049 X 6.000 aspirante. tiene usted suficientes probabilidades como para ir organizando la "mejor de las fiestas". tan sólo un 1. tendría usted que beber más de 67. .7 en que nivel porcentual se ha situado usted.87 litros al año para pertenecer a ese "selecto" club de grandes bebedores de cerveza. Z tiene una distribución normal de media nula y varianza 1. las distribuciones de muestreo de muchos estadísticos son aproximadamente normales. ésta también es una razón para utilizar la "T de Student" . Descubierta por William S Gosset y publicada en 1908 bajo el seudónimo de "student".LA DISTRIBUCIÓN "T DE STUDENT": La distribución t (de Student) es una distribución de probabilidad que florece del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Para muestras de tamaño menor que 30. de modo que son precisas ciertas modificaciones. u otros. Z y V son Z independientes. siendo la aproximación tanto mejor cuanto mayor sea N. La distribución t de Student es la distribución de probabilidad del Z cociente donde. N INTERVALOS DE CONFIANZA Al igual que se hizo con la distribución normal. Sin embargo. Aparece de manera natural al realizar la prueba t de Student para la determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones cuando se desconoce la desviación típica de una población y ésta debe ser estimada a partir de los datos de una muestra. usando la tabla de la distribución t. De esta forma podemos estimar la media de la población dentro de los límites especificados. esa aproximación no es adecuada y empeora al decrecer N. otra característica que permite utilizar una distribución "T" es que la desviación estándar de tipo poblacional se desconoce y se debe utilizar una desviación estándar de tipo muestral. se pueden definir los intervalos de confianza 95%. V v V tiene una distribución chi-cuadrado con grados de libertad. . Las muestras de tamaño N>30. llamadas pequeñas muestras. pues sus resultados son válidos tanto para pequeñas muestras como para grandes. 99%. un nombre más apropiado sería teoría exacta del muestreo. el cociente es una V v variable aleatoria que sigue la distribución t de Student no central con parámetro de no-centralidad μ. Los procedimientos de estimación y prueba de hipótesis para muestras pequeñas como es el caso de este trabajo son tratados preferencialmente por la distribución denominada "T de student". En esta guía analizaremos la Distribución de Student. En la mayoría de casos reales o prácticos es frecuente que el tamaño de la muestra sea limitado por el costo y por el tiempo por el cual se requiere de procedimientos un poco diferentes a los utilizados para muestras grandes o mayores que treinta observaciones que por lo general se asocian con la distribución normal. se les llamadas grandes muestras. El estudio de la distribución de muestreo de los estadísticos para pequeñas muestras se llama teoría de pequeñas muestras. Si μ es una constante no nula. la cual se designa con la letra t. Definamos el estadístico dado por Z t X ( X ) N que es análogo al estadístico z S S N X X N. Existen 7 elementos en una muestra y se sabe que la media de estos elementos es 16. Se tiene la libertad de asignar valores a 6 variables. Donde S es la desviación estándar estimada de X . Observemos otro ejemplo. sino que debe tomar solamente el valor 26 puesto que. ahora b ya no está libre de tomar cualquier valor. ya que 36 entre 2 es 18. En cada uno de los ejemplo tenemos un grado de libertad que es igual a n – 1 grados de libertad. Utilizamos los grados de liberta cuando se elige una distribución t para estimar una media de población. se puede expresar: ab 18 a b 36 . y luego ya no tenemos libertad de especificar el valor de la séptima variable. Regiones de aceptación y rechazo en el contraste de hipótesis . si estos parámetros son desconocidos. hay que estimarlos a partir de la muestra. ¿Cómo se puede encontrar los valores que a y b puedan 2 tomar en esta situación? La respuesta es que a y b pueden ser cualquiera de dos valores cuya suma sea 36. ¿Qué son los grados de libertad? Se pueden definir como el número de valores que se pueden escoger libremente. a y b. tomando n igual al tamaño de la muestra. entonces 10 + b = 36. puesto que el otro estará determinado por el hecho de que los 2 elementos suman el doble de la mitad de la muestra. y se sabe que tienen una media de 18. Suponiendo que se está trabajando con dos valores de muestra. Este ejemplo demuestra que cuando existen 2 elementos de una muestra y solo conocemos la media de la muestra de esos elementos. suponiendo que n es el tamaño de la muestra. los grados de libertad (GL) o el número de variables que se pueden especificar libremente es 7 – 1 = 6.X t 2 S . Simbólicamente. entonces somos libres de especificar solamente uno de esos elementos. N N GRADOS DE LIBERTAD Para el cálculo de un estadístico tal como t y es necesario emplear tanto observaciones de muestras como propiedades de ciertos parámetros de la población. y se utilizará n – 1 GL. si a = 10. por lo tanto b = 26. En términos estadísticos se dice que tenemos un grado de libertad. Simbólicamente se tiene la siguiente situación: abcd e f g 16 7 En este caso. puesto que esa queda determinada automáticamente. Suponiendo que a tiene un valor de 10. 571 3.397 1.0005 1 3.821 3.365 2.032 5.812 2.894 6.447 3.821 63.328 31.533 2.781 10 1.106 4.182 4.578 2 1.025 4.886 2.869 6 1.943 2.965 9.896 3. alfa) T~t(df) P(T>t(df.372 1.0010 0.143 3.681 3.214 12.363 1.alfa)) grados alfa de libertad 0.306 2.415 1.440 1.041 9 1.764 3.437 12 1.782 2.930 4.587 11 1.353 3.355 4.895 2.179 2.318 .408 8 1.250 4.833 2.201 2.656 318.747 4.314 12.0250 0.998 3.Distribución t de Student para varios valores Valores críticos para la distribución Student's .707 5.383 1.600 3 1.356 1.860 2.924 4 1.476 2.541 5.499 4.0050 0.289 636.785 5.925 22.262 2.718 3.055 3.132 2.208 5.173 8.144 4.610 5 1.303 6.0100 0.169 4.638 2.015 2.920 4.078 6.501 5.365 4.796 2.959 7 1.297 4.0500 0.228 2.706 31.1000 0.776 3.841 10.t alfa = área a la derecha de t(df.604 7. También se le conoce como distribución F de Snedecor (por George Snedecor) o como distribución F de Fisher-Snedecor.725 2.528 2.015 17 1.861 3.101 2. la distribución F es una distribución de probabilidad continua.582 37 1.315 1.385 3.658 1.552 3.704 3. Una variable aleatoria de distribución F se construye como el siguiente cociente: donde.069 2.852 4.13 1.714 2.160 2.449 2.445 2.750 3.337 1. La distribución F aparece frecuentemente como la distribución nula de una prueba estadística.706 2.021 2.719 3.691 2.313 3.692 2.080 2.323 1.309 1.221 14 1.304 1.345 1.771 2.527 3.316 1.462 2.131 2.500 2.328 1.093 2. Véase el test F.965 18 1.728 3. La función de densidad de una F(d1.960 2.333 3.715 3.566 39 1.633 32 1.707 27 1.318 1.574 38 1.042 2.304 1.807 3.922 19 1.712 3.771 3.660 3.694 2.591 36 1.518 2.479 2. especialmente en el análisis de varianza.453 2.797 3.687 2.779 3.145 2.645 1.311 1.539 2.711 2.660 30 1.684 2.314 1.947 3.724 3.878 3.350 1.977 3.921 3. U1 y U2 siguen una distribución chicuadrado con d1 y d2 grados de libertad respectivamente.434 2.441 2.435 3.467 2.819 3.674 29 1.473 2.792 23 1.551 60 1.037 2.721 2.624 2.717 2.701 2.733 4. .686 2.845 3.012 3.030 2.763 3.429 2.026 2.110 2.602 2.898 3.327 2.690 2.850 21 1.074 2.408 3. y U1 y U2 son estadísticamente independientes.028 2.756 3.761 2.729 2.734 2.365 3.232 3.650 3.467 3.457 2.576 3.296 1.460 120 1.048 2.699 2.333 1.646 31 1.390 2.373 inf 1.450 3. donde d1 y d2 son enteros positivos.423 2.140 15 1.091 3.738 3.056 2.330 1.303 1.319 1.396 3.583 2.035 2.601 35 1. d2) viene dada por para todo número real x ≥ 0.819 22 1.060 2.485 3.305 1.686 4.740 2. y B es la función beta.685 2.313 1.000 2.744 3.160 3.688 2.558 40 1.306 1.689 28 1.307 1.375 3.307 3.086 2.485 2.567 2.064 2.356 3.282 1.745 25 1.358 2.708 3.321 1.552 2.340 3.646 3.671 2.831 3.024 2.289 1.120 2.326 3.291 DISTRIBUCIÓN F: Usada en teoría de probabilidad y estadística.622 33 1.045 2.746 2.308 1.508 2.617 3.980 2.438 2.073 16 1.431 2.032 2.325 1.492 2.768 24 1.426 2.052 2.421 3.696 2.579 3.703 2.309 1.310 1.787 4.733 3.319 3.725 26 1.610 3.753 2.883 20 1.023 2.787 3.505 3.697 2.341 1.040 2.708 2.306 1.611 34 1.348 3. . todos los intervalos de igual longitud en la distribución en su rango son igualmente probables. El que la variable aleatoria X tenga esta distribución se 2 representa habitualmente así: X k .x 0.DISTRIBUCIÓN JI CUADRADO: La distribución 2 (de Pearson). si su función de densidad de probabilidad es: x 1 f ( x) e . DISTRIBUCIÓN EXPONENCIAL: La variable aleatoria continua X tiene una distribución exponencial. Función de densidad donde Γ es la función gamma. La distribución es a menudo escrita en forma abreviada como U(a. La función de densidad de probabilidad de la distribución uniforme continua es: La función de distribución de probabilidad es: . tales que cada miembro de la familia..donde.. Se dice que una variable aleatoria continua X. que son sus valores mínimo y máximo. la distribución uniforme continua es una familia de distribuciones de probabilidad para variables aleatorias continuas. 0 La distribución exponencial es un caso particular de distribución gamma con k = 1. Es conveniente tener en cuenta que la letra griega χ se transcribe al latín como chi y se pronuncia en castellano como ji. es una distribución de probabilidad continua con un parámetro k que representa los grados de libertad de la variable aleatoria donde Zi son variables aleatorias normales independientes de media cero y varianza uno.b). y. con parámetro ß.. tiene una distribución exponencial de parámetro β. a y b. Además la suma de variables aleatorias que siguen una misma distribución exponencial es una variable aleatoria expresable en términos de la distribución gamma..... DISTRIBUCIÓN UNIFORME (CONTINUA): En teoría de probabilidad y estadística.. llamada Chi cuadrado o Ji cuadrado.. El dominio está definido por dos parámetros... Costa Rica. México Enciclopedia Microsoft Encarta 2002 (2002): Censo. Editorial Bourgeón. Magdalena (2002) Curso de SPSS para Windows: Análisis Estadístico. Leithold. Freud J: E. Ferrán Aranaz. en Santa Fe. Mark. Lincon L. Edición. Arturo Núñez (1992): Estadística Básica par Planificación. R. (1987): Como Investigar en Educación. Caracas – Venezuela. Cadoche. E. J. Editorial McGaw-Hill Interamericana de México. J. México. Chao. México. Editorial Limusa. Filgueira. y Ángel M. impartido vía internet por parte de la Universidad Nacional del Litoral.. L. Madrid – España.(1. Bogotá. 4ta Edición. Charles H. Budnick Frank S.V. Editorial Bourgeón C. Richard I. Benavente del Prado. México. Best. Editorial limusa. S. Grupo Noriega Editores. Ya-Lun (1972): Análisis Estadístico. (1998). México. Minujin.A. Prentice Hall.A. G. Castañeda J.A de C. Material del Seminario de Encuestas en Educación. Caracas. Lehmann. Y Fruchter.992): Estadística Básica en Administración. Carono. Regional Santa Fe.(1991): Métodos de Investigación 2. S. Editorial Interamericana..BIBLIOGRAFÍA Babbie. México. CHAO (1996): Estadística para Ciencias Administrativas.A. Alianza Editorial. Editorial. Editorial Hispanoamericana. . Editorial Morata.Cuestionario. Cuarta edición. González..(1993): Estadística para la Ciencia Administrativa. México. Caballero. Erkin Kreyszia (1978): Introducción a la Estadística Matemática. 6ª..(1982): Manual de técnicas de evaluación y ajuste de información Estadísticas. Análisis de datos con SPSS Win. Editorial McGraw-Hill Latinoamericana. Editorial McGaw-Hill. Guilford. Editorial. Carrillo H. Madrid. México. Gomes Rondón. W. De Bernardez (1998). Caracas. Temas Selectos de Matemáticas. Larson Harold. B. Stegmayer. México. (1988): Estadística para Administradores.. de C. Editorial McGraw-Hill.A. A. G. P. S. Fondo de cultura económica. DE C. International Thomson Editores. Hamdan González.J. Editorial Interamericana. Cuarta Edición. y Otros (1990): Estadística para la Administración con Enfoque Moderno. Colombia Chou. Ester (2001). Harla. Editorial HARLA México. Magdalena (2001) SPSS para Windows: Análisis Estadístico. y Vera. Francisco (1985): Estadística Metodológica: Ediciones Fragor. Emma Lam O. (2000): Fundamentos de la Investigación Social. S. USA. México. México. E. Editorial McGraw-Hill. Berenso. S. J. Editorial Microsoft corporation.. Editorial ICA. Editorial McGraw – Hill. Madrid. Tercera Edición. (1986): Métodos estadísticos en Educación. y Otros (1993): Estadística con Aplicación a las Ciencias Sociales y a la Educación. De Oteyza de O. México.. Usa. Editorial McGraw-Hill. (1984): Estadística aplicada a la Psicología y la Educación. S. en la República de Argentina. (1992): Matemáticas Aplicadas para Administración. L. Burioni y M. México. Editorial McGraw-Hill Interamericana de México. J. México Daniel Wayne. Madrid. Louis (1992): El Cálculo con Geometría Analítica. Editorial Limusa.V. W. (1985): Introducción a la Teoría de Probabilidades e inferencia Estadística. Carlos Hernández G.Encuesta. Estadística. Economía y Ciencias Sociales. Wilfredo (1975): Introducción a la Estadística. Nijad H. Kevin. Nijad (1986): Métodos Estadísticos en Educación. S. y de la Universidad Tecnológica Nacional. Ferrán Aranaz.A.V. A. (1995): ÁLGEBRA. México.. Moscú. Alianza Editorial. Pérez López. México. Madrid. Madrid. Sucs. Pérez López. y Myers. S. Miguel Ángel (2005). Madrid. D. Soto Negrin. Internacional Thomson Editores Spain.U. Pérez López.Venezuela. Mason. V. Editorial McGraw-Hill. Ritchey. Allen L (2001) Estadística Aplicada a los Negocios y la Economía. Editorial Interamericana. Madrid. Madrid. Editorial Iberoamericana. México. SPSS 11. S. México. Colombia. Stephen P.R. Edición Interamericana. Pérez López. McGraw – Hill. México. Walpole. Ernesto(1980): Estadística General.U. Robert (1. Editorial McGraw – Hill INTERAMERICANA DE BOGOTA. Universidad Nacional Experimental “Simón Rodríguez” (1983): Estadística 1. Lopez Casuso. Juan (1999). Editorial Harla.A. S. Editorial McGraw – Hill INTERAMERICANA DE ESPAÑA. (2001). Análisis de datos con SPSS 13 Base. VI edición. C. Stevenson.(1993): Estadística. Juan Javier (2004).U. R. (2002): Estadística.y Kubin. E.N. Manual de análisis estadístico de los datos. Pardo Merino. Spiegel. (1986): Teoría Moderna de Probabilidades y sus Aplicaciones Editorial Limusa. Madrid. México. (2005): Técnicas Estadísticas con SPSS 12. Antonio y Ruiz Díaz. S. México. Editorial Pearson Prentice Hall. 2002. Bienvenido (2005) Análisis estadístico con SPSS para Windows Volumen II: Estadística Multivariante. Pardo Merino.México. (1984): Introducción al Cálculo de Probabilidades e Inferencia Estadística. Madrid. Bienvenido (2002) Análisis estadístico con SPSS para Windows Volumen I: Estadística Básica. Shao (1986): Estadística para Economistas y Administradores de Empresa. Editorial Pearson Prentice Hall. México. Ediciones UNESR.A. Guía para Análisis de Datos. R.A. R. Mode. Sánchez Carrión. Técnicas estadísticas con SPSS. Ediciones Alfaomega S.992): Estadística para la Administración y Economía.(1992): Estadística para Administradores. Introducción a la estadística para las Ciencias Sociales. Armando (1982): Iniciación a la estadística. Editorial José Marti. . Ediciones de la Biblioteca UCV.Lenin..A. Editorial McGraw-Hill. C. México. Daniel y Romo. S. Pugachev. Editorial McGraw – Hill INTERAMERICANA DE ESPAÑA. S. Madrid. Caracas . (1987): Probabilidad y Estadística para Ingenieros. Mc Graw Hill Interamericana de España. (1988): Elementos de Probabilidades y Estadística Editorial Reverte Mejicana. Madrid. R. (2004): Técnicas de Análisis Multivariante de Datos: Aplicaciones con SPSS . (1973): Introducción a la Teoría de Probabilidades Editorial Mir. Visauta Vinacua. Editorial Pearson Prentice Hall. 2da Edición. F.J. Editorial McGraw-Hill. Editorial Pearson Prentice Hall. y Stephens Larry j. México. (2002): Estadística para las Ciencias Sociales. W. Visauta Vinacua. Webster. César. Editorial Hispanoamérica. M. UCAB.. R. Pérez López.Venezuela. Murria. William (1991): Estadística para la Administración y Económica. Caracas.A. Ed. y OTROS (1981): Estadística para Administradores y Economía. Rivas González. México Peña. Caracas.A. Mendennaf. C. Editorial Instituto de Investigaciones Económicas. (2005): Métodos Estadísticos Avanzados con SPSS. Antonio y Ruiz Díaz. Estadística aplicada a través de Excel. Caracas – Venezuela. Parzen. Miguel Ángel (2002). Madrid. C. Elmer B.Editorial Herreros Hermanos. es/bioest/Mdocente.jimdo.ucm. H.tripod.es/bioest/Introducion_ch. R: J.hrc.udemy.htm http://sapiens.htm http://www.ufsc.mx/Cim2000/Estadistica/journal_of_statistics_education. htm http://www.org/regresion1.statistics.google.com/articles/distribucion_de_probabilidad.html http://www.com / http://postgradougma.htm http://www. T.monografias.aulafacil.jimdo.com/farpro.seh-lelha.com/trabajos20/estadistica/estadistica. (1989): Fundamentos de Estadística para Administración y Economía.snyke.es/web_spss/entorno_de_trabajo_del_SPSS.com/?cadena=Aprende+estadistica http://www.es/bioest/Reglin_8.wikipedia.com / http://aprendizajevirtuaylastic.ya. Richard C.ufsc.html http://www.net/cursecon/medir/introd.hrc.html http://www. México.html http://buscar.br/cee/pasta1/art4.htm .es/libro/ http://www.hrc.itesm.com / https://sites. BIBLIOWEB https://sites. Editorial LIMUSA.terra.jimdo.com / http://hamletmud.inf.shtml http://platea.com/site/educacionvirtualdelsigloxxi/ https://sites.htm#muestreoaleatoriosimpl e http://es.es/personal2/jpb00000/tvariablealeatoria.jimdo. Wonnacott.htm http://nutriserver.google.html http://www.mec.html#tema1 http://www.com/trabajos10/esta/esta. y Wonnacott.com / http://equposanantonio.unam.html http://www.org/noparame.htm (SPSS) http://home.html http://www.shtml http://nutriserver.com/softwares.com/site/hamletylastic / http://hamletyestadisticaspss.monografias.mailxmail.es/~jescuder/estadist.html http://www.psicol.seh-lelha.com http://www.bioestadistica.com/ http://e-stadistica.com/Cursos/Bioestadistica/Distribuciones_Bidimensionales.com/site/estadisticaconelspss / http://hamletyelaprendizajevirtual.bio.seh-lelha.com/trabajos5/estadm/estadm.org/wiki/Distribuci%C3%B3n_de_probabilidad http://w3. Compañía Editorial Continental.html#tema2 http://members.statserv.wordpress.com/~beatrizt/verdad/5.com/matagus/unidad6.terra.com/site/aprendizajedeestadistica / https://sites.com/curso/informatica/spssespanol/capitulo1.jimdo.com / http://www.hispavista.hrc.htm http://encyclopedie-es.org/noparame.gestiopolis.com/?00044092 http://www.html http://www.mor.com/canales/financiera/articulos/36/estapro.shtml http://www.html http://www.pntic.jimdo.html http://www.bioestadistica.google.seh-lelha. SA deCV.com / http://hamletylaestadisticaugma.es/bioest/M_docente. (1996) Estadística.rincondelvago.edu/ntsbarsh/Business-stat/opre504S.htm (SPSS) http://www.htm http://zip.ubalt.uma.org/concor2.htm http://www.htm http://www.com/investigacionspss/Lecc-6.com/Cursos/Bioestadistica/Distribuciones_Continuas.htm http://www.jimdo.inf.es/personal2/jpb00000/tinferencia.google.br/cee/pasta4/art1p4.html http://www.eumed.freeservers.Weimer.mx/~cmendoza/ma835/ma83500. México.monografias.com/draft/12005 http://rossyindriagosilva.com / http://aprendizajevirtuylastic.jimdo. 1.vadiscr.edustatspr.es/ibae/esdeveniment/jornades_10_01/doc/Estepa-JornadasMallorca.pdf http://www.com/journal2/estadistica/Links.com/documentos/probabilidad/3.htm http://www.htm http://www.doc .http://www.fisterra.caib.angelfire.com/material/investiga/distr_normal/distr_normal.
Report "VARIABLES ALEATORIAS Y DISTRIBUCIÓN DE PROBABILIDADES"