Probabilidades

March 19, 2018 | Author: Matias Valenzuela | Category: Random Variable, Probability, Variance, Histogram, Measurement


Comments



Description

Probabilidades y Estad´ısticaVicente Acu˜ na Lab. de Bioinform´ atica y Matem´ atica del Genoma (Mathomics) Centro de Modelamiento Matem´ atico, Universidad de Chile Primavera 2015 Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 1 / 250 Advertencia 1: Las slides son s´ olo un complemento de la clase, muchos ejemplos, ejercicios, y demostraciones son realizadas en la Pizarra. El objetivo principal es hacer una clase m´as din´amica, pero en ning´ un caso las slides reemplazan a las clases!. Advertencia 2: Estas slides son de exclusivo uso de la clase Primavera 2015, son informales, pueden contener errores o imprecisiones y s´olo las he subido para facilitar el estudio a los alumnos de este curso. Por favor no difundir! Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 2 / 250 Contenidos Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 3 / 250 Clase 1: ¿Qu´ e es estad´ısitica? Clase 1: ¿Qu´e es estad´ısitica? Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 4 / 250 Clase 1: ¿Qu´ e es estad´ısitica? Ejemplos cotidianos Encuestas elecciones → predecir resultados Muestreos consumidores → predecir preferencias Experimentos cl´ınicos → determinar efectos de medicamentos ´Indices econ´omicos → predecir futuro econom´ıa Variables clim´aticas → predecir si llueve ma˜ nana, etc. La estad´ıstica entrega la teor´ıa b´asica para intentar contestar a estas preguntas Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 5 / 250 y Est. La meta de la estad´ıstica es hacer una inferencia acerca de una poblaci´on. Todas implican que la estad´ıstica es una teor´ıa de la informaci´on cuyo objetivo es la inferencia El conjunto de los objetos de inter´es es la poblaci´ on. Universidad de Chile) Prob. A partir de ella inferimos caracter´ısticas de la poblaci´ on.Clase 1: ¿Qu´ e es estad´ısitica? Definici´on/objetivos Varias definiciones. Para conocer con absoluta certeza una caracter´ıstica tendr´ıamos que mirar toda la poblaci´on → generalmente es imposible! Seleccionamos un subconjunto de la poblaci´ on: la muestra. Medida de bondad: ¿Cu´an buena es mi predicci´ on? → probabilidad de que mi estimaci´on sea cercana a la realidad. con base en informaci´on contenida en una muestra de esa poblaci´on y dar una medida de bondad asociada para la inferencia. 6 / 250 . Vicente Acu˜ na (CMM. de modo que la altura del rectángu sea proporcional a la fracción del número total de mediciones que caen en cada celda. 2. Las frecuencias relativas (fracción del número total de mediciones escogidos al azar: calculadas para cada intervalo. rango que contenga todos losdevalores. 2.65 2. 2. 2.6.2 . frecuencia relativa → histograma Aun cuando son arbitrarias.2. Esto es porque la selección d estos elementos está un poco a discreción de la persona que intervenga en la construcción.1. ca de todo conjunto de las diez mediciones. Una población individual (o cualquier conjunto de mediciones) puede estar caracterizad por una distribución de frecuencia relativa. y Est. 2.9.6.2.el2. Po Queremos estimar el peso total de los 500 salmones en una ejemplo. 2. 2.7. Se construye un rectángulo sobre cada intervalo. para caracterizar las diez mediciones 2.1.dependientes. 2.4. piscicultura.05.3.05 Eje 7 / 250 . 2.7. 2.4.4.1 Histograma de frecuencia relativa Frecuencia relativa . Observe que la figura da una cla descripción gráfi2.2 unidades comenzando con 2.05 2. que puede estar representada por un histograma d frecuencia relativa. lo dividimos en que 5 se Los puntos de subdivisión del eje medición deben escogerse de modo Clase 1: ¿Qu´ e es en estad´ independientes la ısitica? distribución Caracterizando gr´aficamente un cjto.1. de mediciones intervalos del mismo largo y contamos cu´antos datos caen en cada uno. Universidad de Chile) 2. anchos o ubicacio Una manera r´anes pida de caracterizar una muestra → distribuci´ on de de los intervalos empleados para construir un histograma. unas cuantas guías pueden ser muy útiles para seleccionar lo Escogemos un intervalos. F I G U R A 1. 2. 2.25 2.85 3. se muestran en la Figura 1. Tenemos los pesos de unaenmuestra ejemplares podríamos dividir el eje de medición intervalos dede igual10 ancho (por ejemplo . 2. por tanto.3 . Se construye una gráfica al subdividir el eje de medición en intervalos de igu ancho.5. se convierte en un deseo para determinar el efecto de las variable conceptual de mediciones de población. 2. Observe que no hemos dado reglas precisas para seleccionar el número.6.6 y 2.4. 2.3.45 Prob.1 0 Vicente Acu˜ na (CMM. 2.5. 2. 6.6 2. 2. 2. 8 / 250 .1.7 2. breaks=seq(2.9 > hist(datos. 2.Clase 1: ¿Qu´ e es estad´ısitica? Histograma en R project > datos <. 2. y Est.2 2.5.4 2.6.4. 2.c(2. 2.05.3.0.1 2.05. breaks=20.9 > hist(datos) > hist(datos.4 2. col=7) Vicente Acu˜ na (CMM.6 2.1 > max(datos) [1] 2. 2. 2.3.2).2.5 2. Universidad de Chile) Prob. 2. col=7) > min(datos) [1] 2.3 2.4.9) > datos [1] 2.7. 2.9) resol <.1 # Ultima cifra significativa bar <. 2. y Est. Probar distintos valores! limites <.4. 2.axes=FALSE.at=limites) axis(2) Vicente Acu˜ na (CMM. 2. 2.seq(min(datos)-0.bar) h=hist(datos. 2.1. breaks=limites.6.col=7) axis(1.7. 9 / 250 . 2.0.5*resol.6. 2.c(2. datos <.0. 2.5.3.2 # Ancho de barra.max(datos)+bar.Clase 1: ¿Qu´ e es estad´ısitica? Histograma en R project Una versi´on m´as sofisticada que especifica los l´ımites de las barras y los ejes. Universidad de Chile) Prob.4.2. runif(10000.Clase 1: ¿Qu´ e es estad´ısitica? Histograma en R project Hacer histogramas de: > x <. y Est.rbinom(n=10000. m=1.prob=1/4) > z <. size=20. 10 / 250 .5. sd=1) > y <.rnorm(n=50000.9) Vicente Acu˜ na (CMM. Universidad de Chile) Prob. 2 . unas cuantas guías pueden ser muy útiles para seleccionar l intervalos.65 2. ¿cu´al es la probabilidad que est´e entre 2. ¿cu´al es la probabilidad que est´e entre 2. Los puntos de subdivisión del eje de medición deben escogerse de modo que s ClaseAun 1: ¿Qu´ e es estad´ ısitica? cuando son arbitrarias.05 Eje de medición Si escogemos un dato al azar. Universidad de Chile) Prob.45 2.1 0 2.05 2.25 2. y Est.indd 4 Vicente Acu˜ na (CMM.5 W-cap-01.85 3. podemos suponer 0.3 .5 (la mitad de los valores est´an ah´ı) Si hacemos una nueva medici´ on. 11 / 250 2 .estos elementos está un poco a discreción de la persona que intervenga en la construcción.05 y 2. Interpretaci´on probabilistica F I G U R A 1.45? → 0.1 Histograma de frecuencia relativa Frecuencia relativa .05 y 2.45? → Si no sabemos nada sobre el origen de los datos. el área bajo el histograma de la Figura 1. Vicente Acu˜ na (CMM. Es claro que esta interpretación se la distribución de cualquier conjunto de mediciones.2 Distribución de frecuencia relativa Frecuencia relativa 0 2.2 da la distribución de frecuencia relativa de utilidades llones de dólares) para una población conceptual de respuestas de utilidades para co Interpretaci´on probabilistica Supongamos que tenemos la distribuci´ on de frecuencias relativas de los pesos de toda la poblaci´on de salmones de la piscicultura F I G U R A 1. y Est.45? W-cap-01. 12 / 250 .05 ¿cu´al es la probabilidad que un salm´ on escogido al azar est´e entre 2.05 y 2.5 porque la mitad de las mediciones caen en este interv manera correspondiente.85 3. Universidad de Chile) Prob.05 2.45 es .45 es la mitad del área total bajo el histograma.45 2.1 sobre el intervalo a 2. es decir.65 2. una población o una mu Suponga que la Figura 1.Clase 1: ¿Qu´ ede es 2.05 estad´ısitica? el intervalo a 2.25 2.indd 5 → es la fracci´on del ´area bajo la curva entre los valores sobre el area total. ym de una poblaci´on finita de tama˜ no m podr´ıamos definir la “verdadera media” como m µ= 1 X yi . . . . . y2 . yn est´a dada por n y= 1X yi . . . Universidad de Chile) Prob. 13 / 250 . Vicente Acu˜ na (CMM. . m i=1 Es decir que y es la media muestral y µ es la media poblacional. y2 . Esta u ´ltima en general no la podemos medir: es una constante desconocida que podemos estimar calculando y a partir de una muestra. n i=1 Si pudi´eramos conocer todos los valores y1 . . y Est.Clase 1: ¿Qu´ e es estad´ısitica? Medida de tendencia central: la media Otras herramientas para describir nuestro set de datos: Definition La media de una muestra de n datos y1 . Clase 1: ¿Qu´ e es estad´ısitica? Medidas de dispersi´on: varianza ¿Cu´an alejados est´an los valores de mi set de datos de su centro? Definition La varianza de una muestra de mediciones y1 . ym . y2 . Nuevamente. . podr´ıamos calcular σ 2 la varianza poblacional: m 1 X 2 σ = (yi − µ)2 m i=1 Vicente Acu˜ na (CMM. . yn est´a dada por n sn2 1X = (yi − y )2 n i=1 Es decir que la varianza muestral sn2 es el promedio del cuadrado de las distancias de los valores a la media muestral. y2 . 14 / 250 . . . y Est. . . . si conoci´eramos el valor de todos los elementos de una poblaci´on finita y1 . . Universidad de Chile) Prob. 15 / 250 . Vicente Acu˜ na (CMM. M´as adelante veremos que modificando levemente el denominador de 1 Pn 2 la definici´on de varianza muestral a sn−1 = n−1 i=1 (yi − y )2 obtendremos una estimaci´ on mejor de σ 2 . la varianza muestral sn2 nos sirve como un estimador del valor de σ 2 . y Est. Universidad de Chile) Prob.Clase 1: ¿Qu´ e es estad´ısitica? Medidas de dispersi´on: varianza varianza poblacional (para poblaci´ on finita de tama˜ no m) : m σ2 = 1 X (yi − µ)2 m i=1 varianza muestral (para muestra de tama˜ no n): n sn2 1X = (yi − y )2 n i=1 Como en general el valor de la varianza poblacional σ 2 es desconocido. Universidad de Chile) Prob.Clase 1: ¿Qu´ e es estad´ısitica? Medidas de dispersi´on: desviaci´on est´andar 2 Las definiciones de sn2 . podemos preferir la desviaci´on est´andar: Definition Si s 2 es la varianza de una muestra de mediciones. sn−1 y de la varianza poblacional σ 2 resultan ser muy manejables matem´aticamente. Vicente Acu˜ na (CMM. para una interpretaci´on m´as f´acil y directa de la dispersi´ on. √ s = s2 La correspondiente desviaci´ on est´ andar poblacional se denota por √ σ = σ2. y Est. 16 / 250 . Sin embargo. es decir. definimos la desviaci´on est´andar de la muestra como la ra´ız positiva de su varianza. Clase 1: ¿Qu´ e es estad´ısitica? Medidas de dispersi´on: desviaci´on est´andar F I G U R A 1.. una distribu Vicente Acu˜ na (CMM. aproximadamente 68 % de las mediciones. emp´ ırica: de un conjunto de mediciones. las probabilidades cadas en la regla empíric normal la Figura 1.2. se pueden hacer enunciados de prob µ ± σ contienemediciones.4. El uso de la regla empírica se ilustra mediante el siguiente ejemp que las calificaciones en un examen vocacional aplicado a todos los e de preparatoria en un estado tienen. 17 / 250 . µ ± 3σ contiene casi mostrada todas lasenmediciones.4 Curva normal 68% Cuando los datos tienen forma de campana o normal (lo que sucede muy a Como se mencionó en la Sección una vez que se conozca la d menudo) tenemos la siguiente regla 1. En aproximadamente forma análoga. aproximadamente. y Est. Estas probabilidades se mostraron como áreas bajo un h µ ± 2σ contiene 95 % de lasespecifi mediciones. Universidad de Chile) Prob. En realidad creemos que va a ganar porque si no. Universidad de Chile) Prob. queremos saber si el candidato Dr. ¿Por qu´e? No creemos que la fracci´ on de la poblaci´ on debe ser exactamente igual a la muestra. Tomamos una muestra de 20 votantes al azar: 19 votar´an por Ortega. y Est. 18 / 250 . Tampoco que es imposible que Ortega pierda. Alberto Ortega va a ganar la elecci´ on a alcalde. Y si fueran 12 de 20 los que votan por Ortega? ¿Pensar´ıamos que es seguro que gana? ¿Podr´ıamos predecir con seguridad el resultado? Vicente Acu˜ na (CMM. Intuitivamente inferimos que Ortega ganar´a. ser´ıa muy improbable que 19 de 20 personas al azar votaran por ´el.Clase 1: ¿Qu´ e es estad´ısitica? Inferir a partir de una muestra Ejemplo: en una elecci´ on. y Est. Vicente Acu˜ na (CMM.Clase 1: ¿Qu´ e es estad´ısitica? Inferir a partir de una muestra Otro ejemplo: queremos verificar que un dado no est´a cargado. sino algo cercano. Universidad de Chile) Prob. Algo que sea probable suponiendo que el dado es equilibrado. Si en 27 lanzamientos de los 30 obtenemos el mismo valor. ¿Cu´ando estimamos que est´a equilibrado y cuando que no?. claramente supondremos que est´a cargado. Es decir. poco probable si suponemos un dado equilibrado. para creer que est´a equilibrado. 19 / 250 . Dependiendo de los resultados podemos confiar o no en la hip´otesis. pues es un resultado extremo. Pero obviamente no necesitamos obtener exactamente 5 resultados para cada valor. que la “poblaci´ on de resultados” est´a igual distribuida entre los resultados (1/6 de los resultados para cada uno) Tomamos una “muestra” de 30 lanzamientos. Universidad de Chile) 2 3 Prob.Clase 1: ¿Qu´ e es estad´ısitica? Inferir a partir de una muestra Si el dado est´a equilibrado entonces tenemos el modelo probabil´ıstico del gr´afico.1 stribución de encia para la ión generada por un dado balanceado Frecuencia relativa 1 6 1 Vicente Acu˜ na (CMM. nos interesa la probabilidad de obtener una muestra dada. para poder pítulo 2 calcular Probabilidad confirmar o rechazar la hip´ otesis. Esa es nuestra hip´ otesis. y Est. 4 5 6 Número de la cara superior del dado 20 / 250 . Bajo este supuesto. G U R A 2. Vicente Acu˜ na (CMM. Estos modelos te´oricos son modelos idealizados. 21 / 250 . el estudio de la teor´ıa de probabilidad nos dar´a la base para la inferencia estad´ıstica. Estaremos la mitad del curso estudiando estos modelos. Universidad de Chile) Prob. y Est. estudiaremos los modelos te´oricos que pueden generar los datos de la poblaci´on. Al estudio de estos modelos lo llamamos la teor´ıa de la probabilidad (o simplemente “Probabilidades”).Clase 1: ¿Qu´ e es estad´ısitica? Modelos te´oricos Antes de hacer inferencias a partir de una muestra. As´ı. y Est.Clase 2: Probabilidades caso discreto Clase 2: Probabilidades caso discreto Vicente Acu˜ na (CMM. 22 / 250 . Universidad de Chile) Prob. lanzar un dado) como incontrolables (ej: cantidad agua ca´ıda un d´ıa dado. Pueden ser tanto controlables (ej: tipo laboratorio. aunque consista en repetir una acci´ on. Siempre vamos a preferir trabajar con un s´ olo experimento.Clase 2: Probabilidades caso discreto Experimento y eventos Empezaremos con algunas definiciones Definition Un experimento ε es el proceso por medio del cual se hace una observaci´on. ε: “lanzar una moneda 5 veces” Vicente Acu˜ na (CMM. Universidad de Chile) Prob. ) Al realizar el experimento puede terminar en diferentes resultados. y Est. 23 / 250 . Ejemplos: ε: “lanzar un dado” ε: “escoger 10 salmones”. y Est. Los puntos muestrales del espacio muestral deben ser diferentes. un punto muestral es un resultado individual del experimento. Definition El espacio muestral asociado a un experimento es el conjunto formado por todos los posibles puntos muestrales. mutuamente exclusivos y colectivamente exhaustivos. Vicente Acu˜ na (CMM.Clase 2: Probabilidades caso discreto Punto muestral y espacio muestral Definition Dado un experimento. Universidad de Chile) Prob. De modo que cuando el experimento es realizado se obtendr´a uno y s´olo uno de los puntos muestrales. Se denota por S (o tambi´en Ω). Se omiten detalles irrelevantes para el estudio: “donde cay´o el dado”. 24 / 250 . . 2 bacterias. y Est. . 3 bacterias. experimento: tirar un dado y observar resultado.Clase 2: Probabilidades caso discreto Espacio muestral discreto Definition El espacio muestral discreto es aquel que est´a formado ya sea por un n´ umero finito o numerable de puntos muestrales distintos. 25 / 250 . . . . Observar un 6} experimento: n´ umero de bacterias en un cultivo luego de 3 d´ıas. . Universidad de Chile) Prob. S = {1 bactera. Observar un 2. S = { Observar un 1. .} Vicente Acu˜ na (CMM. y Est. Universidad de Chile) Prob.Clase 2: Probabilidades caso discreto Eventos simples Definition Un evento simple es un conjunto que contiene un y s´ olo un punto muestral (i. Experimento: tirar un dado y observar resultado. Eventos simples: E1 = {observar un 1} E2 = {observar un 2} E3 = {observar un 3} E4 = {observar un 4} E5 = {observar un 5} E6 = {observar un 6} Vicente Acu˜ na (CMM. 26 / 250 . es un singleton).e. es decir. cualquier subconjunto de S. Universidad de Chile) Prob. observar un 4} = E1 ∪ E2 ∪ E3 ∪ E4 Vicente Acu˜ na (CMM. A : observar un n´ umero impar.Clase 2: Probabilidades caso discreto Eventos Definition Un evento en un espacio muestral discreto S es un conjunto de puntos muestrales. observar un 3. B = {observar un 1. y Est. A = {observar un 1. ε: tirar un dado y observar resultado. observar un 5} = E1 ∪ E3 ∪ E5 B : observar un n´ umero menor que 5. observar un 3. observar un 2. 27 / 250 . la uni´on (disjunta) de eventos simples. E 4 } o B = E1 ∪ E2 ∪ E3 ∪ E4. E 3 . Todo evento. 28 / 250 .8 Diagrama de Venn para el experimento de lanzar un dado S E6 E1 A E3 B E5 E4 E2 si y sólo si ocurre uno de los eventos simples E1. La regla para determinar cuáles eventos simples incluir en un evento compuesto es muy p sa. Del mismo modo. F I G U R A 2. en un espacio muestral discreto. Un evento simple Ei se incluye en el evento A si y sólo si A ocurre siempre que ocurra Vicente Acu˜ na (CMM. Así. E 5 } o A = E 1 ∪ E 3 ∪ E 5 .Clase 2: Probabilidades caso discreto Podemos ver los eventos en un diagrama de Venn. E3 o E5. puede descomponerse como A = {E 1 . Por simplicidad los 2. Universidad de Chile) Prob. B (observar un número menor que 5) se puede escribir como B = {E 1 . E 3 . E 2 . y Est.4 Un modelo probabilístico para un experimento: el caso discreto eventos simples (singletons) son representados por puntos. y Est. Vicente Acu˜ na (CMM. . Evento B: el n´ umero de bacterias es mayor que 200. . . Universidad de Chile) Prob. hay 202 bacterias. hay 203 bacterias.Clase 2: Probabilidades caso discreto Eventos Ejemplo infinito numerable: ε: observar n´ umero de bacterias en un cultivo luego de 3 horas. 29 / 250 . B = {hay 201 bacterias.} B= ∞ [ Ei i=201 donde Ei es el evento simple Ei : hay i bacterias. : Seuno obtiene un simples n´ umero si y sóloB si ocurre de los eventos E1. E5} o A = E1 ∪ E3 ∪ E5.5 Vicente Acu˜ na (CMM. cualquier subconjunto de S. Del mismo modo. B = E1 ∪ E2 ∪ E3 ∪ E4. EE43 . Universidad de Chile) Un evento en un espacio muestral discreto S es un conjunto de puntos muestrales. Un evento Ei se incluye en el A siEy sólo El evento “no se obtiene unsimple impar” es A =evento E2 ∪ . E3 menor o E5.Clase 2: Probabilidades caso discreto Interpretaci´on eventos uni´on. siempre que ocurra 4 ∪ siEA6ocurre D E FI NIC IÓN 2. 30 / 250 . A = E 1 ∪ E3 ∪ E5 B = E1 ∪ E2 ∪AE=3{E∪1 . E 2 . La regla para determinar cuáles eventos simples incluir en un evento compuesto es muy p sa. Así. y Est. e decir. E 3 .4 F I G U R A 2. E 4 } o A ∪ B = E1 ∪ E2 ∪ E3 ∪ E4 ∪ E 5 . Prob. y B (observar número escribir como El evento “se obtiene impar o menor que 5” es B = {E 1 . intersecci´on y complemento 2.8 Diagrama de Venn para el experimento de lanzar un dado Un modelo probabilístico para un experimento: el caso discreto S E6 E1 A E3 B E5 E4 E2 A : Se obtiene impar. El evento “se obtienen impar menorunque 5”menor es que A 5) ∩seBpuede =E 1∪E 3. que 5. Universidad de Chile) Prob. 31 / 250 . y Est.Clase 2: Probabilidades caso discreto Recuerdo ´algebra Leyes distributivas A ∩ (B ∪ C ) = (A ∩ B) ∪ (A ∩ C ) A ∪ (B ∩ C ) = (A ∪ B) ∩ (A ∪ C ) Leyes de DeMorgan (A ∩ B) = A ∪ B (A ∪ B) = A ∩ B Vicente Acu˜ na (CMM. 32 / 250 . . llamado probabilidad de A. ∪ Ak ) = ki=1 P(Ai ). forman una secuencia de eventos disjuntos dos a dos (es decir. A todo evento A en S le asignamos un n´ umero. i=1 Ojo: A3 incluye tambi´en la uni´ on finita de conjuntos disjuntos dos a dos: P P(A1 ∪ A2 ∪ . Ai ∩ Aj = ∅ si i 6= j). A3 .) = P(Ai ). . . de modo que se cumplen los siguientes axiomas: A1: P(A) ≥ 0 A2: P(S) = 1 A3: Si A1 . Universidad de Chile) Prob.Clase 2: Probabilidades caso discreto Modelo probabil´ıstico Definition Sea S un espacio muestral asociado a un experimento. entonces ∞ X P(A1 ∪ A2 ∪ A3 ∪ . P(A). . . . A2 . Vicente Acu˜ na (CMM. y Est. . Universidad de Chile) Prob. El modelo probabil´ıstico elegido va a depender de las suposiciones (razonables!) que hagamos. P(E2 ) = . Ej: si creemos que el dado no est´a cargado entonces P(Ei ) = 61 . P(E6 ) = 15 15 15 si suponemos que el dado est´a cargado al uno. Este valor debe ser coherente con lo que creemos ser´ıa la frecuencia relativa al repetir el evento muchas veces. 3 15 15 1 1 1 P(E4 ) = .Clase 2: Probabilidades caso discreto Modelo probabil´ıstico Para definir un modelo probabil´ıstico para un experimento con un espacio muestral discreto basta con asignar una probabilidad num´erica a cada evento simple Ei del espacio muestral S. Los axiomas permiten otras asignaciones. P(E5 ) = . 33 / 250 . y Est. Podr´ıamos asignar : 1 1 2 P(E1 ) = . Vicente Acu˜ na (CMM. P(E3 ) = . Indicar todos los eventos simples asociados con el experimento asegur´andose que no se pueden descomponer. Asignar probabilidades razonables a los puntos muestrales en S. 5. Vicente Acu˜ na (CMM. 2. 34 / 250 . Definir el evento de inter´es. Esto define el espacio muestral S. como un conjunto espec´ıfico de puntos muestrales. y Est. Encontrar P(A) al sumar las probabilidades de los puntos muestrales en A.Clase 2: Probabilidades caso discreto As´ı si nuestro espacio es finito o numerable. 3. una manera para hallar la probabilidad de un evento es la siguiente: 1. A. Universidad de Chile) Prob. 4. asegur´andose de que P(Ei ) ≥ 0 y P(S) = 1. Definir el experimento y determinar con claridad c´ omo describir un evento simple. y Est. Para ello veremos algunas herramientas de conteo.Clase 2: Probabilidades caso discreto Este m´etodo puede ser u ´til en general pero bastante limitado si tenemos grandes cantidades de posibles resultados. el c´alculo de la probabilidad de un evento se reduce a contar cu´antos eventos simples contiene. 35 / 250 . Vicente Acu˜ na (CMM. Universidad de Chile) Prob. Veremos que cuando todos los puntos muestrales de S tienen la misma probabilidad de ocurrir. 6 % tienen defectos s´olo en bujes y 2 % tienen defectos en ejes y bujes. ¿Cu´al es la probabilidad de que el conjunto tenga (a) un buje defectuoso? (b) un eje o buje defectuoso? (c) exactamente uno de los dos tipos de defecto? (d) ning´ un tipo de defecto? Sol: Pizarra Vicente Acu˜ na (CMM.17) Los trenes de aterrizaje hidr´aulicos que salen de una planta de reparaci´on de aviones se inspeccionan para ver si tienen defectos. Uno de los trenes hidr´aulicos se selecciona al azar. Registros hist´oricos indican que 8 % tienen defectos s´ olo en ejes. y Est. 36 / 250 .Clase 2: Probabilidades caso discreto Ejercicios (Wackerly 2. Universidad de Chile) Prob. Vicente Acu˜ na (CMM. P(B). Indique los puntos muestrales en A y B. Universidad de Chile) Prob. P(A ∪ B) y P(A ∪ B). (¿Los puntos muestrales son igualmente probables?) (c) Denote con A el evento de que exactamente se vea una cara y con B el evento de que se vea al menos una cara.Clase 2: Probabilidades caso discreto Ejercicios (Wackerly 2.18) Suponga que dos monedas balanceadas se tiran al aire y que se observan las caras superiores. (b) Asigne una probabilidad razonable a cada punto muestral. y Est. (a) Indique los puntos muestrales para este experimento. P(A ∩ B). encuentre P(A). 37 / 250 . (d) De su respuesta al inciso (c). Clase 3: Espacio muestral equiprobable Clase 3: Espacio muestral equiprobable Vicente Acu˜ na (CMM. y Est. Universidad de Chile) Prob. 38 / 250 . Clase 3: Espacio muestral equiprobable Espacios equiprobables Definition Un espacio muestral finito se denomina equiprobable si todos los eventos simples (puntos muestrales) tienen la misma probabilidad de ocurrir. Cuando tenemos un espacio equiprobable. entonces para cualquier evento A tenemos P(A) = n´ umero de puntos muestrales en A |A| = n´ umero de puntos muestrales en S |S| Vicente Acu˜ na (CMM. Universidad de Chile) Prob. 39 / 250 . y Est. e. Cada grupo tiene exactamente 6 resultados (dado por el resultado del segundo dado) Vicente Acu˜ na (CMM. Dividimos los resultados v´alidos de acuerdo a lo que sale en el primer dado → 6 grupos. Universidad de Chile) Prob. que cumplan alguna propiedad). y Est. 40 / 250 .Clase 3: Espacio muestral equiprobable Herramientas de conteo: Principio b´asico Theorem (Principio b´asico de conteo) Sea un experimento del que queremos contar un n´ umero de resultados v´alidos (i. Dem: ´arbol (pizarra) Parece bastante obvio pero muy u ´til si entendemos como se ocupa: ej: lanzar sucesivamente dos dados. Si los resultados v´alidos se pueden dividir en una partici´ on de n conjuntos cada uno conteniendo exactamente m resultados. entonces el proceso tiene en total n × m resultados diferentes. Vicente Acu˜ na (CMM. 41 / 250 .e. Universidad de Chile) Prob. y Est. Si los resultados v´alidos pueden ser generados por un proceso de dos etapas tales que: la primera etapa separa los resultados posibles en n clases (que pueden cumplir la propiedad deseada).Clase 3: Espacio muestral equiprobable Herramientas de conteo: Principio b´asico Otra manera de expresarlo: Theorem (Principio b´asico de conteo) Sea un experimento del que queremos contar un n´ umero de resultados v´alidos (i. cada clase definida en la primera etapa tiene m valores posibles que cumplen la propiedad. que cumplan alguna propiedad). Entonces el n´ umero de resultados diferentes que cumplen la propiedad es n × m. 2) (2.•) Etapa 2 (1. fijamos el valor del segundo dado).4) (3.•) (4. Universidad de Chile) Prob. 42 / 250 . fijamos el valor del primer dado).e.Clase 3: Espacio muestral equiprobable Herramientas de conteo: Principio b´asico lanzar dos dados de cuatro lados: Etapa 1 de clasificaci´ on: de acuerdo al resultado del primer dado (i.4) (2.2) (1.3) (1. y Est.•) (2. Etapa 2 de clasificaci´ on: de acuerdo al resultado del segundo dado (i.1) (2.1) (1.e.•) → 4×4 Vicente Acu˜ na (CMM. Etapa 1 (1.3) (2. 4) (2.2) (1.•) Etapa 2 (1.3) (2.•) (4.•) → 4×3 Vicente Acu˜ na (CMM. 43 / 250 . Universidad de Chile) Prob. Etapa 2 de clasificaci´ on: de acuerdo al resultado del segundo dado. Etapa 1 de clasificaci´ on: de acuerdo al resultado del primer dado.1) (2.•) (2. y Est.3) (1.Clase 3: Espacio muestral equiprobable Herramientas de conteo: Principio b´asico lanzar dos dados de cuatro lados y que salgan resultados diferentes en cada uno (propiedad).4) (3. Etapa 1 (1. y Est.Clase 3: Espacio muestral equiprobable Herramientas de conteo: Principio b´asico Probabilidad del evento A: lanzar dos dados de cuatro lados y que salgan resultados diferentes en cada uno (propiedad). 44 / 250 . Casos totales: 4 × 4 Casos favorables: 4 × 3 P(A) = 4×3 4×4 Vicente Acu˜ na (CMM. Universidad de Chile) Prob. hay 3 valores posibles) → 3×3=9 lanzar sucesivamente dos dados y que salgan consecutivos ordenados resultados v´alidos: (1. (6. un valor posible) → 5×1=5 Vicente Acu˜ na (CMM. . . 2). . 2). 3). y Est. Universidad de Chile) Prob. 6) Etapa 1: fijamos primer dado (5 valores posibles) Etapa 2: fijamos segundo dado (dada etapa 1. . 45 / 250 . (2. 4). . (5. 6) generamos los resultados en dos etapas: Etapa 1: fijamos primer dado (3 valores posibles) Etapa 2: fijamos segundo dado (dada etapa 1. . (2. .Clase 3: Espacio muestral equiprobable Herramientas de conteo: Principio b´asico Ejemplos simples de conteo de casos favorables: lanzar sucesivamente dos dados y que salgan dos pares resultados v´alidos: (2. . → .. → 4 × 51 sacar en orden dos cartas de una baraja (sin reposici´on) y que la segunda carta sea un rey.. Universidad de Chile) Prob. 46 / 250 .Clase 3: Espacio muestral equiprobable Herramientas de conteo: Principio b´asico M´as ejemplos simples: sacar en orden dos cartas de una baraja de 52 cartas (con reposici´on) → 52 × 52 sacar en orden dos cartas de una baraja (sin reposici´on) → 52 × 51 sacar en orden dos cartas de una baraja (sin reposici´on) y que la primera carta sea un rey. y Est. Vicente Acu˜ na (CMM. Etapa 2: fijar la primera carta: 51 resultados v´alidos posibles (todas salvo la carta fijada en la primera etapa) → 4 × 51 (Hacer el ´arbol!) Vicente Acu˜ na (CMM. Si defini´eramos la Etapa 1 como fijar la primera carta. entonces no se cumple que el n´ umero de resultados v´alidos de cada grupo definido por la primera etapa sea el mismo (pues depende si en la primera fijo un rey) → 52×? Mejor. 47 / 250 . definimos. y Est. Etapa 1: fijar la segunda carta: → 4 resultados v´alidos posibles. Universidad de Chile) Prob.Clase 3: Espacio muestral equiprobable Herramientas de conteo: Principio b´asico Ojo! no confundir: las etapas elegidas para clasificar los resultados v´alidos no tienen por qu´e ser las etapas del experimento: Ej: sacar dos cartas de una baraja (sin reposici´ on) y que la primera carta sea cualquiera y la segunda carta sea un rey. y la Etapa 2 como fijar la segunda. el orden importa) 10 veces: → 2 × 2 × . y Est. × 2 = 210 Elegir una secuencia de 3 d´ıgitos tal que ninguno se repite → 10 × 9 × 8 Elegir una secuencia de 3 d´ıgitos tal que dos consecutivos son siempre diferentes → 10 × 9 × 9 Lo importante es que la cantidad de resultados v´alidos posibles en cada etapa de clasificaci´on no dependa de las etapas anteriores. Universidad de Chile) Prob. . .e.Clase 3: Espacio muestral equiprobable Herramientas de conteo: Principio b´asico Es generalizable a m´as etapas. 48 / 250 . Ejemplos simples: Lanzar una moneda sucesivamente (i. Vicente Acu˜ na (CMM. Universidad de Chile) Prob.Clase 3: Espacio muestral equiprobable Herramientas de conteo: Principio b´asico Las etapas de clasificaci´on no necesariamente fijan los valores. Vicente Acu˜ na (CMM. Ejemplo m´as complejo: Sacar secuencialmente (el orden importa) 3 cartas en orden de un mazo sin reposici´on y que salga un par y una carta distinta: Primera etapa de clasificaci´ on: Fijar qu´e cartas contienen el par (3 grupos: 1era y 2da / 1era y 3era / 2da y 3era) Segunda etapa: Fijar el n´ umero en el par (13 posibles) Tercera etapa: Fijar el n´ umero en la carta distinta (12 posibles) → 3 × 13 × 12 Par asegurarse que la clasificaci´ on est´a bien. 49 / 250 . verificar que cualquier resultado v´alido posible aparece una y s´ olo una vez en las hojas del ´arbol y que la cantidad de grupos posibles en cada etapa de clasificaci´on no dependa de las etapas anteriores. y Est. Separamos dos casos: Caso A: primera carta es un mono de diamantes (3 valores posibles) → Etapa 2 para caso A: fijar segunda carta (12 valores posibles) Caso B: primera carta es un mono pero no de diamantes (9 valores) → Etapa 2 para caso B: fijar segunda carta (13 valores posibles) Total → 3 × 12 + 9 × 13 Vicente Acu˜ na (CMM.Q.Clase 3: Espacio muestral equiprobable Herramientas de conteo: Principio b´asico ¿Y si no puedo separar en grupos del mismo tama˜ no?: Ej: Sacar sucesivamente dos cartas (sin reposici´ on) y que el primero sea un mono (J. Podemos separar por casos y sumar: Etapa 1: fijar primera carta. No es claro como clasificar en etapas de manera que el n´ umero de resultados de la segunda etapa no dependa de los resultados de la primera. 50 / 250 . Universidad de Chile) Prob.K) y el segundo un diamante. y Est. no tiene por que salir a la primera idea. 51 / 250 . En general no es f´acil! Vicente Acu˜ na (CMM. Luego los favorables.Clase 3: Espacio muestral equiprobable Herramientas de conteo: Principio b´asico Recomendaci´ on 1: Siempre comenzar pensando en como se codifica un resultado particular (ej: vector de dos componentes) y calcular primero los resultados totales. Universidad de Chile) Prob. Recomendaci´ on 2: Hacer el ´arbol (o un esquema de ´el) y verificar que: (1) Todos los valores v´alidos est´a en alguna hoja y (2) Ning´ un resultado posible est´a representado en m´as de una hoja. Recomendaci´ on 3: Hacer diferentes intentos. y Est. Vicente Acu˜ na (CMM. debemos tener en cuenta si hay elementos distinguibles o indistinguibles. azul y rojo) sin reposici´ on: → 3 × 2 = 6 maneras ¿Qu´e pasa si hay bolitas del mismo color (indistinguibles)? Ej: Si hay dos blancas y una azul: {B. B}. {B. y Est.Clase 3: Espacio muestral equiprobable Distinguible vs indistinguible Cuando contamos resultados. Universidad de Chile) Prob. 52 / 250 . {A. Ej: Extraer en orden dos bolitas de una urna conteniendo 3 bolitas de diferente color (blanco. B} → 3 maneras M´as adelante veremos como resolver este caso. A}. 53 / 250 . Universidad de Chile) Prob. Vicente Acu˜ na (CMM. . y Est. . (n − r + 1) = n! (n − r )! Dem: Usando el principio b´asico clasificamos los resultados v´alidos fijando cada posici´ on.Clase 3: Espacio muestral equiprobable Ordenando r objetos de n Theorem El n´ umero de maneras de ocupar r posiciones diferentes utilizando n objetos distinguibles (con r ≤ n) es n(n − 1)(n − 2) . 54 / 250 . → 20 · 19 · 18 · 17 · 16 = 20! 15! De cuantas maneras podemos ordenar 4 bandas en un recital → 4·3·2·1= 4! 0! = 24 De cuantas maneras podemos escoger sucesivamente r bolitas desde n! una urna conteniendo n bolitas todas diferentes → (n−r )! Vicente Acu˜ na (CMM. Universidad de Chile) Prob.Clase 3: Espacio muestral equiprobable Ordenando r objetos de n Algunos ejemplos simples: De cuantas maneras se puede elegir una directiva de 5 cargos diferentes de un total de 20 personas. y Est. Clase 3: Espacio muestral equiprobable Ejemplo: cumplea˜nos (Wackerly 2. Si no se presta atenci´on a los a˜ nos bisiestos y se supone que hay s´ olo 365 cumplea˜ nos distintos posibles. y Est. ¿cu´al es la probabilidad de que cada persona de las 20 tenga un cumplea˜ nos diferente? Sol:Pizarra Vicente Acu˜ na (CMM.7) Considere un experimento que consiste en registrar el cumplea˜ nos para cada una de 20 personas seleccionadas al azar. 55 / 250 . encuentre el n´ umero de puntos del espacio muestral S para este experimento. Universidad de Chile) Prob. Si suponemos que cada uno de los posibles conjuntos de cumplea˜ nos es igualmente probable. el n´ umero de permutaciones de n objetos) es n(n − 1)(n − 2) .e.D. . 56 / 250 . . Universidad de Chile) Prob. 2 · 1 = n! Ej: De cuantas maneras puedo ordenar las letras A.Clase 3: Espacio muestral equiprobable Permutaciones Caso particular de Teorema anterior r = n: Corollary (Permutaci´on) El n´ umero de maneras de ordenar n objetos distinguibles (i.B.C.E: → 5! Vicente Acu˜ na (CMM. y Est. Universidad de Chile) Prob. y Est.Clase 4: Espacio muestral equiprobable II Clase 4: Espacio muestral equiprobable II Vicente Acu˜ na (CMM. 57 / 250 . Universidad de Chile) Prob. OOJ. En el ejemplo. OJO s´ olo 3 casos: OJO. 58 / 250 . cada palabra se cuenta exactamente dos veces (OJO aparece como O1 JO2 y O2 JO1 ). JOO Para analizar este caso podemos primero distinguir las letras de OJO como J. al distinguir. y Est.Clase 4: Espacio muestral equiprobable II Permutaciones n! es el n´ umero de permutaciones de n elementos distinguibles.O1 y O2 . ¿Qu´e pasa si hay elementos indistinguibles entre los n? No es lo mismo el n´ umero de secuencias diferentes de 3 letras que podemos hacer con la palabra AJO que con la palabra OJO: AJO → 3 × 2 × 1 = 6 casos. Vicente Acu˜ na (CMM. luego contar el total (3 × 2 × 1) y finalmente analizar cuantas veces aparece un resultado cuando volvemos a indistinguir. Clase 4: Espacio muestral equiprobable II Permutaciones con elementos indistinguibles Theorem El n´ umero de maneras de ordenar n objetos donde n1 son Pkindistinguibles. . . Universidad de Chile) Prob. 59 / 250 . n2 son indistinguibles. Dem: Primero distinguir y luego analizar repetidas. . Ejemplo: Cuantas arreglos de letras se pueden hacer con las letras de ABRACADABRA 11! 5!2!2!1!1! Vicente Acu˜ na (CMM. y nk son indistinguibles (con i=1 ni = n) es n! n1 !n2 ! . . y Est. nk ! . . cu´al es la probabilidad que a los cuatro les toque reportear? Sol: Propuesto. Es como ordenar las letras de la palabra RRRRRREEEEEDDDDDCCCC 20! |S| = 6!5!5!4! (b) Si todas las asignaciones son igualmente probables y entre los 20 periodistas hay cuatro amigos. Contar cuantos resultados tienen esta caracter´ıstica Vicente Acu˜ na (CMM. 5 editores. y Est. Hint: Suponer los amigos en las primeras cuatro posiciones y fijar 4 R’s ah´ı. ¿De cu´antas maneras se puede hacer esta asignaci´ on? Sol: Fijar las personas en una lista ordenada y repartir los 20 trabajos. Universidad de Chile) Prob.Clase 4: Espacio muestral equiprobable II Ejemplo (a) Se debe asignar a 20 periodistas a 4 trabajos diferentes: 6 reporteros. 60 / 250 . 5 diagramadores y 4 correctores. Universidad de Chile) Prob. . . nk respectivamente (donde Pk n = n) es i=1 i n! n1 !n2 ! . . 61 / 250 . y Est. .Clase 4: Espacio muestral equiprobable II Repartici´on en grupos de tama˜no fijo Del ejemplo visto conclu´ımos que la f´ ormula anterior tambi´en aplica a este caso: Corollary El n´ umero de maneras de repartir n objetos distinguibles en k grupos distinguibles de tama˜ nos fijos n1 . n2 . nk ! Vicente Acu˜ na (CMM. . . el n´ umero de subconjuntos de A de tama˜ no r es   n n! := r r !(n − r )! . y Est.Clase 4: Espacio muestral equiprobable II Combinaciones Theorem Dado un conjunto A de tama˜ no n. Ejemplo: Elegir un comit´e (sin cargos) de 5 personas de entre 20.  → 20 5 Vicente Acu˜ na (CMM. Aplicar resultado anterior. Dem: Considerar dos grupos de tama˜ no fijo: los que quedan dentro del subconjunto y los que quedan fuera. Universidad de Chile) Prob. 62 / 250 . y Est. Suponga que la empresa hace los pedidos en forma que permita a cada distribuidor tener igual probabilidad de obtener cualquier pedido y no hay restricci´on en el n´ umero de pedidos que se puedan colocar con cualquier distribuidor. obtenga exactamente k pedidos (k ≤ n). por ejemplo el distribuidor I . Sol: Pizarra Vicente Acu˜ na (CMM. Encuentre la probabilidad de que un distribuidor particular. 63 / 250 . Universidad de Chile) Prob.Clase 4: Espacio muestral equiprobable II Ejemplo Una empresa compra abastecimientos a M distribuidores y desea hacer n pedidos (n < M). independencia y otras propiedades Vicente Acu˜ na (CMM. condicional. y Est.Clase 5: Prob. independencia y otras propiedades Clase 5: Probabilidad condicional. 64 / 250 . Universidad de Chile) Prob. Universidad de Chile) Prob. ¿Qu´e sucede si suponemos que ha ca´ıdo impar? ¿Cambia nuestra noci´on de probabilidad de que salga 1? Vicente Acu˜ na (CMM. y Est. condicional. independencia y otras propiedades Probabilidad condicional Considere el ejemplo de lanzar un dado balanceado. La probabilidad de que salga un 1 es P(Ei ) = 16 . 65 / 250 .Clase 5: Prob. dado que un evento B ha ocurrido. condicional. y Est. 66 / 250 . Vicente Acu˜ na (CMM. P(A|B) = P(B) siempre que P(B) > 0. El s´ımbolo P(A|B) se lee “probabilidad de A dado B”. independencia y otras propiedades Probabilidad condicional Definition La probabilidad condicional de un evento A. es igual a P(A ∩ B) . Universidad de Chile) Prob.Clase 5: Prob. Clase 5: Prob. Consideremos los eventos A : “se obtiene un 1” y B: “se obtiene un n´ umero impar”. condicional. y Est. independencia y otras propiedades Probabilidad condicional Ejemplo: Considere el ejemplo de lanzar un dado balanceado. Universidad de Chile) Prob. Vicente Acu˜ na (CMM. La probabilidad de obtener un 1 dado que se obtiene impar es la probabilidad de A dado B: P(A|B) = P(A ∩ B) 1/6 1 = = P(B) 1/2 3 As´ı. si suponemos que ha ca´ıdo impar entonces la probabilidad de que salga uno es 1/3. 67 / 250 . Clase 5: Prob. Universidad de Chile) Prob. condicional. P(B|A) = P(B). y Est. independencia y otras propiedades Independencia de eventos ¿Qu´e pasa si la probabilidad de un evento no es afectada cuando suponemos la ocurrencia o no ocurrencia de otro evento? Tender´ıamos a calificar estos eventos como independientes Definition Se dice que dos eventos son independientes si cumple cualquiera de los siguientes casos (todos son equivalentes): P(A|B) = P(A). P(A ∩ B) = P(A)P(B) Si esto no sucede decimos que los sucesos son dependientes Vicente Acu˜ na (CMM. 68 / 250 . S. independencia y otras propiedades Independencia de eventos Ejemplo: Tirar una moneda no balanceada 5 veces (probabilidad de cara 0. Ai : sale cara en lanzamiento i P(Ai ) = 6/10 y P(Ai ) = 4/10 B : se obtienen exactamente dos caras. y Est. S) = A1 ∩ A2 ∩ A3 ∩ A4 ∩ A5 ∩ A6 Si suponemos .Clase 5: Prob. ¿Cual es la probabilidad de obtener exactamente 2 caras?. condicional. Universidad de Chile) Prob. razonablemente. P(B) =? Veamos la probabilidad de un evento simple en B: E1 = (C . que cada tirada Ai es independiente: 6 2 4 3 P(E1 ) = P(A1 )P(A2 )P(A3 )P(A4 )P(A5 )P(A6 ) = ( 10 ) ( 10 ) Todos los eventos simples en B tienen la misma probabilidad: 6 2 4 3 ( 10 ) ( 10 ) . S. C .  5! ¿Cu´antos eventos simples contiene B? → 2!3! = 52  6 2 4 3 Conclu´ımos P(B) = 52 ( 10 ) ( 10 ) Vicente Acu˜ na (CMM.6). 69 / 250 . Clase 5: Prob. 70 / 250 . Universidad de Chile) Prob. y Est. entonces P(A ∩ B) = P(A)P(B) Dem: De la definici´on de probabilidad condicional Vicente Acu˜ na (CMM. independencia y otras propiedades Probabilidad de la intersecci´on Theorem La probabilidad de la intersecci´ on de dos eventos A y B es P(A ∩ B) = P(A)P(B|A) = P(B)P(A|B) Si a A y B son independientes. condicional. 71 / 250 . ∩ Ak ) = P(A1 )P(A2 |A1 )P(A3 |A1 ∩ A2 ) . . . independencia y otras propiedades Probabilidad de la intersecci´on Se puede extender a intersecciones mayores: P(A ∩ B ∩ C ) = P(A)P(B|A)P(C |A ∩ B) En general: P(A1 ∩ A2 ∩ . . . y Est. . . Universidad de Chile) Prob. . condicional. . ∩ Ak−1 ) Vicente Acu˜ na (CMM. . P(Ak |A1 ∩ A2 ∩ .Clase 5: Prob. y Est. 72 / 250 . P(A ∩ B) = 0 y P(A ∪ B) = P(A) + P(B) Vicente Acu˜ na (CMM. condicional. independencia y otras propiedades Probabilidad de la uni´on Theorem La probabilidad de la uni´ on de dos eventos A y B es P(A ∪ B) = P(A) + P(B) − P(A ∩ B). Universidad de Chile) Prob. Si A y B son mutuamente excluyentes.Clase 5: Prob. y Est. condicional.. 73 / 250 . Vicente Acu˜ na (CMM.. Universidad de Chile) Prob. independencia y otras propiedades Probabilidad de la uni´on Se puede extender a uniones mayores: P(A ∪ B ∪ C ) = = P(A)+P(B)+P(C )−P(A∩B)−P(A∩C )−P(B ∩C )+P(A∩B ∩C ) y as´ı sucesivamente.Clase 5: Prob. Vicente Acu˜ na (CMM. 74 / 250 . independencia y otras propiedades Probabilidad del complemento Theorem Si A es un evento.Clase 5: Prob. condicional. Universidad de Chile) Prob. y Est. entonces P(A) = 1 − P(A). Ej: Probabilidad que entre 20 personas al menos dos tengan cumplea˜ nos el mismo d´ıa. Dem: S = A ∪ A Muchas veces es m´as f´acil calcular la probabilidad del complemento de nuestro evento de inter´es. ∪ Bk . y Est. Universidad de Chile) Prob. independencia y otras propiedades Ley de probabilidad total Consideremos B1 . es decir (a) S = B1 ∪ B2 ∪ . B2 . . condicional. . . (b) Bi ∩ Bj = ∅ para i 6= j Claramente cualquier conjunto A en S puede descomponerse como sigue: A = (A ∩ B1 ) ∪ (A ∩ B2 ) ∪ . . . ∪ (A ∩ Bk ) Vicente Acu˜ na (CMM. . Bk una partici´ on del espacio muestral S. .Clase 5: Prob. 75 / 250 . y Est. . 76 / 250 . . Vicente Acu˜ na (CMM. . Bk } es una partici´ on de S tal que P(Bi ) > 0. . . . Entonces para cualquier evento A P(A) = k X P(A|Bi )P(Bi ) i=1 Dem: descomposici´on y probabilidad de la uni´ on. 2. Utilidad: Muchas veces es m´as f´acil calcular los P(A|Bi ) para una partici´ on elegida adecuadamente que calcular directamente P(A). k. para i = 1. B2 .Clase 5: Prob. Universidad de Chile) Prob. . independencia y otras propiedades Ley de probabilidad total Theorem Suponga que {B1 . condicional. . 77 / 250 . .Clase 5: Prob. 2. Bk } es una partici´ on de S tal que P(Bi ) > 0. . independencia y otras propiedades Regla de Bayes Theorem Suponga que {B1 . Universidad de Chile) Prob. B2 . Vicente Acu˜ na (CMM. . . . para i = 1. . . k. Entonces P(A|Bj )P(Bj ) P(Bj |A) = Pk i=1 P(A|Bi )P(Bi ) Dem: ley de probabilidad total y probabilidad condicional. y Est. condicional. . ¿cu´al es la probabilidad condicional de que tenga. condicional. Tambi´en.html Vicente Acu˜ na (CMM. Universidad de Chile) Prob.9. en realidad. si una persona no tiene la enfermedad. Si una persona es seleccionada al azar de la poblaci´ on y la prueba de diagn´ostico indica que tiene la enfermedad. la prueba reportar´a que ´el o ella no la tiene con probabilidad . independencia y otras propiedades Ejemplo (Wackerly) Una prueba de diagn´ostico para una enfermedad es tal que (correctamente) detecta la enfermedad en 90 % de los individuos que en realidad tienen la enfermedad.edu/nmb/fall10/math313/seeingstats/Chpt2/bayesTree.Clase 5: Prob. y Est. la enfermedad? ¿La respuesta lo sorprende? ¿Se considera confiable esta prueba de diagn´ ostico? Ver applet en: http://mcsp. 78 / 250 .wartburg. S´olo 1 % de la poblaci´on tiene la enfermedad en cuesti´on. Clase 5: Prob. Como la prueba es destructiva. Esta situaci´on lleg´o al conocimiento del fabricante despu´es de que los fusibles ya hab´ıan sido enviados. que se dispersan al azar en la producci´ on. Un cliente recibi´ o un lote producido en marzo y prob´ o tres fusibles. Desafortunadamente. condicional. 79 / 250 . independencia y otras propiedades Ejemplo (Wackerly) Un fusible electr´onico es producido por cinco l´ıneas de producci´on en una operaci´on de manufactura. sumamente confiables y se env´ıan a proveedores en lotes de 100 unidades. y Est. Las cinco l´ıneas de producci´on producen fusibles al mismo ritmo y normalmente producen s´ olo 2 % de fusibles defectuosos. la mayor´ıa de los compradores de fusibles prueban s´ olo un n´ umero peque˜ no de ellos antes de decidirse a aceptar o rechazar lotes de fusibles que lleguen. Los fusibles son costosos. ¿Cu´al es la probabilidad de que el lote se haya producido en la l´ınea 1? ¿Cu´al es la probabilidad de que el lote haya provenido de una de las otras cuatro l´ıneas? Vicente Acu˜ na (CMM. la l´ınea 1 de producci´ on sufri´ o problemas mec´anicos y produjo 5 % de piezas defectuosas durante el mes de marzo. Universidad de Chile) Prob. Uno fall´ o. independencia y otras propiedades Soluci´on Desarrollo: Pizarra Sol: 0. condicional.73 y 0. Universidad de Chile) Prob.Clase 5: Prob. y Est.63 Vicente Acu˜ na (CMM. 80 / 250 . y Est. Universidad de Chile) Prob.Clase 6: Variable aleatoria discreta Clase 6: Variables aleatorias Vicente Acu˜ na (CMM. 81 / 250 . y Est. Definition Una variable aleatoria (v.a. Y : S → RY ⊆ R Vicente Acu˜ na (CMM.Clase 6: Variable aleatoria discreta Variables aleatorias En lo que viene. no es una variable (a pesar del nombre). Universidad de Chile) Prob.) es una funci´ on que toma valores reales y cuyo dominio es un espacio muestral Ojo: una variable aleatoria es una funci´ on. vamos a concentrarnos en descripciones num´ ericas de los resultados en S. 82 / 250 . Clase 6: Variable aleatoria discreta Variable aleatoria discreta Definition Una variable aleatoria Y es discreta si puede tomar s´olo un n´ umero finito o infinito numerable de valores distintos. Es decir, su recorrido RY es finito o infinito numerable. Ejemplo ε: lanzar 3 monedas equilibradas. La v.a. Y :“n´ umero de caras” tiene RY = {0, 1, 2, 3}. Por lo tanto Y es discreta. Ejemplo ε: lanzar una moneda hasta que salga sello La v.a. X =“n´ umero de lanzamientos” tiene RX = {1, 2, 3, . . .}. Como RX es infinito numerable entonces X es discreta. Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 83 / 250 Clase 6: Variable aleatoria discreta Variable aleatoria discreta ¿Cu´ando no es discreta? Ejemplo ε: lanzar un dardo en un disco de tiro al blanco y mirar su posici´on. la variable aleatoria Y =“distancia entre la posici´ on y el centro del blanco” ¿es discreta o no? Si asumimos una medici´ on perfecta, el n´ umero de posibles valores de Y es cualquier n´ umero real entre 0 y el radio del disco → Y no es discreta. M´as adelante estudiaremos este caso. En cambio si observamos la zona en que cay´ o, la v.a. X =“puntaje obtenido” es claramente discreta. As´ı, para un mismo experimento podemos definir distintas v.a. de distinta naturaleza. Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 84 / 250 Clase 6: Variable aleatoria discreta Variable aleatoria discreta Ejemplo: Lanzar dos monedas y observar resultado. S = {CC , CS, SC , SS} Definimos Y la v.a. “n´ umero de caras que se obtuvieron” Y : S → {0, 1, 2} ⊆ R Notaci´ on de eventos: {Y = 0} = {SS}, {Y = 1} = {CS, SC }, {Y = 2} = {CC } Si la moneda es balanceada y los lanzamientos independientes: P(Y = 0) = 14 , P(Y = 1) = Vicente Acu˜ na (CMM, Universidad de Chile) 1 2 y P(Y = 2) = Prob. y Est. 1 4 85 / 250 Clase 6: Variable aleatoria discreta Variable aleatoria discreta Proposition La probabilidad de que Y tome el valor y , P(Y = y ), es la suma de las probabilidades de todos los puntos muestrales en S a los que se asigna el valor y . A veces denotamos P(Y = y ) como pY (y ) o simplemente como p(y ). Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 86 / 250 Clase 6: Variable aleatoria discreta Distribuci´on de probabilidad Definition La distribuci´on de probabilidad para una variable discreta Y es la descripci´on de la probabilidad de cada uno de los valores que puede tomar Y . Puede ser representada por una f´ ormula, una tabla o una gr´afica que produzca p(y ) = P(Y = y ) para todo y . Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 87 / 250 X que p(0) =2 monedas Ejemplo ε =“lanzar y la 4 2 4 representa “el n´ umero de caras”. For instance.”.. p(x) 1 1 – 2 1 – 4 0 1 2 x Figura de “A First.1 Vicente Acu˜ na (CMM.. if the probab ss function of X is 1 1 1 p(1)equilibradas” = p(2) = v.Clase 6: Variable aleatoria discreta It is often instructive to present the probability mass function in a graphical for Distribuci´ onthe dey-axis probabilidad plotting p(xi ) on against xi on the x-axis. 88 / 250 .a. Ross FIGURE 4. y Est. Universidad de Chile) Prob. graphically shown in Figure 4.2 Vicente Acu˜ nawe (CMM.a. Similarly.Clase 6: Variable aleatoria discreta Distribuci´on de probabilidad pter 4 Ejemplo ε =“lanzar 2 dados equilibrados” y la v. Ross FIGURE 4.1. a graph 89 / 250 . yas Est. Chile) can Universidad representdethis function Prob..”.. X que representa “la suma de los dados”. Random Variables p(x) 6 — 36 5 — 36 4 — 36 3 — 36 2 — 36 1 — 36 0 1 2 3 4 5 6 7 8 9 10 11 12 x Figura de “A First. 90 / 250 . Universidad de Chile) Prob.Clase 6: Variable aleatoria discreta Distribuci´on de probabilidad Algunas propiedades: La probabilidad para Y = y debe estar entre 0 y 1 para todo y : 0 ≤ pY (y ) ≤ 1 La probabilidad para todos los valores de Y debe sumar 1 X pY (y ) = 1 y ∈RY Para cualquier subconjunto M de los reales se tiene que X P(Y ∈ M) = pY (y ) y ∈M∩RY Vicente Acu˜ na (CMM. y Est. . C ). C ). (C . S. S. C . C . S)} = 3/8 pY (2) = P(Y = 2) = P{(S. S)} = 3/8 pY (3) = P(Y = 3) = P{(C . C . C ). (C . y Est. (S. Universidad de Chile) Prob. C . S)} = 1/8 pY (1) = P(Y = 1) = P{(S. S. Y que representa “el n´ umero de caras”. . S). .a. . 91 / 250 . 3 (es usual usar k en vez de y cuando los valores posibles de Y son enteros) pY (0) = P(Y = 0) = P{(S. Dada una ley de probabilidad sobre S. (C . C )} = 1/8 Vicente Acu˜ na (CMM.Clase 6: Variable aleatoria discreta Ejemplo Sea ε =“lanzar 3 monedas equilibradas” y la v. S. podemos calcular la funci´on de probabilidad de Y calculando la probabilidad de cada conjunto {Y = k} con k = 0. . Universidad de Chile) k=0 Prob.Clase 6: Variable aleatoria discreta Ejemplo (continuaci´on) En general no escribimos todos los valores. . y Est. En cambio calculamos una f´ormula para la funci´on de probabilidad:  3 pY (k) = k k = 0. 92 / 250 . . 3 23 Efectivamente las probabilidades los posibles valores de Y suman 1: 3 X k=0 pY (k) = 1 3 3 1 + + + =1 8 8 8 8 Tambi´en podemos corroborarlo a partir de la f´ ormula: 3 X k=0 3   3   1 X 3 1 X 3 k 3−k 1 pY (k) = 3 = 3 1 1 = 3 (1 + 1)3 = 1 2 k 2 k 2 k=0 Vicente Acu˜ na (CMM. . 93 / 250 . Si apostamos que al menos una bola elegida tiene un n´ umero mayor o igual a 17. cu´al es la probabilidad de que ganemos la apuesta? Vicente Acu˜ na (CMM. Universidad de Chile) Prob. y Est.Clase 6: Variable aleatoria discreta Problema Problema: Tres bolas son elegidas al azar sin reemplazo desde una urna conteniendo 20 bolas numeradas del 1 al 20. 1.2 y 3. 3}. Los casos en que eso ocurre pueden verse como elegir k bolitas de entre las 4 bolitas mayores y luego elegir 3 − k bolitas de las 16 menores. que exactamente k bolitas son mayores o iguales que 17. Es decir. . 2. 20}} (el orden no importa)  S es equiprobable. y Est. Universidad de Chile) Prob. 4}. Y como el n´ umero de bolas extra´ıdas con n´ umero mayor o igual a 17. 19. 3} Contemos los casos tales que Y = k.a.Clase 6: Variable aleatoria discreta Soluci´on: Definimos ε : “Elegir tres bolas al azar” S = {{1. |S| = 20 3 Definimos la v. . . {1.1. Y puede tomar los valores 0. Es decir RY = {0. {18. 94 / 250 . Es decir  16  4 P(Y = k) = k 3−k  20 3 Obtenemos P(Y ≥ 1) = 1 − P(Y < 1) = 1 − P(Y = 0) = (4)(16) 16! 3!17! 14·15·16 1 − 0 20 3 = 1 − 3!13! 20! = 1 − 18·19·20 (3) Vicente Acu˜ na (CMM. . 2. 2. 4). 1. . Vicente Acu˜ na (CMM. (2. 3). 4). (1. . 95 / 250 . 2. . que exactamente k bolitas son mayores o iguales que 17. Es decir. . . 2. 19. . 1. 3). . S es equiprobable. Es decir 3 4! 16! k (4−k)! (13+k)! 20! 17!  P(Y = k) = Comprueben que es lo mismo que antes (es decir 16 (k4)(3−k ) ) pero 20 (3) escrito m´as feo. y Est. Los casos en que eso ocurre pueden verse como elegir primero las k posiciones donde colocamos  las bolas mayores (esto es k3 ) y luego en esas posiciones llenarlos con 4! ) y las otras 3 − k posiciones k de las 4 bolitas mayores (esto es (4−k)! llenarlas con bolitas menores (de 16! (16−(3−k))! maneras). . (2. |S| = 20 · 19 · 18 Contemos los casos tales que Y = k. Universidad de Chile) Prob.Clase 6: Variable aleatoria discreta Alternativa: ¿Y si hubieramos elegido S tal que el orden s´ı importa? S = {(1. (20. 18)} (el orden importa). y Est.Clase 7: Esperanza y varianza Clase 7: Esperanza y varianza Vicente Acu˜ na (CMM. 96 / 250 . Universidad de Chile) Prob. a. y Est. E (Y ). Vicente Acu˜ na (CMM.Clase 7: Esperanza y varianza Esperanza Definition Sea Y una v. se define como X E (Y ) = yp(Y ) y ∈RY La esperanza es un promedio ponderado de los valores que puede tomar Y Nota: hay casos en que esta suma no es convergente. 97 / 250 . discreta con funci´ on de probabilidad p(y ). pero no los estudiaremos en este curso. Universidad de Chile) Prob. Entonces el valor esperado de Y . ¿Cu´al es la distribuci´ on de Y 2 ? pY 2 (0) = 1/3 pY 2 (4) = 2/3 Vicente Acu˜ na (CMM. ¿Qu´e pasa si definimos una nueva funci´on g sobre los valores que puede tomar Y ? g : R → R. Ejemplo: Y 2 Supongamos que Y puede tomar los valores RY = {−2. Universidad de Chile) Prob.Clase 7: Esperanza y varianza Funci´on de una variable aleatoria Recoredemos que la v. 98 / 250 .a. RY 2 = {0. Y es una funci´ on. 4}. 0. 2} con probabilidad 1/3 cada uno. Entonces la funci´on g ◦ Y : S → R tambi´en es una variable aleatoria. y Est. y Est. Universidad de Chile) Prob. discreta con funci´ on de probabilidad p(y ) y sea g (Y ) una funci´on de valor real de Y . Vicente Acu˜ na (CMM. Entonces el valor esperado de g (Y ) es X E [g (Y )] = g (y )p(Y ) y ∈RY El teorema dice que no es necesario calcular la distribuci´on de g (Y ) para calcular su esperanza.Clase 7: Esperanza y varianza Esperanza de una funci´on de una v. Theorem Sea Y una v. Continuando P el ejemplo: E [Y 2 ] = y ∈{−2.a. 99 / 250 .2} y 2 p(y ) = (−2)2 · 1 3 + 02 · 1 3 + 22 · 1 3 = 8 3 → Comprobar calculando la esperanza de Y 2 por definici´on.0.a. y Est. con media E (Y ) = µ. Y se define como el valor esperado de (Y − µ)2 . 100 / 250 . Esto es.a. La desviaci´ on est´andar de Y es la ra´ız cuadrada positiva de V (Y ) Vicente Acu˜ na (CMM. Universidad de Chile) Prob. V (Y ) = E ((Y − µ)2 ).Clase 7: Esperanza y varianza Varianza Theorem Si Y es una v.a. la varianza de la v. Universidad de Chile) Prob. y Est. Caso particular interesante: E (E (X )) = E (X ) pues la esperanza de X no depende del resultado de X Vicente Acu˜ na (CMM.a. Una constante es cualquier valor que no var´ıa cuando realizamos el experimento.Clase 7: Esperanza y varianza Propiedades de la esperanza Theorem Sea Y una v. 101 / 250 . Entonces E (c) = c. discreta con funci´ on de probabilidad p(y ) y sea c una constante. a. Entonces E (cg (Y )) = cE (g (Y )) . Vicente Acu˜ na (CMM. discreta con funci´ on de probabilidad p(y ). 102 / 250 . Universidad de Chile) Prob. g (Y ) una funci´on de Y y c una constante. y Est.Clase 7: Esperanza y varianza Propiedades de la esperanza Theorem Sea Y una v. Universidad de Chile) Prob. 103 / 250 . . y Est.a. . E (gk (Y )) Vicente Acu˜ na (CMM. + gk (Y )) = E (g1 (Y )) + E (g2 (Y )) + . . .Clase 7: Esperanza y varianza Propiedades de la esperanza Theorem Sea Y una v. . g2 (Y ) . Entonces E (g1 (Y ) + g2 (Y ) + . discreta con funci´ on de probabilidad p(y ) y sean g1 (Y ). gk (Y ) k funciones de Y . . y Est. discreta con funci´ on de probabilidad p(y ) y media E (Y ) = µ.Clase 7: Esperanza y varianza F´ormula de la varianza Theorem Sea Y una v. entonces V (Y ) = σ 2 = E ((Y − µ)2 ) = E (Y 2 ) − µ2 Dem: Pizarra Esta f´ ormula es muy usada para calcula la esperanza Vicente Acu˜ na (CMM. Universidad de Chile) Prob.a. 104 / 250 . 105 / 250 . b son constantes.Clase 7: Esperanza y varianza Propiedad de la varianza Theorem Si X es una variable aleatoria y a. y Est. Universidad de Chile) Prob. entonces V (aX + b) = a2 V (X ) Demostraci´on: Pizarra Vicente Acu˜ na (CMM. y Est. 106 / 250 . Universidad de Chile) Prob.Clase 8: Variables aleatorias discretas usuales Clase 8: Variables aleatorias discretas usuales Vicente Acu˜ na (CMM. a. que sale 1 si cara y 0 si sello. 107 / 250 . Pizarra: Mostrar que esperanza es p y varianza p(1 − p). Entonces X ∼ Bernoulli( 56 ). Ejemplos: lanzar una moneda balanceada. y Est. discreta X sigue una distribuci´ on de Bernoulli de par´ametro p. Universidad de Chile) Prob. Si X v. que vale 0 si sale un seis y 1 si no.a.a. si la distribuci´ on de X est´a dada por pX (0) = 1 − p pX (1) = p En este caso denotamos X ∼ Bernoulli(p). entonces X ∼ Bernoulli( 12 ).Clase 8: Variables aleatorias discretas usuales Variable aleatoria de Bernoulli Definition Decimos que una v. Vicente Acu˜ na (CMM. Si Y v. lanzar un dado balanceado. S) = A1 ∩ A2 ∩ A3 ∩ A4 ∩ A5 ∩ A6 Si suponemos. y Est. que cada tirada Ai es independiente: 6 2 4 3 P(E1 ) = P(A1 )P(A2 )P(A3 )P(A4 )P(A5 )P(A6 ) = ( 10 ) ( 10 ) Todos los eventos simples en B tienen la misma probabilidad: 6 2 4 3 ( 10 ) ( 10 ) . S. ¿Cual es la probabilidad de obtener exactamente 2 caras?.6). S. razonablemente. Ai : sale cara en lanzamiento i P(Ai ) = 6/10 y P(Ai ) = 4/10 B : se obtienen exactamente dos caras.  5! ¿Cu´antos eventos simples contiene B? → 2!3! = 52  6 2 4 3 Conclu´ımos P(B) = 52 ( 10 ) ( 10 ) Vicente Acu˜ na (CMM. C . 108 / 250 .Clase 8: Variables aleatorias discretas usuales Variable aleatoria binomial Recordemos el ejemplo: Tirar una moneda no balanceada 5 veces (probabilidad de cara 0. Universidad de Chile) Prob. P(B) =? Veamos la probabilidad de un evento simple en B: E1 = (C . Entonces X ∼ bin(10. Ejemplos: Ejemplo: lanzar 10 veces una moneda balanceada y definir X el n´ umero de caras.a. . discreta X sigue una distribuci´ on binomial de par´ametros n ∈ N∗ y p ∈ [0. Pizarra: Mostrar que esperanza de binomial es np y varianza np(1 − p). si la distribuci´ on de X est´a dada por   n k pX (k) = p (1 − p)n−k para todo k ∈ {0. n} k En este caso denotamos X ∼ bin(n. Vicente Acu˜ na (CMM. y Est. p). .Clase 8: Variables aleatorias discretas usuales Variable aleatoria binomial Definition Decimos que una v. Universidad de Chile) Prob. 1]. . 21 ). 109 / 250 . . 1. Consiste en un n´ umero fijo. 5. n. 2. Las pruebas son independientes.Clase 8: Variables aleatorias discretas usuales Variable aleatoria binomial Un experimento binomial presenta las siguientes propiedades: 1. F . 3. 4. el n´ umero de ´exitos observado durante las n pruebas. Cada prueba resulta en uno de dos resultados: ´exito. Vicente Acu˜ na (CMM. Universidad de Chile) Prob. 110 / 250 . La probabilidad de ´exito en una sola prueba es igual a alg´ un valor p y es el mismo de una prueba a la otra. La variable aleatoria de inter´es es Y . La probabilidad de fracaso es igual a q = (1–p). de pruebas id´enticas. y Est. o fracaso. S. y Est. asuma que la proporci´on de piezas defectuosas no cambia para cada fusible extra´ıdo en la muestra). encuentre la probabilidad de hallar al menos uno defectuoso (Como el lote es grande con respecto a la muestra. Universidad de Chile) Prob. La experiencia ha demostrado que 30 % de todas las personas afectadas por cierta enfermedad se recuperan. 111 / 250 .Clase 8: Variables aleatorias discretas usuales Variable aleatoria binomial Problema: Suponga que un lote de 5000 fusibles el´ectricos contiene 5 % de piezas defectuosas. nueve se recuperaron al poco tiempo. Suponga que la medicina no es eficaz en absoluto. Diez personas con la enfermedad se seleccionaron al azar y recibieron la medicina. ¿Cu´al es la probabilidad de que se recuperen al menos nueve de entre diez que recibieron la medicina? Vicente Acu˜ na (CMM. Si se prueba una muestra de 5 fusibles. Una empresa fabricante de medicamentos ha inventado una nueva medicina. 10 0 0 1 2 4 3 5 6 7 8 9 10 y 10 y (a) p ( y) .20 .06 .5 . y Est.05 0 0 1 2 4 3 5 6 7 8 9 (b) p ( y) .08 .40 .15 .Clase 8: Variables aleatorias discretas usuales Variable aleatoria binomial 104 Capítulo 3 Variables aleatorias discretas y sus distribuciones de probabilidad F I G U R A 3.16 .12 . p = .20 . Universidad de Chile) 2 4 6 8 10 (c) Prob.5 . p = .10 .30 n = 10.14 n = 20.02 0 0 Vicente Acu˜ na (CMM.18 .25 n = 10. p = . 12 14 16 18 20 y 112 / 250 .1 .10 .04 .4 Histogramas de probabilidad binomial p ( y) . . 1 p y varianza 1−p . 2. 1]. p2 113 / 250 . Universidad de Chile) Prob. .} En este caso denotamos X ∼ geom(p). discreta X sigue una distribuci´ on geom´etrica de par´ametro p ∈ [0.Clase 8: Variables aleatorias discretas usuales Variable aleatoria geom´etrica Definition Decimos que una v. . y Est. X definido como cuantas veces se lanza el dado.a. X ∼ geom( 61 ) Propuesto: Mostrar que la esperanza es Vicente Acu˜ na (CMM. Ejemplos: Ejemplo: lanzar sucesivamente un dado hasta obtener tres. si la distribuci´ on de X est´a dada por pX (k) = (1 − p)k−1 p para todo k ∈ {1. 3 .5 La distribución de probabilidad geométrica. como se requiere para cua tribución de probabilidad discreta válida. p = . q.5 p ( y) .… . como correspondieron a las distrib frecuencia de datos en el Capítulo 1. Por inspección de los valores respectivos es obvio que p(y) ≥ 0 . Las los intervalos corresponden a probabilidades.2 .5.indd 115 Vicente Acu˜ na (CMM. excepto que Y puede tomar sólo valores dis 1. p = .66 demostrará que estas probabilidades ascienden a 1. Universidad de Chile) Prob. En e 3.p(y).5 se ilustra un histograma de probabilidad para Variable aleatoria geom´etrica FIGURA 3. 2. 114 / 250 .5 .1 0 1 2 3 4 5 6 7 8 y W-cap-03.4 . y Est. Clase 8: Variables aleatorias usuales Endiscretas la Figura 3. a. si la distribuci´ on de X est´a dada por   k −1 pX (k) = (1 − p)k−r p r para todo k ∈ {r . . Universidad de Chile) Prob. X ∼ BN(10. Ejemplos: Ejemplo: lanzar sucesivamente un dado hasta obtener 10 veces tres. . 61 ) Propuesto: Mostrar que la esperanza es Vicente Acu˜ na (CMM. 1]. r + 1. p2 115 / 250 .} r −1 En este caso denotamos X ∼ BN(r . y Est. discreta X sigue una distribuci´ on binomial negativa ∗ de par´ametros r ∈ N y p ∈ [0. . r p y varianza r (1−p) . X definido como cuantas veces se lanza el dado.Clase 8: Variables aleatorias discretas usuales Variable aleatoria binomial negativa (Pascal) Definition Decimos que una v. p). Clase 8: Variables aleatorias discretas usuales Variable aleatoria Poisson Ejemplo motivador: Una m´aquina produce una gran cantidad de fusibles continuamente durante 24 horas. Sabemos que en promedio fabrica pocos fusibles defectuosos, digamos λ = 8 al d´ıa. Sabemos que los defectuosos se producen en cualquier momento, sin preferencia por alg´ un horario y que cuando se produce un defectuoso en un instante no influye en lo que pueda suceder en cualquier otro instante de tiempo. ¿Cu´al es la probabilidad de que produzca 9 defectuosos? Indicaci´on: pensar en intervalos peque˜ nos que contengan a lo m´as un defectuoso. Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 116 / 250 Clase 8: Variables aleatorias discretas usuales Variable aleatoria Poisson Si definimos la v.a. X n´ umero de defectuosos al d´ıa, s´olo sabemos que E (X ) = λ. Supongamos que separamos el d´ıa en N intervalos muy peque˜ nos tales que: (1) es imposible que en cada intervalo se produzca m´as de un defectuoso y (2) la probabilidad de fabricar un defectuoso en un intervalo es independiente de los que suceda en otros intervalos. Entonces la probabilidad de que produzca un defectuoso en el intervalo i es Nλ y X es una binomial X ∼bin(N, Nλ ). Es coherente pues E (X ) = N Nλ = λ. Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 117 / 250 Clase 8: Variables aleatorias discretas usuales Variable aleatoria Poisson As´ı la distribuci´on de X es:   λ N λ k P(X = k) = ( ) (1 − )N−k N k N para k ∈ {0, 1, . . . , N} Pero queda dependiente de un N correspondiente al n´ umero de intervalos, que suponemos grande para que s´ olo pueda contener a lo m´as un evento defectuoso. Podemos hacer N → ∞ . . . Veremos (pizarra) que :   λ λk N λ k l´ım ( ) (1 − )N−k = e −λ n→∞ k N N k! Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 118 / 250 Clase 8: Variables aleatorias discretas usuales Variable aleatoria Poisson Definition Decimos que una v.a. discreta X sigue una distribuci´ on de Poisson de par´ametro λ > 0, si la distribuci´ on de X est´a dada por pX (k) = e −λ λk k! para todo k ∈ {0, 1, 2, . . .} En este caso denotamos X ∼ Poisson(λ). Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 119 / 250 Clase 8: Variables aleatorias discretas usuales Variable aleatoria Poisson Ejemplos t´ıpicos: accidentes automovil´ısticos en una unidad de tiempo, n´ umero de llamadas telef´ onicas recibidas en un intervalo, n´ umero de part´ıculas radiactivas que se desintegran en un periodo particular, n´ umero de errores que comete una mecan´ografa al escribir una p´agina, n´ umero de autom´ oviles que usan una rampa de acceso a una autopista en un intervalo de diez minutos, etc. El par´ametro λ corresponde al promedio de eventos en el intervalo considerado. En el ejemplo, λ = 8 era el promedio de bombillas defectuosas en un d´ıa. Algo importante es que si cambiamos el intervalo de tiempo, λ cambia proporcionalmente. As´ı si X es el n´ umero de defectos en una semana, entonces X ∼ Poisson(7 × 8). La distribuci´on de Poisson se usa tambi´en como una manera de aproximar el c´alculo de la binomial para n grande p peque˜ na y λ = np menor que 7, aproximadamente. Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 120 / 250 a. Universidad de Chile) Prob. y Est. de Poisson con par´ametro λ es λ (Hint: Busque formar la condici´ on anterior) Demostrar que la varianza tambi´en es λ (Hint: Encuentre E (Y (Y − 1)) para calcular E (Y 2 ) ) Vicente Acu˜ na (CMM.Clase 8: Variables aleatorias discretas usuales Variable aleatoria Poisson Propuesto Demostrar que la distribuci´ on de Poisson satisface la condici´on P (requerida para ser distribuci´ on): y ∈RY pY (y ) = 1 (Hint: use la expansi´on en serie de e λ ) Demostrar que la esperanza de una v. 121 / 250 . Universidad de Chile) Prob. 122 / 250 . y Est.Clase 9: Variables aleatorias continuas Clase 9: Variables aleatorias continuas Vicente Acu˜ na (CMM. altura de una persona. 123 / 250 . pues queremos que el total de probabilidad sea 1. As´ı en el caso de variables aleatorias continuas usaremos un m´etodo diferente. Universidad de Chile) Prob. vida util de una lavadora en a˜ nos. Antes de adentrarnos en este m´etodo definiremos para cualquier variable aleatoria Y . denotada por F (y ) es tal que F (y ) = P(Y ≤ y ) para −∞ < y < ∞ Vicente Acu˜ na (CMM. Sin embargo no podemos asignar una probabilidad positiva a cada punto del intervalo. y Est. la funci´ on de distribuci´on acumulada o simplemente funci´on de distribuci´ on F (y ) Definition Sea Y una variable aleatoria cualquiera. La funci´ on de distribuci´on (acumulada) de Y .Clase 9: Variables aleatorias continuas Funci´on de distribuci´on (acumulada) Hay variables aleatorias en el mundo real que podr´ıan tomar cualquier valor en un intervalo (suponiendo una medici´ on perfecta): Agua ca´ıda en un d´ıa. etc. Todas las v. que. 124 / 250 .2 F I G U R A 4. son 0. discretas son funciones n”.a. n = 2. binomial(2.Prob. Los saltos suman 1. p = 1/2 Distribución de probabilidad para una var F(y) 1 3/4 1/2 1/4 0 1 2 y Ejemplo. Universidad de Chile) Y que son menores o iguales a 1.1 Función de distribución binomial. 1 y 2 yElninguno valores son menore los puntos donde hay probabilidad valor deenestos esos puntos es usamos una lógica similar. 0. Por yloEst.5). F(y) = 0 para toda y < 0. el l´ımite por la derecha. ¿Cuál es F Vicente Acu˜ na (CMM.Clase 9: Variables aleatorias continuas Funci´on de distribuci´on caso discreto 4.5 y tienen probabilidades dife 0 y 1. Los saltos son deenY a lo ¿Cuál es F(–2) =de P(Y“escal´ ≤ –2)?oComo los únicos valores des positivas positiva. 4 F (y ) es continua por la derecha. Vicente Acu˜ na (CMM.Clase 9: Variables aleatorias continuas Propiedades de una funci´on distribuci´on F (y ) Theorem Si F (y ) es una funci´on de distribuci´ on de la variable aleatoria Y entonces 1 l´ımy →−∞ F (y ) = 0 2 l´ımy →∞ F (y ) = 1 3 F (y ) es no decreciente en y . Universidad de Chile) Prob. 125 / 250 . y Est. pero si puede tener una pendiente creciente. Definition Una variable aleatoria Y con funci´ on de distribuci´ on F (y ) se dice continua si F (y ) es continua (y derivable en “casi todos los puntos”). 126 / 250 . y Est. para −∞ < y < ∞ Vicente Acu˜ na (CMM. la funci´on de distribuci´ on F (y ) no puede contener saltos. As´ı.Clase 9: Variables aleatorias continuas Variables aleatorias continuas En el caso de una variable aleatoria continua queremos asignar probabilidades no a puntos espec´ıficos sino que a intervalos. Universidad de Chile) Prob. 2 Funci´on distribuci´on para v.indd 160 Vicente Acu˜ na (CMM. Una v.2 Una variable aleatoria Y con función de distribución F(y) se dice que es continua si F(y) es continua. Podr´ıa por ejemplo tener pendientes en algunos puntos y saltos en otros (es mixta. llegamos a la definición de una variable aleatoria continua. un número finito de puntos en cualquier intervalo finito. Es una densidad de probabilidad. a lo sumo. Las funciones de distribución para las variables aleatorias continuas estudiadas en este texto satisfacen este requisito. y2 ) es exactamente F (y2 ) − F (y1 ). 127 / 250 . continuas F I G U R A 4. entonces F(y) también debe ser continua. Clase 9: Variables aleatorias continuas D E F I N I C I Ó N 4. que no es discreta. y Est. también necesitamos que exista la primera derivada de F(y) y que sea continua excepto para.2 Función de distribución para una variable aleatoria continua F(y) 1 F(y2) F(y1) 0 y1 y2 y La probabilidad de que Y caiga en un intervalo (y1 . Universidad de Chile) 27/7/09 02:25:31 Prob. La pendiente indica cuanto crece la probabilidad en ese punto.Por tanto. 2. W-cap-04. Para ser matemáticamente rigurosos. no lo veremos en el curso) 1. para –q < y < q.a. si F(y) es una función de distribución válida. no necesariamente es continua. Para ser matemáticamente precisos.a. 128 / 250 . y Est. se denomina funci´ on de densidad de probabilidad para la variable aleatoria Y . Entonces f (y ). Vicente Acu˜ na (CMM.a. dada por dF (y ) f (y ) = = F 0 (y ) dy siempre que exista la derivada. continua Y .Clase 9: Variables aleatorias continuas Funci´on densidad de probabilidad Definition Sea F (y ) la funci´on de distribuci´ on para una v. Universidad de Chile) Prob. Obviamente f (y ) es no negativa e integra 1 en el los reales.3 La función de distribución f ( y) F ( y0 ) y0 y La funci´on de distribuci´ on y la densidad se relacionan por el teorema fundamental del c´alculo: Z y -cap-04. Vicente Acu˜ na (CMM.frecuencia relativa (una curva suave) que caracterizaría la cante. Esta distribución teórica de frecuencia relativa corres continuaspara la duración de vida de una sola máquina probabilidad Clase 9: Variables aleatorias continuas Variables aleatorias F I G U R A 4. 129 / 250 . y Est.indd 161 F (y ) = f (t)dt. Universidad de Chile) Prob. −∞ La densidad es un modelo te´ orico de la frecuencia de un evento: es el histograma si pudi´eramos repetir un experimento infinitas veces. 130 / 250 . y Est. f (y ) ≥ 0 para todo y tal que −∞ < y < ∞.Clase 9: Variables aleatorias continuas Propiedades de una funci´on de densidad Theorem Si f (y ) es una funci´on de densidad para una variable aleatoria continua. entonces 1. Universidad de Chile) Prob. Vicente Acu˜ na (CMM. −∞ f (y )dy = 1. R∞ 2. si a < b.8.de entonces TE O R E MA 4.3 Y tiene Si la variable aleatoria Y tiene densidad f (y)la y a < b. Clase 9: Variables aleatorias continuas P(a < Y ≤ b) = P(Y ≤ b) − P(Y ≤ a) = F(b) − F(a) = Variables aleatorias continuas b a Como P(Y = a) = 0. y Est. b] es Z b P(a ≤ Y ≤ b) = P(a P ≤ Y ≤ b) ! f (y )dy . Universidad de Chile) a Prob. tenemos el siguiente resultado. Theorem Si la variable aleatoria densidad f (y ) y función a < b. entonces dad en de que caiga en el intervalo [a. Esto de hecho es verdad porque.bajo la función de densidad f(y). a a Esta probabilidad es el área sombreada de la Figura 4.8 P (a ≤ Y ≤ b) f (y) 0 Vicente Acu˜ na (CMM. b f ( y) dy. b] es probabilidad de que Y caiga el Yintervalo [a. F I G U R A 4. b y 131 / 250 . Clase 9: Variables aleatorias continuas Ojo con los nombres Atenci´on: Muchas veces diremos “distribuci´ on” cuando en realidad se entrega una densidad. en cambio la densidad tiende a cero). Vicente Acu˜ na (CMM. es f´acil darse cuenta simplemente por las propiedades que debiera tener (por ejemplo la distribuci´on es creciente y en el infinito debiera tender a uno. 132 / 250 . Universidad de Chile) Prob. Por ejemplo los res´ umenes de distribuciones continuas en realidad se˜ nalan t´ıpicamente las densidades. En cualquier caso. En cambio las tablas con valores espec´ıficos indican las distribuciones (acumuladas). Basta la densidad para obtener la distribuci´on. Lo que es m´as est´andar es que la distribuci´on (acumulada) siempre se denota por F (y ) (en may´ uscula) en cambio la densidad se denota por f (y ) (en min´ uscula). y Est. Esto es porque en cierto modo son equivalentes en la informaci´on que entregan. Universidad de Chile) Prob. y Est.a. 133 / 250 . Vicente Acu˜ na (CMM.Clase 9: Variables aleatorias continuas Valor esperado de una v. continua Muchas de las definiciones que vimos para variables aleatorias discretas se tienen en las variables aleatorias continuas siplemente reemplazando las sumatorias por integrales Definition El valor esperado de una variable aleatoria continua Y es Z ∞ E (Y ) = yf (y )dy −∞ siempre que exista la integral. 134 / 250 .Clase 9: Variables aleatorias continuas Valor esperado de una funci´on de v. Universidad de Chile) Prob. Vicente Acu˜ na (CMM. y Est. Es decir que no es necesario calcular la densidad de g (Y ) para calcular su esperanza. continua Theorem Sea g (Y ) una funci´on de Y . entonces el valor esperado de g (Y ) esta dado por Z ∞ E (Y ) = g (y )f (y )dy −∞ siempre que exista la integral.a. .. 3. . Entonces se cumplen los siguientes resultados: 1.+gk (Y )] = E [g1 (Y )]+E [g2 (Y )]+. Vicente Acu˜ na (CMM. . ..Clase 9: Variables aleatorias continuas Propiedades de la esperanza Theorem Sea c una constante y sean g (Y ).. E (c) = c. .+E [gk (Y )]. gk (Y ) funciones de una variable aleatoria continua Y . g1 (Y ). g2 (Y ). y Est. E (cg (Y )) = cE (g (Y )). E [g1 (Y )+g2 (Y )+. 135 / 250 . Universidad de Chile) Prob. 2. Clase 10: Variables aleatorias continuas usuales I Clase 10: Variables aleatorias continuas usuales I Vicente Acu˜ na (CMM. y Est. 136 / 250 . Universidad de Chile) Prob. y Est. θ2 ) si y s´ olo si la funci´on de densidad de Y es ( 1 θ 1 ≤ y ≤ θ2 f (y ) = θ2 −θ1 0 en cualquier otro punto. 137 / 250 .Clase 10: Variables aleatorias continuas usuales I Distribuci´on uniforme Definition Si θ1 < θ2 . Universidad de Chile) Prob. se dice que una variable aleatoria Y tiene distribuci´on de probabilidad uniforme en el intervalo (θ1 . Vicente Acu˜ na (CMM. 0.indd 174 Vicente Acu˜ na (CMM.9 Función de densidad para Y 1 . f(y) A1 0 1 A2 2 3 4 5 6 7 8 9 10 y 04. se dice que una variable aleatoria Y tiene distribución de prob 10: Variables aleatorias usuales I forme en el intervalo (u1. Universidad de Chile) Prob. u2) si y sólo si la función de densidad de Y es Distribuci´on uniforme f ( y) = F I G U R A 4.6 Si u1 < continuas u2. en cualquier otro punto. u2 − u1 u 1 ≤ y ≤ u2 .D E F I NIC IÓClase N 4. 138 / 250 . y Est. u2).5. entonces m = E (Y ) = Prueba u1 + u2 2 y s2 = V (Y ) = (u2 − u1 ) 2 . entonces 176 Capítulo 4 θ1 + θ2 (θ2 − θ1 )2 2 µ = E (Y ) = y σ = V (Y ) = . Universidad de Chile) q −q y f ( y) dy u2 Prob.6 Si u1 < u2 y Y es una variable aleatoria uniformemente distribuida en el intervalo (u1. θ2 ).1 139 / 250 . y Est. 12 Por la Definición 4.Clase 10: Variables aleatorias continuas usuales I Esperanza y varianza de distribuci´on uniforme Theorem Si θ1 < θ2 e Y es una variable alatoriauniforme distribuida en el intervalo (θ1 . Variables continuas y sus distribuciones de probabilidad 2 12 TE O RE MA 4. E(Y ) = Vicente Acu˜ na (CMM. Universidad de Chile) Prob. m y s. T E O REM A 4. el suceso común de distribuciones normales de datos en la naturaleza. y Est.8 Se dice que una variable Y tiene una distribución normal de probabilidad si y sólo si. y V(Y) = s2. Los ejemplos y ejercicios de esta sección ilustran algunas de las numerosas variables aleatorias que tienen distribuciones que se calculan en forma muy cercana por medio de una distribución de probabilidad normal.5aleatorias La distribución de probabilidad normal Variables continuas La distribución de probabilidad continua que más se utiliza es la distribución normal. con la conocida forma de campana que estudiamos en relación con la regla empírica. Observe que la función de densidad normal contiene dos parámetros. −q < y < q .7 Si Y es una variable aleatoria normalmente distribuida con parámetros m y s. La función de densidad normal es como sigue: DE F INI C IÓN 4. para s > 0 y –q < m < q.Clase 10: Variables aleatorias continuas usuales I 4. entonces E(Y) = m Vicente Acu˜ na (CMM. En el Capítulo 7 presentaremos un argumento que explica. 140 / 250 . la función de densidad de Y es f ( y) = 1 s√2p e−( y−m) 2 %(2s2 ) . al menos parcialmente. al menos parcialnormales de datos en la naturaleza.indd 178 Vicente Acu˜ na (CMM. 27/7/09 0 Prob. En el Capítulo 7 presentaremos un argumento que explica.7 Si Y es una variable aleatoria normalmente distribuida con parámetros m y s. 141 / 250 . para s > 0 y –q < m < q. Observe que la función de densidad normal contiene dos parámetros. aleatorias el sucesocontinuas común de distribuciones Variables aleatorias continuas D E F I N IC IÓ N 4. TE OR E MA 4. La función de densidad normal es como sigue: Clase 10: Variables usuales I mente. −q < y < q . Universidad de Chile) V(Y) = s2. y Est. m y s. la función de densidad de Y es f ( y) = 1 s√2p e−( y−m) 2 %(2s2 ) . entonces E(Y) = m y cap-04.bilidad normal.8 Se dice que una variable Y tiene una distribución normal de probabilidad si y sólo si. 10 La función de densidad de probabilidad normal f (y) ! Vicente Acu˜ na (CMM.5 F I G U R A 4. y Est.Clase 10: Variables aleatorias continuas usuales I Variables aleatorias continuas 4. Universidad de Chile) La d Prob. y 142 / 250 . 143 / 250 .Clase 10: Variables aleatorias continuas usuales I Variables aleatorias continuas de densidad normal correspondiente b a 1 s√2p e −( y−m) 2$( 2s2 ) dy. Universidad de Chile) Prob. y Est. existe una expresión de forma cerrad Vicente Acu˜ na (CMM. 11. Variables aleatorias continuas EJEMPLO 4.asociados con variables aleatorias Clase 10: Variables aleatorias continuas usuales I normalmente distribuidas también se pueden hallar la aplicación breve (applet) Normal Tail Areas and Quantiles accesibles en www.73). a Encuentre P( Z > 2).8 Denote con Z una variable aleatoria normal con media 0 y desviación estándar 1. El único beneficio real obtenido al usar software para obten babilidades y cuantiles asociados con variables aleatorias normalmente distribuidas. medida en desviaciones estánd área está sombreada en la Figura 4. c Encuentre P(0 ≤ Z ≤ 1. La función de densidad normal es simétrica alrededor del valor m. es software da respuestas que son correctas hasta un gran número de lugares decimales.thoms com/statistics/wackerly. Universidad de Chile) Prob. y Est. Las áreas tabuladas están a la d de los puntos z. 179 Vicente Acu˜ na (CMM. donde z es la distancia desde la media. 144 / 250 . b Encuentre P(−2 ≤ Z ≤ 2). de modo que la tienen que ser tabuladas en sólo un lado de la media. 145 / 250 . y Est. el valor 2 está en realidad Prob. Universidad de Chile) ! + z" y a Como m = 0 y s = 1.Clase 10: Variables aleatorias continuas usuales I Variables aleatorias continuas 180 Capítulo 4 Variables continuas y sus distribuciones de probabilidad F I G U R A 4.11 Área tabulada para la función de densidad normal f (y) ! z" Solución Vicente Acu˜ na (CMM. ¿Qué fracción de las calificaciones se encuentra entre 80 y 90? Solución Recuerde que z es la distancia desde la media de una distribución normal expresada en unidades de desviación estándar.0418 = .≤ ZI Clase 10: Variables aleatorias continuasP(0 usuales ≤ 1.5 − . Universidad de Chile) y −m .73) = . y Est. 146 / 250 .8(b) A1 A2 –2 0 y 2 EJEMPLO 4.9 Las calificaciones para un examen de admisión a una universidad están normalmente distribuidas con media de 75 y desviación estándar 10. Entonces. Variables aleatorias continuas F I G U R A 4.indd 180 Vicente Acu˜ na (CMM.4582. z= . s 27/7/09 02: Prob.12 Área deseada para el Ejemplo 4. 5 z Entonces la fracción deseada de la población Vicente Acu˜ na (CMM.5 1.13 Área requerida para el Ejemplo 4. y Est. Universidad de Chile) Prob.9 A 0 .Clase 10: Variables aleatorias continuas usuales I Variables aleatorias continuas F I G U R A 4. 147 / 250 . La integración directa verificará que Γ(1) = 1. Universidad de Chile) Prob. La población asociada con estas variables aleatorias posee con frecuencia funciones de densidad que son modeladas de manera adecuada por una función de densidad gamma. En usuales la Figura Clase 10: Variables aleatorias continuas I 4. la fila de espera para llegar a la caja a pagar). 2 y 4 y b = 1. siempre que n sea un entero. 148 / 250 . La integración por partes verifica que = (a − 1 − 1) para cualquier a > 1 y que Γ(n) = (n – 1)!.16 que la forma de la densidad gamma difiere para los diferentes valores de a. Por esta razón. En la Figura 4.conforme y aumenta. Los intervalos de tiempo entre mal funcionamiento de motores de aviones poseen una distribución de frecuencia sesgada. Variables aleatorias continuas DE F IN IC IÓN 4. Del mismo modo. al igual que los intervalos de llegada en una fila de espera en las cajas de un supermercado (esto es. donde = q y a−1 e−y dy. los intervalos de tiempo para completar una revisión de mantenimiento para un motor de automóvil o de avión poseen una distribución de frecuencia sesgada. a recibe a veces el nombre de parámetro de forma asociado Vicente Acu˜ na (CMM. 0 La cantidad Γ(a) se conoce como función gamma. en cualquier otro punto.9 Se dice que una variable aleatoria Y tiene una distribución gamma con parámetros a > 0 y b > 0 si y sólo si la función de densidad de Y es f ( y) = y a−1 e−y/b . ba 0 ≤ y < q. Observe en la Figura 4.15 se muestra una función de densidad de probabilidad sesgada. 0. y Est.16 se dan gráficas de funciones de densidad gamma para a = 1. Clase 11: Variables aleatorias continuas usuales II Clase 10: Variables aleatorias continuas usuales II Vicente Acu˜ na (CMM. Universidad de Chile) Prob. 149 / 250 . y Est. dgamma(x. x <. 3. xlim=c(0. 15. 150 / 250 . xaxs="i". "alpha=2". "purple".Clase 11: Variables aleatorias continuas usuales II Distribuci´on Gamma en R project #Plot gamma distributions varying the shape parameter (alpha). "alpha=1". "black". hx. lwd=3. ylim=c(0. y Est. yaxs="i".c("alpha=0. labels. "orange") alphas <.5. "alpha=4") for(i in 1:length(alphas)) { hx <. rate=1/2) plot(x. Universidad de Chile) Prob. "darkgreen". shape=alphas[i].0. title="Probability densities". rate=1/2) lines(x. type="l". hx.c(0. 1.3.c("red".5". length=200) hx <. shape=2. lwd=5) colors <. col=colors) Vicente Acu˜ na (CMM. lwd=3.10). "alpha=1.3"."blue". col=colors[i])} legend("topright". "alpha=3". xlab="x value". 4) labels <. main="Probability density for gamma distribution with variable alpha and beta=2". ylab="Density". inset=.6).dgamma(x. 1.seq(0.05. 2. 3 alpha=2 alpha=3 alpha=4 0 2 4 6 8 10 x value Vicente Acu˜ na (CMM.5 alpha=1 alpha=1.Clase 11: Variables aleatorias continuas usuales II Distribuci´on Gamma en R project 0. y Est.3 0.6 Probability density for gamma distribution with variable alpha and beta=2 Probability densities 0.4 0. Universidad de Chile) Prob. 151 / 250 .1 0.5 alpha=0.0 0.2 Density 0. "black". "beta=3". col=colors) Vicente Acu˜ na (CMM. 8) labels <. shape=2.6).05. shape=2.c(0. Universidad de Chile) Prob. "darkgreen". rate=1/betas[i]) lines(x. 152 / 250 .seq(0. x <. "beta=4". type="l".10).c("red".5. col=colors[i])} legend("topright". lwd=5) colors <. rate=1/2) plot(x. xlim=c(0. "beta=8") for(i in 1:length(betas)) { hx <. length=200) hx <. "beta=1". 4. labels. 3.dgamma(x.5". xaxs="i". 15.Clase 11: Variables aleatorias continuas usuales II Distribuci´on Gamma en R project #Plot gamma distributions varying the rate parameter (beta). "blue".0. hx. lwd=3. xlab="x value".c("beta=0. lwd=3. hx. main="Probability density for gamma distribution with alpha=2 and variable beta". "orange") betas <. ylab="Density". "beta=2". ylim=c(0. y Est. "purple". yaxs="i". 1.dgamma(x. inset=. title="Probability densities". 2. Clase 11: Variables aleatorias continuas usuales II Distribuci´on Gamma en R project 0.3 0. Universidad de Chile) Prob. y Est.6 Probability density for gamma distribution with alpha=2 and variable beta Probability densities 0.4 0.2 Density 0. 153 / 250 .0 0.1 0.5 beta=1 beta=2 beta=3 beta=4 beta=8 0 2 4 6 8 10 x value Vicente Acu˜ na (CMM.5 beta=0. 1. col=colors[i])} legend("topright". 1. 0.2) labels <. "darkgreen". rate=1/betas[i]) lines(x. 2. lwd=3.33 beta=3". y Est.dgamma(x.10).dgamma(x. "alpha=1 beta=4".c(8. rate=1/2) plot(x. 4.seq(0. "black".05. 4. ylab="Density".6). 2. inset=. "blue". "alpha=1.5. hx. main="Probability density for gamma distributions with mean 4". col=colors) Vicente Acu˜ na (CMM. yaxs="i". xaxs="i". Universidad de Chile) Prob. shape=alphas[i]. xlim=c(0.0. shape=2.33. "alpha=2 beta=2". 20) betas <.c("red".2") for(i in 1:length(alphas)) { hx <.c("alpha=0. 15. labels. "alpha=4 beta=1".c(0. "purple". "orange") alphas <. 3. lwd=5) colors <. "alpha=20 beta=0. xlab="x value". ylim=c(0. title="Probability densities". lwd=3. length=200) hx <. type="l".5 beta=8". 1. 154 / 250 . hx.Clase 11: Variables aleatorias continuas usuales II Distribuci´on Gamma en R project x <. 6 Probability density for gamma distributions with mean 4 0. 155 / 250 .2 0 2 4 6 8 10 x value Vicente Acu˜ na (CMM.1 0.5 beta=8 alpha=1 beta=4 alpha=1.3 0.2 Density 0.4 0.5 Probability densities alpha=0.Clase 11: Variables aleatorias continuas usuales II Distribuci´on Gamma en R project 0. Universidad de Chile) Prob. y Est.0 0.33 beta=3 alpha=2 beta=2 alpha=4 beta=1 alpha=20 beta=0. Universidad de Chile) Prob. y Est. 156 / 250 . ba Vicente Acu˜ na (CMM.rma cerrada para Clase 11: Variables aleatorias continuas usuales II Variables aleatorias continuas d c y a−1 e−y"b dy. indd 186 Vicente Acu˜ na (CMM. 157 / 250 . Otra aplicación breve en la página web de Thomson. Además. y Est. 0 II Clase 11: Variables aleatorias continuas usuales de fp tal que P(Y ≤ fp) = Variables aleatorias continuas TE O REMA 4.com/statistics/wackerly.S–Plus) genera P(Y ≤ y ).a.thomsonedu. la media y la varianza de variables distribución gamma son fáciles de calcular. mientras que qgamma(q. Comparison of Ga Functions.1"b) da el p–ésimo cu p. permitirá visualizar y comparar funciones de densidad gamma con d res para a y/o b. Gamma and Quantiles. Estas aplicaciones breves se usarán para contestar algunos de del final de esta sección. Universidad de Chile) Prob. una de las aplicaciones breves. 04. entonces m = E(Y ) = ab y s2 = V (Y ) = ab2 . accesible en www. se pu determinar probabilidades y cuantiles asociados con variables aleatorias de di mma. Como se indica en el siguiente teorema.8 Si Y tiene una distribución gamma con parámetros a y b. La motivación que hay detrás de llamar al parámetro ν como grados de libertad de la distribución χ2 se apoya en una de las principales formas de generar una variable aleatoria con esta distribución y se da en el Teorema 6. p-04.0 Clase 11: Variables aleatorias continuas usuales II = a 1 b [b a+2 b Variables aleatorias continuas b + 2)] = b 2 (α + 1 0 = α(α + 1)b 2. Se dice que una variable aleatoria Y tiene distribución ji cuadrada con ν grados de libertad si y sólo si Y es una variable aleatoria con distribución gamma y parámetros a = ν/2 y b = 2.indd 187 Vicente Acu˜ na (CMM. Universidad de Chile) 27/7/09 02:2 Prob. Sustituyendo E[Y2] y E(Y) en la fórmula para V(Y).10 Sea ν un entero positivo. desde la primera parte de la derivación. 158 / 250 . Estas variables aleatorias se presentan con frecuencia en teoría estadística.8. La media y la varianza de una variable aleatoria χ2 provienen directamente del Teorema 4. E(Y) = ab. y Est. Entonces V(Y) = E[Y2]–[E(Y)]2. DE F INI CIÓ N 4. Una variable aleatoria con distribución ji cuadrada se denomina variable aleatoria (χ2) ji cuadrada. donde. obtenemos V (Y ) = a(a + 1)b 2 − (ab )2 = a2 b 2 + ab2 − a2 b2 = ab2 Dos casos especiales de variables aleatorias con distribución gamma ameritan consideración particular.4. entonces m = E(Y) = ν Demostración Vicente Acu˜ na y s2 = V(Y) = 2ν. se y Est. Apéndice 3.9 Si Y es una variable aleatoria ji cuadrada con ν grados de libertad. da puntos porcentuales asociados con d ciones χ2 para numerosas opciones de ν.5 = b = 4. En (CMM. No se dispone fácilmente de tablas de la distr gamma general. 159χ2/ de 250las P(Y <de3. En casi todos los textos de estadística se pueden ver tablas que dan probabilidades as con distribuciones χ2. entonces 2Y/b tiene una distribución χ2 con n gra libertad.75) puede hallar usando tablas de la distribución .Clase 11: Variables aleatorias continuas usuales II Variables aleatorias continuas 188 Capítulo 4 Variables continuas y sus distribuciones de probabilidad TE O RE MA 4.5) = P([Y/2] < 1.46 que si Y tiene una distribución con a = n/2 para algún entero n. La Tabla 6. por ejemplo. si Y tiene una distribución gamma con a = 1. Aplique el Teorema 4.8 con a = ν#2 y b = 2. De ahí que. entonces 2Y/b = 2Y/4 = Y/2 tiene una distribución χ2 con 3 grados de libertad. Universidad Chile) Prob. pero demostraremos en el Ejercicio 6. Esto es. f ( y) = b 0.46 que si Y tiene una distribución gamma con a = n/2 para algún entero n. 160 / 250 . por ejemplo.5) = P([Y/2] < 1.Clase 11: Variables aleatorias continuas usuales II En casi todos los textos de estadística se pueden ver tablas que dan probabilidades asociadas con distribuciones χ2. si Y tiene una distribución gamma con a = 1. Veremos en el siguiente ejemplo que la distribución exponencial proporciona un modelo para la distribución de la vida útil de ese componente. dado que ya ha operado durante al menos a unidades de tiempo. De ahí que.5 = 3/2 y b = 4. pero demostraremos en el Ejercicio 6. la probabilidad de que el componente opere durante más de a + b unidades de tiempo. P(Y < 3. Vicente Acu˜ na (CMM. Universidad de Chile) Prob. es la misma que la probabilidad de que un componente nuevo opere al menos b unidades de tiempo si el componente nuevo se pone en servicio en el tiempo 0. La función de densidad exponencial a menudo es de ayuda para modelar la vida útil de componentes electrónicos. 0 ≤ y < ∞.75) se puede hallar usando tablas de la distribución χ2 de las que se puede disponer fácilmente. da puntos porcentuales asociados con distribuciones χ2 para numerosas opciones de ν. en cualquier otro punto. entonces 2Y/b = 2Y/4 = Y/2 tiene una distribución χ2 con 3 grados de libertad. y Est. se llama función de densidad exponencial. La función de densidad gamma en la que a = 1. Variables aleatorias continuas DE F IN IC IÓ N 4. Suponga que el tiempo que ya ha operado un componente no afecta su probabilidad de operar durante al menos b unidades de tiempo adicionales. Apéndice 3. La Tabla 6.11 Se dice que una variable aleatoria Y tiene una distribución exponencial con parámetro b > 0 si y sólo si la función de densidad de Y es 1 −y#b e . No se dispone fácilmente de tablas de la distribución gamma general. Entonces. entonces 2Y/b tiene una distribución χ2 con n grados de libertad. Un fusible es un ejemplo de un componente para el cual a veces esta suposición es razonable. 10 Si Y es una variable aleatoria exponencial con parámetro b. La demostración se sigue directamente del Teorema 4. entonces m = E(Y) = b Demostración EJ E MP L O 4. Un fusible es un ejemplo de un compone a veces esta suposición es razonable. Suponga que Y tiene una función de densidad de probabilidad exponencial. Suponga que el tiempo que ya ha operado un com aleatorias continuas ta su probabilidad de operar durante al menos b unidades de tiempo adicion probabilidad de que el componente opere durante más de a + b unidades de t ya ha operado durante al menos a unidades de tiempo.8 con a = 1.Clase 11: Variables aleatorias continuas usuales II Variables La función de densidad exponencial a menudo es de ayuda para modela componentes electrónicos. Universidad de Chile) Prob.10 y s2 = V(Y) = b2. P(Y > a + b)Y > a) = P(Y > b). 161 / 250 . Veremos en el siguiente ejemplo qu exponencial proporciona un modelo para la distribución de la vida útil de e TE O R E M A 4. y Est. es la misma que la que un componente nuevo opere al menos b unidades de tiempo si el comp pone en servicio en el tiempo 0. Vicente Acu˜ na (CMM. D a > 0 y b > 0. es la misma que la probabilidad de menos b unidades de tiempo si el componente nuevo se pone en servicio en el tiempo 0. La demostración se sigue directamente del Teorema 4. y Est. -04. entonces m = E(Y) = b Demostración E J E MPL O 4. Suponga que Y tiene una función de densidad de probabilidad exponencial.indd 188 Vicente Acu˜ na (CMM.10 Si Y es una variable aleatoria exponencial con parámetro b.8 con a = 1. Demuestre que. Universidad de Chile) 27/7/09 02:2 Prob. Veremos en el siguiente ejemplo que la distribución exponencial proporciona un modelo para la distribución de la vida útil de ese componente. si a > 0 y b > 0. 162 / 250 .ya ha operado durante al menos a unidades de tiempo. P(Y > a + b)Y > a) = P(Y > b).10 y s2 = V(Y) = b2. Clase 11: que Variables aleatorias continuas II un componente nuevo usuales opere al Variables aleatorias continuas TE O RE MA 4. Un fusible es un ejemplo de un componente para el cual a veces esta suposición es razonable. 0. B(α . Se dice que una variable aleatoria Y tiene una distribución de probabilidad beta con parámetros a > 0 y b > 0 si y sólo si la función de densidad de Y es f ( y) = y a−1 (1 − y) b−1 .17. Universidad de Chile) Prob. b) 0 ≤ y ≤ 1. por ejemplo como la proporción de impurezas en un producto químico o la proporción de tiempo que una máquina está en reparación. Frecuentemente se usa como modelo para proporciones.La distribución de probabilidad beta Clase 11: Variables aleatorias continuas usuales II La función de densidad beta es una función de densidad de dos parámetros definida sobre Variables aleatorias continuas el intervalo cerrado 0 ≤ y ≤ 1. Algunos de éstos se muestran en la Figura 4. 163 / 250 . donde B (α. Ciertos Vicente Acu˜ na (CMM. en cualquier otro punto. y Est. b) = 1 0 y a−1 (1 − y) b−1 dy = a b . a + b) Las gráficas de funciones de densidad beta toman formas muy diferentes para diversos valores de los dos parámetros a y b. 7 F I G U R A 4. y 164 / 250 . y Est.Clase 11: Variables aleatorias continuas usuales II Variables aleatorias continuas 4.17 Funciones de densidad beta La distribución de probab f ( y) ! =5 " =3 ! =3 " =3 ! =2 " =2 0 Vicente Acu˜ na (CMM. Universidad de Chile) 1 Prob. .30. .95 y .70. . La página web de Thomson contiene una aplicación breve. Una forma incluso más fácil para hallar probabilidades y cuantiles asociados con variables aleatorias de distribución beta es usar directamente software apropiado. 10. Apéndice 3. 20 y 25 y p = . El modo más eficiente de obtener probabilidades binomiales es usar un software de estadística como el R o S–Plus (vea el Capítulo 3). Beta Probabilities. .60. 1$b) de R (o S–Plus) genera P(Y ≤ y0). 1$b ) da el p–ésimo cuantil.La función de distribución acumulativa binomial se presenta en la Tabla 1. . .90. Además. a. a.11 Si Y es una variable aleatoria con distribución beta a > 0 y b > 0. el comando pbeta(y0. Variables aleatorias continuas T E O R E M A 4.05. 15. 165 / 250 . . P(Y > y0)] y cuantiles asociados con variables aleatorias con distribución beta.99. .80. y Est. entonces m = E(Y ) a a +b y indd 195 Vicente Acu˜ na (CMM.10. . Universidad de Chile) s 2 = V (Y ) = ab .20. mientras que qbeta(p. (a +b ) 2 (a + b + 1) 27/7/09 02:25 Prob.40. para n Clase 11: Variables aleatorias continuas usuales II = 5. . el valor de fp de manera que P(Y ≤ fp) = p. que proporciona probabilidades de “cola superior” [es decir. .50.01. si Y es una variable aleatoria con distribución beta y parámetros a y b. 166 / 250 . y Est.Clase 12: Funci´ on generadora de momento y Teo. de Tchebysheff Vicente Acu˜ na (CMM. Universidad de Chile) Prob. de Tchebysheff Clase 12: Funci´on generadora de momento y Teo. Vamos a ver un conjuntos de medidas descriptivas que (al menos en ciertas condiciones) definen una distribuci´ on de manera u ´nica. Vicente Acu˜ na (CMM. 167 / 250 . La esperanza µ y la varianza σ 2 son medidas descriptivas de la distribuci´on de la v.a. de Tchebysheff Funci´on generadora de momento Consideremos una variable aleatoria discreta o continua.Clase 12: Funci´ on generadora de momento y Teo. Estas medidas corresponden a “los momentos” de la distribuci´on. Muchas distribuciones diferentes pueden tener la misma esperanza y varianza. y Est.. Universidad de Chile) Prob. pero en ning´ un caso la definen completamente. y Est.a. µ0iX = µ0iY para todo i = {1. . Primer momento: µ01 = E (Y ) = µ Segundo momento: µ02 = E (Y 2 ) = σ 2 + µ2 Bajo ciertas condiciones. .e.}) entonces X e Y tienen la misma distribuci´ on de probabilidad. 2. . Universidad de Chile) Prob. si X e Y son dos v. con igual valor para todos los momentos (i. 168 / 250 . en una sola funci´on: la funci´on generadora de momento.a. Vicente Acu˜ na (CMM. Podemos “resumir” todos los momentos de una v. de Tchebysheff Funci´on generadora de momento Definition El k-´esimo momento de una variable aleatoria Y se define como E (Y k ) y se denota por µ0k .Clase 12: Funci´ on generadora de momento y Teo. . Universidad de Chile) Prob. . y Est. Veamos (pizarra) que la f.m.es igual a: E (e tY ) = 1 + tµ01 + t3 t2 0 µ2 + µ03 + . 2! 3! Es decir que efectivamente contiene todos los momentos de Y Vicente Acu˜ na (CMM. -si existe.g.Clase 12: Funci´ on generadora de momento y Teo. Decimos que una funci´ on generadora de momento para Y existe si existe una constante positiva b tal que m(t) es finita para |t| ≤ b. 169 / 250 . de Tchebysheff Funci´on generadora de momento Definition La funci´on generadora de momento m(t) para una variable aleatoria Y se define como m(t) = E (e tY ). 170 / 250 . entonces para cualquier entero positivo k. y Est.Clase 12: Funci´ on generadora de momento y Teo. Vicente Acu˜ na (CMM. # d k m(t) = m(k) (0) = µ0k . Universidad de Chile) Prob. dt k t=0 En otras palabras. de Tchebysheff Funci´on generadora de momento Theorem Si m(t) existe. si calculamos la k-´esima derivada de m(t) con respecto a t y luego evaluamos t = 0. el resultado ser´a µ0k . la esperanza y varianza de la v. 171 / 250 . de Poisson.g. Universidad de Chile) Prob.Clase 12: Funci´ on generadora de momento y Teo. Suponga que Y es una variable aleatoria con funci´on generadora de t momento mY (t) = e 3.2(e −1) ¿Cu´al es la distribuci´on de Y ? Vicente Acu˜ na (CMM.a. y Est. de Tchebysheff Funci´on generadora de momento Ejemplo variable discreta: Encuentre la funci´on generadora de momento m(t) para una variable aleatoria con distribuci´ on de Poisson y media λ.m. Encontrar a partir de la f. g. Universidad de Chile) Prob. Encontrar a partir de la f. gamma. la esperanza y varianza de la v. Vicente Acu˜ na (CMM. de Tchebysheff Funci´on generadora de momento Ejemplo variable continua: Encuentre la funci´on generadora de momento m(t) para una variable aleatoria con distribuci´ on gamma.Clase 12: Funci´ on generadora de momento y Teo.a. y Est.m. 172 / 250 . 173 / 250 . y Est.Clase 12: Funci´ on generadora de momento y Teo. Universidad de Chile) Prob.m.g. de Tchebysheff Funci´on generadora de momento T´ıpicamente los res´ umenes de las variables aleatorias discretas y continuas m´as comunes incluyen la f. de la distribuci´on Vicente Acu˜ na (CMM. Universidad de Chile) Prob. y Est. . 1. . . . y! l l exp[l(et − 1)] r p r (1 − p) p2 pet 1 − (1 − p)et y = 0. Tabla 1 Distribuciones discretas Distribución Función de probabilidad Binomial p( y) = n y p y (1 − p) n−y . n r N N −r N N −n N −1 No existe en forma cerrada y = 0. . . 1. y = 1. . r si n > r Poisson p( y) = l y e−l . n Geométrica p( y) = p(1 − p) y−1 . . varianza y fgm. y = r. 174 / 250 . n si n ≤ r . 2. Hipergeométrica p( y) = r y N n N −r n−y nr N . . discretas: distribuci´on. . . Media Varianza Función generadora de momento np np(1 − p) [ pet + (1 − p)]n 1 p 1−p p2 pet 1 − (1 − p)et y = 0. . de Tchebysheff v. r 837 Vicente Acu˜ na (CMM. .a. . . 1. y = 0.de probabilidad común Clase 12: Funci´ on generadora de momento y Teo. . . . . Binomial negativa p( y) = y−1 r −1 pr (1 − p) y−r . r + 1. . . media. 1. 2. a 0 < y <q Ji-cuadrada f ( y) = ( y) (y/2)−1 e−y/2 . de Tchebysheff v. continuas: distribuci´on. media. varianza y fgm.Clase 12: Funci´ on generadora de momento y Teo. 0<y <1 Vicente Acu˜ na (CMM. medias. varianzas y funciones generadoras de momento de probabilidad común Tabla 2 Distribuciones continuas Distribución Uniforme Normal Función de probabilidad f ( y) = f ( y) = 1 ∶u1 ≤ y ≤ u2 u2 − u1 1 s√2p 1 2s2 exp − ( y − m) 2 Media Varianza Función generadora de momento u1 + u2 2 (u2 − u1 ) 2 12 et u2 − et u1 t (u2 − u1 ) m s2 b b2 (1 − bt) −1 ab ab 2 (1 − bt) −a v 2v (1 − 2t) −y/2 a a +b ab (a + b) 2 (a + b + 1) no existe en forma cerrada exp mt + t 2 s2 2 −q < y < + q Exponencial f ( y) = 1 −y/b ∶ e b b>0 0<y< q Gamma 1 f ( y) = y a−1 e−y/b . Universidad de Chile) Prob. 838 Apéndice 2 Distribuciones.a. 2v/2 v/2) y >0 Beta f ( y) = + b) y a−1 (1 − y) b−1 . 175 / 250 . y Est. de Tchebysheff Teorema de Tchebysheff En la primera clase vimos que en una variable aleatoria normal. Adem´as el 95 % est´a a dos desviaciones est´andar mientras que a tres desviaciones est´andar se encuentra casi toda la probabilidad.Clase 12: Funci´ on generadora de momento y Teo. el 68 % de la probabilidad se concentra a una distancia de una desviaci´on est´andar de la media. Podemos establecer alguna cota que sirva para evaluar la dispersi´on de cualquier distribuci´ on (no necesariamente normal)? Vicente Acu˜ na (CMM. Universidad de Chile) Prob. 176 / 250 . y Est. 177 / 250 . Entonces. y Est. Demostaci´on: Pizarra Vicente Acu˜ na (CMM. para cualquier k > 0 P(|Y − µ| < kσ) ≥ 1 − 1 k2 P(|Y − µ| ≥ kσ) ≤ 1 − 1 k2 o equivalentemente Se le llama tambi´en desigualdad de Tchebysheff. Universidad de Chile) Prob. de Tchebysheff Teorema de Tchebysheff Theorem Sea Y una variable aleatoria con media finita µ y varianza σ 2 .Clase 12: Funci´ on generadora de momento y Teo. poco frecuente. de Tchebysheff Teorema de Tchebysheff Lo que nos da el teorema es una cota de cuanta probabilidad hay a k desviaciones est´andar de la media. Lo interesante es que no necesitamos saber la distribuci´on. Vicente Acu˜ na (CMM. O aunque sepamos la distribuci´on. 178 / 250 . Universidad de Chile) Prob.Clase 12: Funci´ on generadora de momento y Teo. S´olo la esperanza y varianza. sirve para evaluar r´apidamente si un resultado es raro. y Est. Un nuevo trabajador de mantenimiento tarda 22.5 minutos en probar la m´aquina.Clase 12: Funci´ on generadora de momento y Teo. 179 / 250 . ¿El tiempo que tard´o para realizar la prueba es mucho mayor comparado con la experiencia anterior? Soluci´on: Pizarra Vicente Acu˜ na (CMM. y Est. Universidad de Chile) Prob. de Tchebysheff Teorema de Tchebysheff Ejemplo: Suponga que la experiencia ha demostrado que el tiempo Y (en minutos) necesario para realizar una prueba peri´odica de mantenimiento en una m´aquina de dictados sigue una distribuci´on gamma con α = 3.1 y β = 2. Clase 12: Funci´ on generadora de momento y Teo. Y sea mayor que 16 pero menor que 24? Soluci´on: Propuesto Vicente Acu˜ na (CMM. ha sido observado durante un largo periodo y se encontr´o que tiene una media de 20 y desviaci´ on est´andar de 2. y Est. de Tchebysheff Teorema de Tchebysheff Ejemplo: El n´ umero de clientes por d´ıa en un mostrador de ventas. La distribuci´on de probabilidad de Y no se conoce. ma˜ nana. Universidad de Chile) Prob. ¿Qu´e se puede decir acerca de la probabilidad de que. Y . 180 / 250 . Universidad de Chile) Prob.Clase 13: Distrib. condicional e independencia Vicente Acu˜ na (CMM. multivariantes marginal. independ. condicional. y Est. 181 / 250 . multivariantes: marginal. Clase 13: Distrib. Y1 e Y2 podemos denotar el evento “sale un seis y un cuatro” como la intersecci´ on de los eventos (Y1 = 6). Podemos 182 / 250 . independ. (Y2 = 4). Y4 : el producto del n´ umero de puntos que aparecen en los dados. y2 ) para todo (y1 . Luego.Y2 (y1 . Distribuci´on Multivariantes Dado el experimento lanzar dos dados. multivariantes marginal. Y1 : el n´ umero de puntos que aparecen en el dado 1. y2 ). Vicente Acu˜ na (CMM. As´ı podemos calcular la probabilidad pY1 . Si consideramos las v. condicional. 4) = calcular entonces pY1 .a. 1 36 . Universidad de Chile) Prob.Y2 (6. y Est. podemos definir varias variables aleatorias para describir los posibles resultados. podemos identificar eventos interesantes que se definen a partir de m´as de una variable aleatoria. Y3 : la suma del n´ umero de puntos en los dados. Y2 : el n´ umero de puntos que aparecen en el dado 2.Clase 13: Distrib. multivariantes marginal. y2 ) 1!36 0 1 2 1 2 3 4 5 6 y1 3 4 5 6 y2 Vicente Acu˜ na (CMM. Distribuci´on Multivariantes 5. independ.1 Función de probabilidad bivariante. condicional. 183 / 250 . y Est.Clase 13: Distrib. y2 = número de puntos en el dado 2 Distribuciones de probabilidad bivariantes y mu p ( y1. y1 = número de puntos en el dado 1. Universidad de Chile) Prob.2 F I G U R A 5. (Y2 = y2 ). . y Est. . . . . . . yn ). y2 . multivariantes marginal. 184 / 250 . Universidad de Chile) Prob. . Yn = yn ) o simplemente por el vector (y1 . . . . . . . independ. . Queremos obtener la funci´ on de probabilidad (o densidad) del vector (y1 . .Clase 13: Distrib. . Distribuci´on Multivariantes Dadas las variables aleatorias Y1 . Yn vamos a identificar la intersecci´ on de los eventos (Y1 = y1 ). y2 . Y2 . . . Vicente Acu˜ na (CMM. (Yn = yn ) por el vector (Y1 = y1 . Y2 = y2 . . yn ). condicional. y2 ) = P(Y1 = y1 . −∞ < y2 < ∞ Prob. Funci´on de probabilidad conjunta Definition Sean Y1 y Y2 variables aleatorias discretas. independ. La funci´ on de probabilidad conjunta (o bivariante) para Y1 y Y2 est´a dada por p(y1 . multivariantes marginal. 185 / 250 .Clase 13: Distrib. y Est. Vicente Acu˜ na (CMM. condicional. Y2 = y2 ). Universidad de Chile) −∞ < y1 < ∞. Clase 13: Distrib. y2 ) a los que se asignan probabilidades diferentes de cero. entonces 1. Universidad de Chile) Prob. y1 . Funci´on de probabilidad conjunta Theorem Si Y1 y Y2 son variables aleatorias discretas con funci´ on de probabilidad conjunta p(y1 . 186 / 250 . y2 ). independ. y2 ) = 1 donde la suma es para todos los valores (y1 . P 2. y2 . y Est. multivariantes marginal. condicional. y2 ) ≥ 0 para todo y1 . p(y1 .y2 p(y1 . Vicente Acu˜ na (CMM. y Est. condicional. Denote con Y1 el n´ umero de clientes que escogen la caja 1 y con Y2 el n´ umero que selecciona la caja 2. Funci´on de probabilidad conjunta Ejemplo: Un supermercado local tiene tres cajas.Clase 13: Distrib. Cada cliente escoge una caja de manera aleatoria. multivariantes marginal. 187 / 250 . independ. Universidad de Chile) Prob. Vicente Acu˜ na (CMM. independientemente del otro. Dos clientes llegan a las cajas en momentos diferentes cuando las cajas no atienden a otros clientes. Encuentre la funci´on de probabilidad conjunta de Y1 y Y2 . Y2 ≤ y2 ). Universidad de Chile) −∞ < y1 < ∞. multivariantes marginal. y2 ) = P(Y1 ≤ y1 . 188 / 250 . condicional. y2 ) est´a dada por F (y1 . y Est. −∞ < y2 < ∞ Prob. independ. Vicente Acu˜ na (CMM.Clase 13: Distrib. Distribuci´on (acumulada) conjunta Definition Sean Y1 y Y2 variables aleatorias discretas. La funci´ on de distribuci´on (acumulada) conjunta F (y1 . y Est. tal que Z y1 Z y2 F (y1 . condicional. 189 / 250 . −∞ < y1 < ∞. multivariantes marginal. Vicente Acu˜ na (CMM. Si existe una funci´ on no negativa f (y1 . t2 )dt2 dt1 .Clase 13: Distrib. −∞ −∞ para todo −∞ < y1 < ∞. y2 ). entonces se dice que Y1 y Y2 son variables aleatorias conjuntamente continuas. y2 ). y2 ) recibe el nombre de funci´on de densidad de probabilidad conjunta. independ. La funci´on f (y1 . Universidad de Chile) Prob. Densidad de probabilidad conjunta Definition Sean Y1 y Y2 variables aleatorias continuas con funci´ on de distribuci´on conjunta F (y1 . y2 ) = f (t1 . condicional. y2 ) = 1 1 3. entonces 1. Notar que F (y1∗ . y2 ) = y1 →−∞ y2 →−∞ l´ım F (y1 . y2 ) = 0 y2 →−∞ 2. y2∗ ) − F (y1∗ . y2 →∞ Si y1∗ > y1 y y2∗ > y2 entonces F (y1∗ . Universidad de Chile) Prob. y Est. y2 ) − F (y1 . multivariantes marginal. y2 < Y2 ≤ y2∗ ) ≥ 0 Vicente Acu˜ na (CMM. y2∗ ) − F (y1∗ . y2∗ ) + F (y1 . y2∗ ) + F (y1 . 190 / 250 . y2 ) = y1 →−∞ l´ım F (y1 . y2 ). y2 ) ≥ 0. y2 ) es exactamente la probabilidad P(y1 < Y1 ≤ y1∗ . Propiedades de funci´on de probabilidad conjunta Theorem Si Y1 y Y2 son variables aleatorias con funci´ on de distribuci´on conjunta F (y1 .Clase 13: Distrib. y l´→∞ ım F (y1 . l´ım F (y1 . y2 ) − F (y1 . independ. multivariantes marginal. y2 )dy1 dy2 = 1 Vicente Acu˜ na (CMM. entonces 1. y Est. f (y1 . independ. y2 . −∞ −∞ f (y1 . Propiedades de funci´on de probabilidad conjunta Theorem Si Y1 y Y2 son variables aleatorias continuas conjuntas con una funci´on de densidad conjunta dada por f (y1 . R∞ R∞ 2. condicional. y2 ). Universidad de Chile) Prob.Clase 13: Distrib. y2 ) ≥ 0 para toda y1 . 191 / 250 . 2).Para el caso continuo univariante. y Densidad Bivariante (Figura 5. y2) f ( y1. condicional. De igual manera. la función de densidad de probabilid bivariante f (y1. Clase 13: Distrib. multivariantes marginal. b1 < Y2 ≤ b2 ) = f (y1 . y2 )dy1 dy2 b1 Vicente Acu˜ na (CMM. las áreas bajo la densidad de probabilidad para un inte valo corresponden a probabilidades. a1 192 / 250 . y2 ) a1 0 a2 y1 b1 b2 y2 Z b2 Z a2 P(a1 < Y1 ≤ a2 . independ. y Est. y2) traza una superficie de densidad de probabilidad sobre el plano (y1. R A 5. Universidad de Chile) Prob.2 ensidad f (y1. Encuentre P(0. condicional. Vicente Acu˜ na (CMM. si se consideran dos regiones de igual ´area y dentro del cuadrado unitario es igualmente probable que la part´ıcula se encuentre en cualquiera de las dos.5). 0. Esto es.Clase 13: Distrib. 0 ≤ Y2 ≤ 0. 193 / 250 .2. F (0.3. b. 0 ≤ y2 ≤ 1 f (y1 . multivariantes marginal. a. Denote con Y1 y Y2 las coordenadas de la ubicaci´ on de la part´ıcula.4). y2 ) = 0 en cualquier otro punto. c.1 ≤ Y1 ≤ 0. Dibuje la superficie de densidad de probabilidad. Ejemplo Suponga que una part´ıcula radiactiva se localiza aleatoriamente en un cuadrado con lados de longitud unitaria. independ. Universidad de Chile) Prob. y Est. Un modelo razonable para el histograma de frecuencia relativa para Y1 y Y2 es la an´aloga bivariante de la funci´ on de densidad uniforme univariante: ( 1 0 ≤ y1 ≤ 1. Como lo indican consideraciones geométricas.2 dy2 = 0 .08.08. . independ.4 0 . y Est.4 y1 1 y2 Vicente Acu˜ na (CMM.3. que obtuvimos mediante integración al principio de esta sección. G U R A 5. Ejemplo 5.2. y2). Universidad de Chile) Prob.4 Clase 13: Distrib.4) 1 0 .. condicional.3 f ( y1.2 1 . la probabilidad deseada (vo es igual a . que está sombread Figura 5. y2)= 1. 194 / 250 . EjemploLa probabilidad F(. y2 ) F(.4) corresponde al volumen bajo f(y1. = 0 y1 .3 resentación geométrica de f (y1.2 dy2 = .2. . multivariantes marginal. Vicente Acu˜ na (CMM. Denote con Y2 la proporci´on de la capacidad del tanque que se vende durante la semana. condicional. Universidad de Chile) Prob. Y1 var´ıa de una semana a otra.Clase 13: Distrib. independ. y Est. la cantidad de gasolina vendida. 195 / 250 . Suponga que la funci´on de densidad conjunta para Y1 y Y2 est´a dada por ( 3y1 0 ≤ y2 ≤ y1 ≤ 1 f (y1 . estas dos variables toman valores entre 0 y 1. Debido a suministros limitados. Encuentre la probabilidad de que menos de la mitad del tanque tenga gasolina y m´as de un cuarto del tanque se venda (Grafico en siguiente slide). no puede ser mayor que la cantidad disponible. y2 . multivariantes marginal. Denote con Y1 el nivel de gasolina (proporci´ on) que alcanza el tanque despu´es de surtirlo. Como Y1 y Y2 son proporciones. Adem´as. Ejemplo Se ha de almacenar gasolina en un enorme tanque una vez al principio de cada semana y luego se vende a clientes individuales. y2 ) = 0 en cualquier otro punto. y1 . 4 ensidad para el mplo 5. y2) es p Clase 13: Distrib. multivariantes marginal. independ. y2 ) 3 1 0 y1 1 y2 Vicente Acu˜ na (CMM. Figura ejemplo R A 5. 196 / 250 .4 f ( y1.dad de observar un valor en una región es el volumen bajo de la región de interés. Universidad de Chile) Prob. La función de densidad f(y1. y Est. condicional. todos y2 Vicente Acu˜ na (CMM. y Est. y2 ).Clase 13: Distrib. independ. y2 ) y p2 (y2 ) = p(y1 . condicional. respectivamente. multivariantes marginal. Funciones de probabilidad marginal y densidad marginal Definition Sean Y1 y Y2 variables aleatorias discretas conjuntas con funci´on de probabilidad conjunta p(y1 . Entonces las funciones de probabilidad marginal de Y1 y Y2 . 197 / 250 . y2 ). Universidad de Chile) todos y1 Prob. est´an dadas por X X p1 (y1 ) = p(y1 . Funciones de probabilidad marginal y densidad marginal Definition Sean Y1 y Y2 variables aleatorias continuas conjuntas con funci´on de densidad conjunta f (y1 . y2 )dy2 y f2 (y2 ) = f (y1 . y Est. respectivamente. 198 / 250 . Universidad de Chile) −∞ Prob. condicional. Entonces las funciones de densidad marginal de Y1 y Y2 . y2 ). −∞ Vicente Acu˜ na (CMM. independ. y2 )dy1 .Clase 13: Distrib. est´an dadas por Z ∞ Z ∞ f1 (y1 ) = f (y1 . multivariantes marginal. 199 / 250 . Vicente Acu˜ na (CMM. Universidad de Chile) Prob. multivariantes marginal. Encuentre la funci´ on de probabilidad conjunta de Y1 y Y2 y luego encuentre la funci´on de probabilidad marginal de Y1 . condicional. y Est. dos dem´ ocratas y uno independiente se ha de seleccionar aleatoriamente un comit´e de dos personas. Ejemplo De un grupo de tres republicanos.Clase 13: Distrib. Denote con Y1 el n´ umero de republicanos y con Y2 el n´ umero de dem´ocratas del comit´e. independ. Clase 13: Distrib. multivariantes marginal.Del mismo modo.2 Función de probabilidad conjunta para Y1 y Y2. y Est. p1 (1) = 9#15 y p1 (2) = 3#15 Ejemplo En forma análoga. condicional. Ejemplo 5. la función de probabilidad marginal de Y2 est Tabla 5. 200 / 250 . Universidad de Chile) Prob.5 y1 y2 Total Total Vicente Acu˜ na (CMM. independ. Clase 13: Distrib. Grafique f (y1 . y2 ) = 0 0 ≤ y1 ≤ 1. Universidad de Chile) Prob. 201 / 250 . multivariantes marginal. Ejemplo Sea ( 2y1 f (y1 . independ. y Est. 0 ≤ y2 ≤ 1 en cualquier otro punto. condicional. y2 ) y encuentre las funciones de densidad marginal para Y1 y Y2 . Vicente Acu˜ na (CMM. la densidad resultante sería uniforme. Ejemplo 5.4.6 Representación geométrica de f(y1. independ.6 f ( y1. y2 ) 2 1 1 0 y1 1 y2 densidad de probabilidad triangular que se vería como el lado de la cuña de la Figura 5.Clase 13: Distrib. y2). Confirmaremos estas soluciones visuales mediante la aplicación de la Definición 5.6. y2 ) dy2 = Prob. Universidad de Chile) f 1 ( y1 ) = q f ( y1 . Vicente Acu˜ na (CMM. Entonces. si 0 ≤ y1 ≤ 1. Si la probabilidad estuviera acumulada a lo largo del eje y2 (acumulándose a lo largo de líneas paralelas al eje y1). Ejemplo 238 Capítulo 5 Distribuciones de probabilidad multivariantes F I G U R A 5. 1 0 2y1 dy2 = 2y1 y2 1 0 202 / 250 . multivariantes marginal. −q y Est. condicional. respectivamente. Universidad de Chile) Prob. condicional. Funci´on de probabilidad condicional Definition Si Y1 y Y2 son variables aleatorias discretas conjuntas con funci´on de probabilidad conjunta p(y1 . Y2 = y2 ) = P(Y2 = y2 ) p2 (y2 ) siempre que p2 (y2 ) > 0. independ.Clase 13: Distrib. 203 / 250 . entonces la funci´ on de probabilidad discreta condicional de Y1 dada Y2 es p(y1 |y2 ) = P(Y1 = y1 |Y2 = y2 ) = p(y1 . y Est. Vicente Acu˜ na (CMM. multivariantes marginal. y2 ) y funciones de probabilidad marginal p1 (y1 ) y p2 (y2 ). y2 ) P(Y1 = y1 . dado que una de las dos personas del comit´e es dem´ ocrata. encuentre la distribuci´ on condicional para el n´ umero de republicanos seleccionados para el comit´e. multivariantes marginal. Esto es. y Est. Universidad de Chile) Prob. 204 / 250 . Ejemplo Volvamos al ejemplo en que de un grupo de tres republicanos. independ. Vicente Acu˜ na (CMM. dos dem´ ocratas y uno independiente se ha de seleccionar aleatoriamente un comit´e de dos personas.Clase 13: Distrib. Encuentre la distribuci´ on condicional de Y1 dado que Y2 = 1. condicional. Universidad de Chile) Prob. entonces la funci´ on de distribuci´on condicional de Y1 dado que Y2 = y2 es F (y1 |y2 ) = P(Y1 ≤ y1 |Y2 = y2 ).Clase 13: Distrib. multivariantes marginal. condicional. y Est. 205 / 250 . independ. Funci´on de distribuci´on condicional Definition Si Y1 y Y2 son variables aleatorias. Vicente Acu˜ na (CMM. Densidad condicional Definition Sean Y1 y Y2 variables aleatorias continuas conjuntas con densidad conjunta f (y1 . Para cualquier y2 tal que f2 (y2 ) > 0. y2 ) f (y2 |y1 ) = f1 (y1 ) Vicente Acu˜ na (CMM. y Est. independ. y2 ) f2 (y2 ) y. Universidad de Chile) Prob. para cualquier y1 tal que f1 (y1 ) > 0. y2 ) y densidades marginales f1 (y1 ) y f2 (y2 ).Clase 13: Distrib. la densidad condicional de Y2 dada Y1 = y1 est´a dada por f (y1 . condicional. 206 / 250 . respectivamente. multivariantes marginal. la densidad condicional de Y1 dada Y2 = y2 est´a dada por f (y1 |y2 ) = f (y1 . y Est. multivariantes marginal. independ. 207 / 250 .5 galones al empezar el d´ıa. los puntos (y1 . Vicente Acu˜ na (CMM. y2 ) = 0 en cualquier otro punto. Ejemplo Una m´aquina autom´atica expendedora de bebidas tiene una cantidad aleatoria Y2 de bebida en existencia al principio de un d´ıa determinado y dosifica una cantidad aleatoria Y1 durante el d´ıa (con cantidades expresadas en galones).Clase 13: Distrib. Universidad de Chile) Prob. Encuentre la densidad condicional de Y1 dada Y2 = y2 . Eval´ ue la probabilidad de que se venda menos de 1/2 gal´ on. La m´aquina no se reabastece durante el d´ıa y. en consecuencia. Se ha observado que Y1 y Y2 tienen una densidad conjunta dada por ( 1/2 0 ≤ y1 ≤ y2 ≤ 2 f (y1 . y2 ) est´an uniformemente distribuidos en el tri´angulo con las fronteras dadas. dado que la m´aquina contiene 1. Esto es. Y1 ≤ Y2 . condicional. 208 / 250 . y2). condicional. y2 ) = F1 (y1 )F2 (y2 ) para todo par de n´ umeros reales (y1. y F (y1 . Universidad de Chile) Prob. Independencia Definition Sea Y1 que tiene una funci´ on de distribuci´ on F1 (y1 ) y sea Y2 que tiene una funci´on de distribuci´ on F2 (y2 ). multivariantes marginal. Si Y1 y Y2 no son independientes.Clase 13: Distrib. y2 ) es la funci´on de distribuci´on conjunta de Y1 y Y2 . y Est. independ. Entonces se dice que Y1 y Y2 son independientes si y s´olo si F (y1 . se dice que son dependientes. Vicente Acu˜ na (CMM. y2). Independencia Theorem Si Y1 y Y2 son variables aleatorias discretas con funci´ on de probabilidad conjunta p(y1 . respectivamente. Vicente Acu˜ na (CMM. Universidad de Chile) Prob. entonces Y1 y Y2 son independientes si y s´olo si p(y1 . multivariantes marginal. independ.Clase 13: Distrib. y2 ) y funciones de probabilidad marginal p1 (y1 ) y p2 (y2 ). 209 / 250 . condicional. y2 ) = p1 (y1 )p2 (y2 ) para todos los pares de n´ umeros reales (y1. y Est. y2 ) = f1 (y1 )f2 (y2 ) para todos los pares de n´ umeros reales (y1. y Est. multivariantes marginal. Independencia Theorem Si Y1 y Y2 son variables aleatorias continuas con funci´on de densidad conjunta f (y1 . independ. 210 / 250 . entonces Y1 y Y2 son independientes si y s´olo si f (y1 . respectivamente. condicional. Vicente Acu˜ na (CMM. y2). y2 ) y funciones de densidad marginal f1 (y1 ) y f2 (y2 ). Universidad de Chile) Prob.Clase 13: Distrib. Universidad de Chile) Prob. Demuestre que Y1 e Y2 son independientes. Vicente Acu˜ na (CMM. condicional. Ejemplo Recordemos el ejemplo de tirar dos dados y tal que Y1 indica el valor del primer dado e Y2 indica el valor del segundo dado. independ. multivariantes marginal. 211 / 250 . y Est.Clase 13: Distrib. ¿Es el n´ umero de republicanos en el comit´e independientes del n´ umero de dem´ ocratas? Vicente Acu˜ na (CMM. independ.Clase 13: Distrib. condicional. Ejemplo Volvamos al ejemplo en que de un grupo de tres republicanos. 212 / 250 . Universidad de Chile) Prob. dos dem´ ocratas y uno independiente se ha de seleccionar aleatoriamente un comit´e de dos personas. multivariantes marginal. y Est. 213 / 250 .Clase 13: Distrib. multivariantes marginal. Demuestre que Y1 e Y2 son independientes. 0 ≤ y2 ≤ 1 en cualquier otro punto. y2 ) = 0 0 ≤ y1 ≤ 1. independ. Ejemplo Sea ( 6y1 y22 f (y1 . condicional. Universidad de Chile) Prob. y Est. Vicente Acu˜ na (CMM. multivariantes marginal. independ. y Est. Universidad de Chile) Prob. Ejemplo Sea ( 2 f (y1 . 214 / 250 . Demuestre que Y1 e Y2 son independientes. Vicente Acu˜ na (CMM. condicional.Clase 13: Distrib. y2 ) = 0 0 ≤ y2 ≤ y1 ≤ 1 en cualquier otro punto. para constantes a. 215 / 250 . y2 ) que es positiva si y s´ olo si a ≤ y1 ≤ b y c ≤ y2 ≤ d. y2 ) = g (y1 )h(y2 ) donde g (y1 ) es una funci´on no negativa de y1 solamente y h(y2 ) es una funci´on no negativa de y2 solamente. multivariantes marginal. Descomposici´on de conjunta Theorem Sean Y1 y Y2 que tienen una densidad conjunta f (y1 . y2 ) = 0 en otro caso.Clase 13: Distrib. b. y f (y1 . Universidad de Chile) Prob. Vicente Acu˜ na (CMM. independ. Entonces Y1 y Y2 son variables aleatorias independientes si y s´olo si f (y1 . c y d. condicional. y Est. : esperanza de funci´ on. y Est. 216 / 250 . teo. Multivar.Clase 14: Distrib. especiales Clase 14: Distribuciones Multivariantes: valor esperado de una funci´on y teoremas especiales Vicente Acu˜ na (CMM. Universidad de Chile) Prob. . . Yk )) = X X X g (y1 . . . yk ). yk )p(y1 . y2 . . Y2 . . . . 217 / 250 .: esperanza de funci´ on. y Est. . . que tienen funci´ on de probabilidad p(y1 . Multivar. . . Yk . todo yk todo y2 todo y1 Vicente Acu˜ na (CMM. . . . . . .. Universidad de Chile) Prob.. . . y2 . . Y2 . especiales Teoremas especiales Definition Sea g (Y1 . Entonces el valor esperado de g (Y1 . . . Yk ) es E (g (Y1 . yk ). . . y2 . . teo.Clase 14: Distrib. Y2 . Y1 . . Y2 . Yk ) una funci´ on de las variables aleatorias discretas. . . . Multivar. Y2 . y2 . .: esperanza de funci´ on. especiales Teoremas especiales Definition Sea g (Y1 . 218 / 250 . . . . . Y2 . Yk con funci´on de densidad conjunta f (y1 . . . . . yk ) f (y1 . . . Universidad de Chile) Prob. Yk ) es E (g (Y1 . . . . . y2 . Y2 . dyk −∞ −∞ Vicente Acu˜ na (CMM. . . . .. .Clase 14: Distrib. . Yk ) una funci´ on de las variables aleatorias continuas Y1 . y2 .. . . teo. yk )dy1 dy2 . . . Yk )) = Z ∞ Z ∞ Z ∞ . . −∞ g (y1 . Y2 . yk ) Entonces el valor esperado de g (Y1 . . . . y Est. teo. especiales Teoremas especiales Theorem Sea c una constante.Clase 14: Distrib. Vicente Acu˜ na (CMM. 219 / 250 . Universidad de Chile) Prob. y Est. Multivar. Entonces E (c) = c.: esperanza de funci´ on. Y2 )] = cE [g (Y1 . especiales Teoremas especiales Theorem Sea g (Y1 . 220 / 250 . Y2 ) una funci´on de las variables aleatorias Y1 y Y2 y sea c una constante. Universidad de Chile) Prob. Entonces E [cg (Y1 .: esperanza de funci´ on. Vicente Acu˜ na (CMM. Multivar. y Est. teo. Y2 )].Clase 14: Distrib. gk (Y1 .: esperanza de funci´ on. Y2 )] + . Entonces E [g1 (Y1 . Y2 ) + g2 (Y1 .. 221 / 250 . Y2 ). Universidad de Chile) Prob. Y2 )] + E [g2 (Y1 . teo. Y2 ) funciones de Y1 y Y2 . Multivar.. Vicente Acu˜ na (CMM. g2 (Y1 .Clase 14: Distrib. Y2 ) + . . . y Est.. . especiales Teoremas especiales Theorem Sean Y1 y Y2 variables aleatorias y g1 (Y1 .. + E [gk (Y1 . + gk (Y1 . Y2 )]. Y2 ). Y2 )] = E [g1 (Y1 . . especiales Teoremas especiales Theorem Sean Y1 y Y2 variables aleatorias independientes y sean g (Y1 ) y h(Y2 ) funciones s´olo de Y1 y Y2 . Vicente Acu˜ na (CMM. siempre que existan los valores esperados. teo. Entonces E [g (Y1 )h(Y2 )] = E [g (Y1 )]E [h(Y2 )]. y Est. 222 / 250 . Multivar.: esperanza de funci´ on. Universidad de Chile) Prob.Clase 14: Distrib. respectivamente. Universidad de Chile) Prob. Vicente Acu˜ na (CMM.’s Clase 15: Covarianza y correlaci´ on de dos variables aleatorias.a. 223 / 250 . y Est.Clase 15: Covarianza y correlaci´ on de dos v. Clase 15: Covarianza y correlaci´ on de dos v.a.’s Covarianza de dos v.a. En muchos casos de dependencia entre dos variables Y1 y Y2 se tiene que: cuando una variable toma valores altos la otra tambi´en toma valores altos. O cuando una toma valores altos la otra toma valores bajos. Este grado de dependencia se puede medir utilizando dos medidas similares: la covarianza y el coeficiente de correlaci´on. Estas miden que grado de linealidad hay en la dependencia entre ellas. Es bueno recalcar que hay otras dependencias entre variables que no son lineales, y que estas medidas pueden no ser muy buenos indicadores. De hecho, si las variables son independientes, la covarianza y la correlaci´on son cero (pues no hay una dependencia lineal), pero lo contrario no es necesariamente cierto: covariana y correlaci´on pueden ser cero, pero esto no es indicador que las variables sean necesariamente independientes. Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 224 / 250 Clase 15: Covarianza y correlaci´ on de dos v.a.’s Covarianza de dos v.a. Definition Si Y1 y Y2 son variables aleatorias con medias µ1 y µ2 , respectivamente, la covarianza de Y1 y Y2 es Cov (Y1 , Y2 ) = E [(Y1 − µ1 )(Y2 − µ2 )] Si Y1 aumenta cuando Y2 aumenta → covarianza positiva Si Y1 disminuye cuando Y2 aumenta → covarianza negativa Si no hay una tendencia clara → covarianza cercana a cero No sirve como medida absoluta de la dependencia Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 225 / 250 Clase 15: Covarianza y correlaci´ on de dos v.a.’s Covarianza de dos v.a. Sean Y y X v.a.’s y a, b constantes. De la definici´ on podemos ver las siguientes propiedades: Cov (Y , a) = 0 Cov (Y , Y ) = V (Y ) Cov (Y , X ) = Cov (X , Y ) Cov (aY , bX ) = ab Cov (Y , X ) Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 226 / 250 Clase 15: Covarianza y correlaci´ on de dos v.a.’s Covarianza de dos v.a. 5.7 Teorema: F I G U R A 5.8 Observaciones dependientes e independientes para (y1, y2) y2 y2 !2 !2 !1 (a) Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. y1 Covarianza de y1 !1 (b) 227 / 250 Clase 15: Covarianza y correlaci´ on de dos v.a.’s Coeficiente de correlaci´on Definition Si Y1 y Y2 son variables aleatorias con medias µ1 y µ2 , respectivamente, el coeficiente correlaci´on de Y1 y Y2 es ρ= Cov (Y1 , Y2 ) σ1 σ2 donde σ1 y σ2 son las desviaciones est´andar de Y1 y Y2 respectivamente. Es una medida m´as f´acil de comparar. Se puede demostrar que −1 ≤ ρ ≤ 1. El signo es el mismo del de la covarianza. ρ = 1 significa correlaci´ on perfecta (los puntos sobre una l´ınea de pendiente positiva) ρ = −1 tambi´en significa correlaci´ on perfecta (los puntos sobre una l´ınea de pendiente negativa) Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 228 / 250 Y2 ) = E [(Y1 − µ1 )(Y2 − µ2 )] = E (Y1 Y2 ) − E (Y1 )E (Y2 ).’s Covarianza de dos v.a. entonces es Cov (Y1 . respectivamente. 229 / 250 . Theorem Si Y1 y Y2 son variables aleatorias con medias µ1 y µ2 .a. Vicente Acu˜ na (CMM.Clase 15: Covarianza y correlaci´ on de dos v. Universidad de Chile) Prob. Dem: Usando propiedades de la esperanza. y Est. Clase 15: Covarianza y correlaci´ on de dos v.a.’s Ejemplo Sean las v.a. Y1 y Y2 con densidad conjunta dada por   3y1 , 0 ≤ y2 ≤ y1 ≤ 1, f (y1 , y2 ) = 0, en cualquier otro punto. Muestre que E (Y1 ) = 3/4 y que E (Y2 ) = 3/8. Muestre que la covarianza entre las v.a.’s es 0,02. Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 230 / 250 Clase 15: Covarianza y correlaci´ on de dos v.a.’s Covarianza de dos v.a. Theorem Si Y1 y Y2 son variables aleatorias independientes, entonces Cov (Y1 , Y2 ) = 0. As´ı, las variables aleatorias independientes deben ser no correlacionadas. Dem: Pizarra Ojo: La rec´ıproca no es cierta. Ver ejemplo. Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 231 / 250 ve en la Tabla 5.3. Demuestre que Y1 y Y2 son dependiente Clase 15: Covarianza y correlaci´ on de dos v.a.’s EjemploEl cálculo de probabilidades marginales da p (–1) = p (1) ución 1 1 = 6/ 16 = p2(0). El valor p(0, 0) = 0 en la celda del centro Tabla 5.3 Distribución de probabilidad conjunta, Ejemplo 5.24 y1 y2 −1 0 +1 −1 0 +1 1$16 3$16 1$16 3$16 0 3$16 1$16 3$16 1$16 Ver que p(0, 0) 6= p1 (0)p2 (0), pero que Cov (Y1 , Y2 ) = 0 Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 232 / 250 Clase 16: Funciones lineales de variables aleatorias Clase 16: Funciones lineales de variables aleatorias. Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 233 / 250 Clase 16: Funciones lineales de variables aleatorias Funciones lineales de variables aleatorias Veamos un caso particular de funciones de varias variables aleatorias, cuando se trata de una funci´ on lineal de varias variables aleatorias. Es decir si Y1 , Y2 , . . . , Yn son variables aleatorias y a1 , a2 , . . . , an constantes, estudiaremos que obtenemos con la variable aleatoria P U = ni=1 ai Yi . Sabemos por teorema anterior que la esperanza es lineal, lo que expresamos en el siguiente teorema. Vicente Acu˜ na (CMM, Universidad de Chile) Prob. y Est. 234 / 250 y Est. . 235 / 250 . y sean a1 . .a. . Y2 . . Universidad de Chile) Prob. . an constantes. . Yn variables aleatorias P tales que E (Yi ) = µi .Clase 16: Funciones lineales de variables aleatorias Funciones lineales de v. Sea U = ni=1 ai Yi . . .: esperanza Theorem Sean Y1 . Entonces se tiene que: E (U) = n X ai µi i=1 Vicente Acu˜ na (CMM. a2 . ’s: varianza Sabemos que E (Y1 + Y2 ) = µ1 + µ2 . y Est.a.Clase 16: Funciones lineales de variables aleatorias Funciones lineales de v. Vicente Acu˜ na (CMM. Universidad de Chile) Prob. 236 / 250 . Esta varianza considera casos en que (a) (b) (c) (d) Y1 Y1 Y1 Y1 es es es es menor que µ1 menor que µ1 mayor que µ1 mayor que µ1 y Y2 y Y2 y Y2 y Y2 es menor que µ2 es mayor que µ2 es menor que µ2 es mayor que µ2 Los casos (a) y (d) aportan m´as varianza y los casos (b) y (c) menos. ¿Cu´anto vale la varianza V (Y1 + Y2 )? ¿Cu´an dispersos est´an los valores que puede tomar Y1 + Y2 en torno a µ1 + µ2 ? Si Y1 y Y2 son independientes entonces se puede demostrar que V (Y1 + Y2 ) = V (Y1 ) + V (Y2 ). Pero todas las combinaciones son posibles (pues las variables son independientes). Pero. As´ı la varianza de Y1 + Y2 es mayor que la varianza que tendr´ıa si fueran independientes. As´ı la covarianza entrega una medida de la variaci´on conjunta de las variables. si las variables no son independientes y hay una alta covarianza positiva entre las variables entonces se tienen pocos casos (b) y (c) (no son muy probables!) y la probabilidad se concentra en los casos (a) y (d) que entregan mayor dispersi´on. Universidad de Chile) Prob. y Est. Y2 ) Vicente Acu˜ na (CMM. 237 / 250 . se tiene que V (Y1 + Y2 ) = V (Y1 ) + V (Y2 ) + 2Cov (Y1 . se tienen pocos casos (a) y (d). As´ı una covarianza alta implica que la varianza de Y1 + Y2 es mayor que la varianza que tendr´ıa la suma si fueran independientes. An´alogamante.’s: varianza En cambio. En general.Clase 16: Funciones lineales de variables aleatorias Funciones lineales de v.a. si hay una alta covarianza negativa. . Y2 .Clase 16: Funciones lineales de variables aleatorias Funciones lineales de v. Esta matriz es la matriz de covarianzas de las variables Y1 . . Universidad de Chile) Prob.’s: varianza P En general. para calcular la varianza de la funci´ on U = ni=1 Yi vamos a necesitar calcular las covarianzas entre todos los pares Yi Yj .a. Yi )). pues Cov (Yi . Yj ). 238 / 250 . entonces en la diagonal tendr´ıamos las varianzas. y Est. Yi ) = V (Yi ). i=1 j=1 Veamos el caso m´as general en el siguiente teorema. Yn . . Vicente Acu˜ na (CMM. Se puede demostrar que V (U) es la suma de todos los valores de esa matriz: n X n X V (U) = Cov (Yi . Yj ) = Cov (Yj . . Yj ). Es decir calculamos Cov (Yi . Si representamos estas covarianzas en una matriz de orden n (sim´etrica pues Cov (Yi . Y2 . y Est. .Clase 16: Funciones lineales de variables aleatorias Funciones lineales de v. . i=1 j=1 As´ı la varianza de U es exactamente la suma de todos los t´erminos de la matriz de covarianzas de los ai Yi . Entonces se tiene que: n X X X V (U) = ai2 V (Yi ) + 2 ai aj Cov (Yi .’s: varianza Theorem Sean Y1 . y sean a1 . Yj ). . . Universidad de Chile) Prob. . Vicente Acu˜ na (CMM. 239 / 250 . i=1 1≤i<j≤n o equivalentemente: n X n X V (U) = ai aj Cov (Yi . . an constantes. Sea U = i=1 ai Yi . . a2 . Yj ). . Yn variables aleatorias Pn tales que E (Yi ) = µi .a. Puede interpretarse como: la varianza que aporta cada t´ermino por separado (la diagonal de la matriz) m´as la covarianza que suma (o resta) cada par de variables. X2 . . . Xm variables aleatorias tales que E (Xi ) = ξi .Clase 16: Funciones lineales de variables aleatorias Funciones lineales de v. Entonces la covarianza entre las Pm n variables aleatorias U1 = i=1 ai Yi y U2 = i=1 bi Xi es Cov (U1 . b 2 . Xj ). . . Yn variables aleatorias tales que E (Yi ) = µi . a2 . . . Podemos recuperar la f´ ormula de la varianza calculando la covarianza de U consigo misma: V (U) = Cov (U. . Vicente Acu˜ na (CMM. an y b 1 . y sean X1 .a. . U2 ) = n X m X ai bj Cov (Yi . bm constantes. U). Sean a1 . Y2 . 240 / 250 . y Est. . i=1 j=1 Notar que este teorema es un caso general del teorema anterior.’s: covarianza Theorem Sean Y1 . Universidad de Chile) Prob. . . P . . . . . Universidad de Chile) Prob. 241 / 250 . y Est. Vicente Acu˜ na (CMM.Clase 17: Distribuciones de funciones de variables aleatorias Clase 17: Distribuciones de funciones de variables aleatorias. y Est.Clase 17: Distribuciones de funciones de variables aleatorias Distribuciones de funciones de variables aleatorias Veremos algunos m´etodos para calcular la distribuci´on de una funci´on de variables aleatorias: M´etodo de las funciones de distribuci´ on. Universidad de Chile) Prob. M´etodo de las funciones generadoras de momento. M´etodo de las transformaciones (auxiliar). 242 / 250 . Vicente Acu˜ na (CMM. . y2 . Determinar la funci´on distribuci´ on FU (u) = P(U ≤ u). . . Y2 . . . . Universidad de Chile) Prob. . . Para ello determinar la regi´on del espacio y1 . funci´ on de las v. Derivamos FU (u) para obtener la densidad Vicente Acu˜ na (CMM. 243 / 250 . . Y2 . yn ) en esa regi´on.’s Y1 .a. y Est. . .Clase 17: Distribuciones de funciones de variables aleatorias M´etodo de las funciones de distribuci´on Si U(Y1 . y2 . . Yn ) es una v. . Yn . . yn tal que U ≤ u e integramos la densidad conjunta f (y1 . . .a. .g. y Est. Universidad de Chile) Prob.’s Y1 .g. . . Vicente Acu˜ na (CMM.a. Y2 . . de U definida como mU (t) = E (e tU ).m.m.a. Y2 . obtenida es alguna conocida. . entonces tenemos la distribuci´on buscada. funci´ on de las v. Calcular la f. 244 / 250 . Yn ) es una v. . Yn . . Si la f. .Clase 17: Distribuciones de funciones de variables aleatorias M´etodo de las funciones generadoras de momentos Si U(Y1 . es decir. una distribuci´on normal con media 0 y varianza 1. Universidad de Chile) Prob. normal Sea Y una v. 245 / 250 . y Est.a. Demuestre que Y −µ Z= σ tiene una distribuci´on normal est´andar.Clase 17: Distribuciones de funciones de variables aleatorias Ejemplo: estandarizando una v.a. normalmente distribuida con media µ y varianza σ 2 . Soluci´on: Propuesta Vicente Acu˜ na (CMM. o lo que es lo mismo. y Est. Usando f. Vicente Acu˜ na (CMM. 246 / 250 .m. muestre que Z 2 tiene una distribuci´on gamma con α = 1/2 y β = 2.a.g. Soluci´on: Pizarra As´ı podemos ver que Z 2 es una gamma con par´ametros α = 1/2 y β = 2. normalmente distribuida con media 0 y varianza 1. Universidad de Chile) Prob.Clase 17: Distribuciones de funciones de variables aleatorias Ejemplo: normal est´andar al cuadrado Sea Z una v. una χ2 con ν = 1 grado de libertad. independientes Theorem Sean Y1 . . independientes. . Este resultado permite demostrar los siguientes dos teoremas. Universidad de Chile) Prob. . + Yn . y Est. Vicente Acu˜ na (CMM. .a. . 247 / 250 . Si U = Y1 + Y2 + . . entonces mU (t) = mY1 (t) × mY2 (t) × . × mYn (t) Dem: Usar esperanza de multiplicaci´ on de v. . .g.Clase 17: Distribuciones de funciones de variables aleatorias Suma de v. .m.a. . mY1 (t). mYn (t). respectivamente. . Yn variables aleatorias independientes con f. . mY2 (t). Y2 . Clase 17: Distribuciones de funciones de variables aleatorias Funci´on lineal de v. normales independientes Theorem Sean Y1 . . . Y2 . . + an µn i=1 V (U) = n X ai2 σi2 = a12 σ12 + a22 σ22 + . . 2. n y sean a1 . a2 . . para i = 1. . . + an2 σn2 . . . y Est. i=1 Vicente Acu˜ na (CMM. .a. . . Yn variables aleatorias independientes normalmente distribuidas con E (Yi ) = µi y V (Yi ) = σi2 . . an constantes. Si U= n X ai Yi = a1 Y1 + a2 Y2 + . . i=1 entonces U es una variable aleatoria normalmente distribuida con E (U) = n X ai µi = a1 µ1 + a2 µ2 + . + an Yn . . . 248 / 250 . . Universidad de Chile) Prob. . .a. . n y definimos Zi = Entonces Pn 2 i=1 Zi Yi − µi . normales est´andares indep. Vicente Acu˜ na (CMM. σi tiene una distribuci´ on χ2 con n grados de libertad. para i = 1. . . . Universidad de Chile) Prob. Yn variables aleatorias independientes normalmente distribuidas con E (Yi ) = µi y V (Yi ) = σi2 . . Y2 . . 2. n. Como vimos. la χ2 con n grados de libertad es un caso particular de la distribuci´on gamma. .Clase 17: Distribuciones de funciones de variables aleatorias Suma de cuadrados de v. El origen del nombre del par´ametro “n grados de libertad” viene de las n variables independientes involucradas. 249 / 250 . Las Zi son normales estandarizadas (media 0 y varianza 1). y Est. . . Este resultado muestra por qu´e se le bautiz´ o con un nombre espec´ıfico. i = 1. Theorem Sean Y1 . . 2. . 2 Una distribución x2 que muestra el área a de cola superior f(u) ! 0 Vicente Acu˜ na (CMM. 90 y 10 información acerca de estas distribuciones y la asociada con gra F I G U R A 7.99 y .10aleatorias . contiene xa2 = f1−a para diez valore .1. 2. En general. .995) para cada una de las 37 distribuci con grados de libertad 1. Apéndice 3. y Est. 50. 30 y 40. . Universidad de Chile) x2! Prob.95. 70. 60. . . .Clase 17: Distribuciones de funciones de variables f. P x 2 > xa2 = a Figura implica que P x 2 ≤ xa y que xa2 = f1−a . . . 80. La Tabla 6. .975. u 250 / 250 .90. el cuantil (1 − a) de la variable aleatoria x2. de una variable aleatoria x2 con 10 gl.
Copyright © 2024 DOKUMEN.SITE Inc.