documento_07_esperanza[1]

March 16, 2018 | Author: Mariana Gutierrez | Category: Variance, Random Variable, Integral, Probability Density Function, Probability Distribution


Comments



Description

07.ESPERANZA MATEMATICA VALOR ESPERADO Valor Medio. Sea X una Variable Aleatoria discreta o continua. Se denomina esperanza matemática de X o valor esperado, ) X ( E o bien µ , a la cantidad que se expresada como, ∫ ∑ +∞ ∞ − ⋅ · ⋅ · )dx f(x x E(X) ) f(x x E(X) i i x i i respectivamente. Ahora bien, ello es válido para transformaciones de la variable aleatoria, de forma que ∫ +∞ ∞ − ⋅ · dx ) x ( f ) x ( h )) X ( h ( E En el caso continuo y similarmente para el caso discreto Por las analogías existentes entre la definición de media aritmética y esperanza matemática, las propiedades de linealidad de la primera se trasladan a la segunda, de forma que se puede obtener, 0 ) X ( E ) X ( E )) X ( E X ( E ) X ( bE a ) bX a ( E · − · − + · + Ejemplo. Si X es el número de puntos obtenidos al lanzar un dado de seis caras, encontremos el valor esperado de la variable aleatoria Y = X 2 . La función de probabilidad de X es f(x) = 1/6 si x∈{1,2,3,4,5,6}. La función de probabilidad de Y = X 2 es entonces f(y) = 1/6 si y∈{1,4,9,16,25,36}, así E(Y) = 1/6*1 + 1/6*4 + 1/6*9 + 1/6*16 + 1/6*25 + 1/6*36 = 1 2 *P(X=1) + 2 2 *P(X= 2) + 3 2 *P(X= 3) + 4 2 *P(X= 4) + 5 2 *P(X= 5) + 6 2 *P(X= 6) = ∑ X 2 *P(X=x) Ejemplo. Supongamos ahora que X es una v.a. que tiene función de probabilidad f(x) = 1/6 si x∈{-2,-1,0,1,2,3}y Y = X 2 . La función de probabilidad de Y es f(y) = 2/6 si y∈{1, 4} y f(y) = 1/6 si y∈{0, 9}. Entonces E(Y) = 2/6*1 + 2/6*4 + 1/6*0 + 1/6*9. Esta ecuación puede escribirse de la siguiente manera: E(Y) = 2/6*1 + 2/6∗4 + 1/6*0 + 1/6*9 = 1*P(Y=1) + 4*P(Y=4) + 0*P(Y=0) + 9*P(Y=1) = 1 2 *P(X=1 ó X=-1) + 2 2 *P(X=2 ó X=-2) + 0 2 *P(X=0) + 3 2 *P(X=3) = ∑ X 2 *P(X=x) A través de estos ejemplos vemos que no es necesario calcular la función de probabilidad de Y, sólo tenemos que usar la función de probabilidad de X y los valores obtenidos al aplicar la 1 función Y = g(X) = X 2 . Esto es cierto aún en el caso en que la función no es uno-uno. LA VARIANZA La varianza la denotamos mediante V(X) o VAR(X) o σ 2 , y se calcula como, ( ) ( ) ( ) ¹ ¹ ¹ ' ¹ → − → − · − · ∫ ∑ ∞ + ∞ − C o n t i n u a X . f ( x ) d x E ( X ) x D i s c r e t a X ) . f ( x E ( X ) x E ( X ) X E V ( X ) 2 x i 2 i 2 Obsérvese que del mismo modo en que se demuestra la relación se comprueba que V(X)=E(X 2 )-(E(X)) 2 Similarmente, V(a+bX)=b 2. V(X)=b 2 σ 2 Ejemplo. Consideramos una variable aleatoria discreta con función de probabilidad, f  x =¿∣ c 4 x ¿ x≥1 ∣0 otro caso ¿ Obtener el valor de la constante c para que sea una función de probabilidad, los valores de las funciones de probabilidad y distribución para todos los valores de x, y P(x=3), y P(x≤3). Solución: Para ello consideramos, 3 c 4 1 4 1 4 1 c 4 c 1 x 3 2 1 x · · ` ( | + + + · ∑ ∞ ·  , ya que tenemos la suma de una progresión geométrica de razón menor que la unidad: Calculemos sucesivos valores de f(x) y F(x), x 2 3 4 5 … f(x) 3/4 3/16 3/64 3/256 … F(x) 0.75 0.94 0.987 0.999 …. Y como se observa que: si x crece, f(x) decrece y F(x) crece hasta llegar a su máximo valor 1 P(X=3)=f(3)=0.047 P(X≤3)=0.987 2 Ejemplo para la variable aleatoria continua, función de densidad caso otro 0 1 x 0 cx f(x) 3 ≤ ≤ · Hallar: El valor de la constante c para que sea una función de densidad, la función de distribución, el valor medio, y la probabilidad de que la variable este comprendida entre 0,2 y 0,7 Solución. Consideremos, 4 c 4 x c dx cx 1 0 4 1 0 3 · · ∫ La cual debe ser de valor 1, entonces c/4=1, esto es, c=4 ∫ ∫ ∞ − ∞ − · · · · x 4 x 0 4 x 3 x 4 x 4 dx x 4 dx ) x ( f ) x ( F luego, la función de distinción acumulada es F(x)=x 4 para 0<x≤1, 0 en valores x≤0 y 1 para x≥1 El valor medio es ∫ ∫ ∞ ∞ − · · ⋅ · ⋅ · 8 . 0 5 x 4 dx x 4 x dx ) x ( f x ) X ( E 1 0 5 1 0 3 P(0.2≤x≤0.7)=F(0.7)-F(0.2)=0.7 2 -0.2 2 =0.24 Ejemplo, Calcule la varianza de la variable aleatoria x, que representa el número de puntos obtenidos con un dado. µ =E(X)=1*1/6+2*1/6+3*1/6+4*1/6+5*1/6+6*1/6 µ ` 2 =E(X 2 )=1 2 *1/6+2 2 *1/6+3 2 *1/6+4 2 *1/6+5 2 *1/6+6 2 *1/6 Sabemos que σ 2=µ ` 2 -µ 2 =((91/6)-(7/2) 2 =35/12 Teorema: 2 2 2 µ − µ′ · σ Teorema. Si X es una v.a. discreta y f(x) es su función de probabilidad, Y = g(X) es una función a valores reales, es decir, Y es una v.a., entonces su valor esperado es E(Y)= E(g(X))=∑f (x) g(x) . Teorema. Si a y b son constantes reales y g(X) = aX + b es una función a valores reales, entonces E(aX + b) = aE(X) + b. Corolario. Si a es una constante real, entonces E(aX) = aE(X). Corolario. Si b es una constante real, entonces E(b) = b. 3 Estos resultados se pueden generalizar de la siguiente forma: Teorema. Si c 1 , c 2 , ...., c n son constantes reales, y g 1 (X), g 2 (X) ,...., g n (X), son funciones reales de X, entonces E(∑ci*g i (x))·Σ c i *E(g i (x)) Teorema. Var( X) = σ 2 = E(X 2 ) – [E(X)] 2 = E(X 2 ) – µ 2 MOMENTOS La esperanza matemática y la varianza pueden ser calculadas a partir de otras medidas: el momento de orden r (r pertenece al conjunto de los naturales): µ r ¹ ¹ ¹ ' ¹ → ⋅ → ⋅ · · µ ∑ ∫ ∞ ∞ − x r r r r D i s c r e t a X f ( x ) x C o n t i n u a X f ( x ) x ) X ( E Asimismo se denomina momento central de orden r, m r , ( ) ( ) ( ) ¹ ¹ ¹ ' ¹ → ⋅ − → ⋅ − · − · ∫ ∑ ∞ + ∞ − C o n t i n u a f ( x ) d x E ( X ) x D i s c r e t a X ) f ( x E ( X ) x ) X ( E X E m r i x r i r r De este modo, es claro que la esperanza matemática es el momento de primer orden y que la varianza es el momento central de segundo orden 2 2 1 1 m V(X) σ μ ) E(X μ · · · · Ejemplo, Ciertas mediciones codificadas del diámetro del avance de la cuerda de un ajuste tienen la densidad de probabilidad 4 ¹ ¹ ¹ ' ¹ < < + π · o t r o 0 1 x 0 ) x 1 ( 4 ) x ( f 2 Determine el valor esperado y la varianza Aplicando la definición, 4413 . 0 4 ln dx ) x 1 ( 4 x ) X ( E 1 0 2 · π · + π ⋅ · ∫ 2732 . 0 1 4 dx x 1 x 4 ) X ( E 1 0 2 2 2 2 · − π · + π · · µ′ ∫ En muchas ocasiones puede ser complicado computar directamente los momentos de algunas variables aleatorias por lo cual debemos usar otras técnicas más convenientes. En particular podemos usar la función generatriz de momentos. La función generatriz de momentos de una v.a. X, donde existe, está definida por M x (t)= E(e tX )=Σ e tX *f(x) Teorema. ) X ( E dt ) t ( M d r r x r · DESIGUALDAD DE TCHEBYCHEFF Variable Aleatoria tipificadas. Si X es una variable aleatoria con esperanza E(X)=µ y varianza V(X)=σ 2 , se puede demostrar que en general, una gran parte de la masa se encuentra en un intervalo centrado en µ y que tiene por amplitud varias veces σ . Más precisamente, la desigualdad de Thebycheff afirma que si consideramos un intervalo de centro µ y radio k veces σ , la probabilidad de realizar una observación de la variable y que esta no esté en dicho intervalo es inferior o igual a 1/k 2 : Si X es Variable Aleatoria con E(X)=µ y V(X)=σ 2 , entonces para todo valor de k positivo, ( ) 2 k 1 kσ μ X P ≤ ≥ − Este importante resultado, por si sólo, justifica el que µ sea una medida central y σ la medida de dispersión respecto a ese valor medio y motiva la introducción del concepto de tipificación de variables aleatorias, así, dada una Variable Aleatoria X, definimos su Variable Aleatoria tipificada, z, como, 5 σ µ − · X z que es una Variable Aleatoria que presenta la característica de tener valor medio cero y varianza unitaria: E(X)=0 y V(X)=1 Ejemplo, Si la densidad de probabilidad de la variable aleatoria x está dada por ¹ ' ¹ < < − · o t r o 0 1 x 0 ) x 1 ( x 6 3 0 ) x ( f 4 4 Determine la probabilidad de que x tome un valor contenido en dos desviaciones estándar de la media y compárela con el límite inferior proporcionado por el teorema de Chebyshev Integrando directamente, obtenemos que µ =1/2 y σ 2 =1/44 o sea σ =0.15 Por tanto, la probabilidad de que x tome un valor contenido en dos desviaciones de la media es la probabilidad de que tome un valor entre 0.20 y 0.80, 96 . 0 dx ) x 1 ( x 630 ) 80 . 0 x 20 . 0 ( P 80 . 0 20 . 0 4 4 · + · < < ∫ Comparando: la probabilidad de 0.96 es mucho mas especifico que la probabilidad es cuando menos 0.75, enunciado por el teorema de Shebyshev MOMENTO PRODUCTO El r-ésimo y s-ésimo momento producto con respecto al origen de las variables aleatorias x y y, representado por µ ` r,s es el valor esperado de x r y s , ∫ ∫ ∑∑ ∞ ∞ ⋅ · · µ′ · · ⋅ · · µ′ 0 0 s r s r s , r x y s r s r s , r dxdy ) y , x ( f y x ) y x ( E ,... 0 s ,.., 0 r ) y , x ( f y x ) y x ( E Y con respecto al valor medio ( ) ( ) ∫ ∫ ∑∑ ∞ ∞ ⋅ µ − µ − · µ − µ − · µ′ · · ⋅ µ − µ − · µ − µ − · µ′ 0 0 s y r x s y r x s , r x y s y r x s y r x s , r dxdy ) y , x ( f ) y ( ) x ( ) y ( ) x ( E ,... 0 s ,.., 0 r ) y , x ( f ) y ( ) x ( ) y ( ) x ( E Teorema, 1 , 1 xy ) y , x cov( µ · · σ Teorema, y x 1 , 1 xy µ µ − µ′ · σ 6 TEORÍA DE LOS GRANDES NÚMEROS Y TEOREMA DEL LÍMITE CENTRAL Sea ε un experimento y A un suceso asociado. En n repeticiones independientes de ε , se n A el número de veces que ocurre A en las n repeticiones y f A =n A /n. Sea P(A)=p, igual para cualquier repetición, entonces, para cualquier número ξ positivo: [ ] 2 A n ) p 1 ( p p f P ξ − ≤ ξ ≥ − y [ ] 2 A n ) p 1 ( p 1 p f P ξ − − ≥ ξ < − Por lo anterior se puede demostrar que para grandes números la función de distribución binomial tiende a ser Normal Teorema del Límite Central: Sea X 1 ,...,X n sucesos de variables aleatorias independientes con i i ] X [ E µ · y 2 i i ] X [ V σ · . Sea X X n i n · · ∑ 1 . Entonces, ) 1 , 0 ( N X Z n 1 i 2 i n 1 i i n ≈ σ µ − · ∑ ∑ · · , es decir, Si G n es la fda de Z n , entonces, ) z ( ) Z ( G Lim n n φ · ∞ → Teorema: Si X 1 ,...,X n son variables aleatorias independientes y tienen igual distribución y sean ] X [ V y ] X [ E i 2 i · σ · µ , los valores esperados de media y varianza. Sea ∑ · · n 1 i i X S , entonces, 2 n ] S [ V y n ] S [ E σ · µ · . Ahora bien, para valores grandes de n, ) 1 , 0 ( N n n S T n ≈ σ µ − · considerando, ) t ( ] t T [ P Lim n n φ · ≤ ∞ → | Teorema: Sean X y Y variables aleatorias independientes con funciones de distribución de probabilidad g y h, respectivamente. Sea Z=X+Y con Función de distribución de probabilidad s definida como, ∫ ∞ ∞ − − · dw ) w z ( h ) w ( g ) z ( s . Usando la transformación w=x, y z=x+y 7 Teorema: Si X y Y son variables aleatorias independientes con valores solo enteros positivos. Sea p(k)=P[X=x] y q(r)=[Y=r], siendo k=1,..., y r=1,.... sea Z=X+Y y sea w(i)=P[Z=z], entonces, ∑ · − · i 0 k ) k i ( r ) k ( p ) i ( w ESPERANZA CONDICIONAL Si x es una variable aleatoria discreta o continua y f(x/y) es el valor de la distribución de probabilidad condicional de x dada y, la esperanza condicional, de u(x) dada y es, respectivamente ( ) ( ) dx ) y / x ( f ) x ( u y / ) x ( u E ) y / x ( f ) x ( u y / ) x ( u E x ∫ ∑ ∞ ∞ − ⋅ · ⋅ · Ejemplo, Si la densidad conjunta de dos variables aleatorias x y y está dada por 1 y 0 y 1 x 0 v a l o r e s p a r a ) y 2 x ( 3 2 ) x ( f < < < < − · Determine la media y la varianza condicionales de x dada y=1/2 ¹ ¹ ¹ ¹ ¹ ' ¹ · + · · + · ⇒ + · · ` ( | + + · · + · + · · ∫ ∫ ∫ ∫ ∞ ∞ − 1 8 7 d x ) 1 x ( x 3 2 ) 2 / 1 / x ( E 9 5 d x ) 1 x ( x 3 2 ) 2 / 1 / x ( E ) 1 x ( 3 2 2 1 / x f ) y 4 1 ( 3 / 1 ) y 2 x ( 3 / 2 ) y ( h ) y , x ( f ) y / x ( f ) y 4 1 ( 3 1 d x ) y 2 x ( 3 2 d x ) y , x ( f ) y ( h 1 0 2 2 1 0 1 0 TEOREMA DE FOURIER – FUNCION GENERATRIZ 8 Si X es una Variable Aleatoria cuya función característica es X Φ , su función de probabilidad (o densidad de probabilidad) es, ∫ ∞ + ∞ − − · (t)dt Φ e 2π 1 f(x) X itx Esta propiedad de X Φ es fundamental, ya que en una gran cantidad de casos es mucho más fácil trabajar con la función característica que con la propia función de probabilidad (o densidad). La razón de ello estriba en una serie de propiedades de la función característica que la hacen muy manejable desde el punto de vista matemático. Para esta función se verifican las relaciones ℜ ∈ ∀ Φ · − Φ ℜ ∈ ∀ ≤ Φ · Φ t ) t ( ) t ( t 1 ) t ( 1 ) 0 ( X X X X Lo cual se puede verificar con, ( ) ( ) ( ) ( ) (t) Φ sen(tx) iE cos(tx) E tX) sen( iE tX) cos( E ) E(e t) ( Φ 1 f(x)dx 1 dx f(x) e f(x)dx e (t) Φ 1 f(x)dt 1 E(1) ) E(e (0) Φ X itX - X itx itx X i0x X · − · − + − · · − · ⋅ · ≤ · · ⋅ · · · ∫ ∫ ∫ ∫ ∞ ∞ − ∞ ∞ − ∞ ∞ − ∞ ∞ − Aplicando a una recta, Sea (bt) Φ e (t) Φ bX a Y X ita Y · → + · , lo que se demuestra como, ( ) ( ) (bt) Φ e e e E e E ) E(e (t) Φ X ita itbX ita bX it(a itX Y · · · · + Una propiedad de Φ que es muy usada es que la suma de Variable Aleatoria independientes tiene por función característica el producto de las respectivas funciones características. Es decir, Sean X e Y Variables Aleatorias independientes, entonces, ) t ( ) t ( ) t ( Y X Y X Φ ⋅ Φ · Φ + La última propiedad de Φ que enunciamos es que al igual que la función generatriz de momentos, esta nos permite calcular los momentos de la variable (y por tanto su esperanza y su varianza), veamos, r (r) X r i (0) Φ ) E(X · Lo que se puede observar como, ∫ ∫ ∫ ∞ + ∞ − ∞ + ∞ − ∞ + ∞ − · ⇒ · ⇒ · f(x)dx e x i i (0) Φ f(x)dx e x i (0) Φ f(x)dx e x i (t) Φ itx r r r (r) X itx r r (r) X itx r r (r) X Función característica. Para una Variable Aleatoria X se define su función característica como 9 ¹ ¹ ¹ ' ¹ ⋅ ⋅ · · ∫ ∑ ∞ ∞ − f ( x ) d x e ) f ( x e ) E ( e ( t ) Φ i t x x i i t x i t X X Pero isen(tx) cos(tx) e itx + · , lo cual nos conduce a la Tansformada de Fourier de f. Su denominación proviene del hecho de que una vez conocida la función característica podemos determinar la función de distribución de la Variable Aleatoria y recíprocamente. siendo i · −1 , y esta función siempre existe para todo t Las principales funciones generadoras de momentos son: [ ] ∫ ∑ ∑ ∫ ∞ α − ∞ · − λ λ λ − λ − · − α α · · · λ · − + · − · ` ( | · ≠ − − · − · 0 x tx x 0 k ) 1 e ( e k tk x n 0 k n t k n k tk x b a at bt tx x parametro , dx e e ) t ( M : l Exponencia e e e ! k e e ) t ( M : Poisson ) p 1 ( pe ) p 1 ( p k n e ) t ( M : Binomial 0 t , t ) a b ( e e dx a b e ) t ( M : Uniforme t t Propiedades: Sea la serie de MacLaurin de ! n x ! 2 x x 1 e : e n 2 x x + ⋅ ⋅ ⋅ + + + · ( ) ] ] ] + ⋅ ⋅ ⋅ + + + · · ! n ) tx ( ! 2 ) tx ( tx 1 e E ) t ( M n 2 tx x , lo que es igual a ] ] ] + ⋅ ⋅ ⋅ + + + · ! n ] x [ E t ! 2 ] x [ E t ] x [ tE 1 ) t ( M n n 2 2 x Derivando tenemos, ] ] ] − + ⋅ ⋅ ⋅ + + + · ′ − )! 2 n ( ] x [ E t ! 2 ] x [ E t ] x [ tE ] x [ E ) t ( M n 1 n 3 2 2 x Ahora bien, si t=0, entonces, ] x [ E ) 0 ( M x · ′ Volviendo a derivar, ] ] ] − + ⋅ ⋅ ⋅ + + · ′ ′ − )! 2 n ( ] x [ E t ] x [ tE ] x [ E ) t ( M n 2 n 3 2 x Si t=0, entonces, ] x [ E ) 0 ( M 2 x · ′ ′ 10 En general, ] x [ E ) 0 ( M n ) n ( x · Teorema: La variable aleatoria X tiene una fgm M x , y sea β + α · X Y , entonces, ) t ( M e ) t ( M x t y α · β Teorema: Si M x (t) y M y (t) son las fgm de X y Y que son variables aleatorias respectivamente y si M x (t)=M y (t), para todo t, entonces X y Y tienen igual distribución de probabilidad. Teorema: Si X y Y son variables aleatorias independientes y Z=X+Y, y tienen fgm M x (t), M y (t) y M z (t), respectivamente, entonces, M z (t)=M x (t)M y (t) Ejemplo, Determine la función generatriz de momentos de la variable aleatoria x, cuya densidad de probabilidad está dada por, ¹ ' ¹ > · − o t r o 0 0 x e f ( x ) x Utilícela para hallar µ ` r ∫ ∫ ∞ − − ∞ − − · · ⋅ · · 0 ) t 1 ( x 0 x tx tx x t 1 1 dx e dx e e ) e ( E ) t ( M Expandiendo en la serie de McLaurin,     + ⋅ + + ⋅ + ⋅ + · + + + + + · ! r t ! r ! 2 t ! 2 ! 1 t ! 1 1 t t t 1 ) t ( M r 2 r 2 x Por consiguiente, r ! r r ∀ · µ ′ Transformada Lineal de una Variable Aleatoria 0 c c X c X 1 2 1 * ≠ + · ) X ( c ) c c ( ) c X c ( X c X c ] 1 [ E c ] X [ E c ] X [ E 1 2 1 2 1 * * 2 1 2 1 * * µ − · + µ − + · µ − + · + · · µ En general, se tiene, ] ) X ( c ] ) X ( c [ E ] ) X [( E k k k k k * * 1 1 µ − · µ − · µ − 2 1 2 * c σ · σ que es un caso particular para k=2 11 La varianza es invariante bajo una traslación del origen, esto es, una transformación de la forma 2 * c X X + · . Si entonces, X * toma la expresión σ µ − · σ · 2 1 c y 1 c , entonces Z X · σ µ − , que tiene media 0 y varianza 1 Si una variable aleatoria X tiene media µ y varianza σ 2 , entonces σ µ − · X Z tiene media 0 y varianza 1 Teorema, r r x r dt ) t ( M d µ′ · De este teorema se desprende, ( ) ( ) · ` ( | ⋅ · · ` ( | · · · ⋅ · · · ` ( | + + + + b t M e e E ) t ( M ) bt ( M e E ) t ( M ) t ( M e e E ) t ( M x t b a t b a x b a x x bxt bx x at t ) a x ( a x ESPERANZA BIDIMENSIONAL E[g(X,Y)] se define como ∑ ∑ ∑ ∫ ∫ ∑ ∑ ⇔ · · + · + ¹ ¹ ¹ ' ¹ → → · ∞ ∞ − ∞ ∞ − x y x 1 x y X d e d e p e n d e ) x ( f ) x ( g ) y , x ( f ) x ( g ) ] Y , X ( g [ E ) ] y , x ( h [ b E ) ] y , x ( g [ a E ) ] Y , X ( b h ) Y , X ( a g [ E C o n t i n u o d x d y ) y , x ( f ) y , x ( g D i s c r e t o ) y , x ( f ) y , x ( g ) ] Y , X ( g [ E E[X+Y]=E[X]+E[Y] 12 El valor medio de una suma de variables aleatorias es igual a la suma de los valores medios de las variables aleatorias, esto es, [ ] ] Y [ E ] X [ E ] X Y [ E y ] X [ E X E i i · · ∑ ∑ si X e Y son independientes Si X 1 ,X 2 ,...X n son variables aleatorias independientes, entonces ∏ ∏ · ] ] ] n n n n ] X [ E X E Varianza: Si se tiene Z=X+Y, entonces 2 2 2 ]) Z [ E ( ] Z [ E − · σ de donde 2 2 2 2 ]) Y [ E ] X [ E ( ] Y XY 2 X [ E ] Z [ E + · + + · , lo que conduce a , ] Y [ E ] X [ E ] XY [ E XY − · σ , o sea, XY 2 Y 2 2 2 X σ + σ + σ · σ , y si X e Y son independientes, σ XY · 0 La varianza de una suma de variables aleatorias independientes cuyas varianzas existan, es igual a la suma de esas varianzas Si X 1 ,X 2 ,...X n son variables aleatorias independientes, con varianza común σ 2 , entonces Si X 1 ,X 2 ,...X n son variables aleatorias independientes, entonces X n X X n · + + 1 1 ( )  y tienen varianza Si X 1 ,X 2 ,...X n son variables aleatorias independientes, entonces σ σ X n 2 2 · La fgm se define como: Sea X una variable aleatoria con dp p(x i )=P[X=x i ], la función M x es la fgm de X y se define como M t e p x x tx j j j ( ) ( ) · · ∞ ∑ 1 para el caso discreto, y M t d f x x tx ( ) ( )dx · −∞ ∞ ∫ para el caso continuo, siendo f(x) la función de distribución de probabilidades 13 2 i i 2 x  ∑ ( x − E () X. LA VARIANZA La varianza la denotamos mediante V(X) o VAR(X) o σ 2. f(x) decrece y F(x) crece hasta llegar a su máximo valor 1 P(X=3)=f(3)=0. y P(x≤3). V(a+bX)=b2.047 P(X≤3)=0.94 4 3/64 0. ∞ c 1 1 1  c ∑1 4 x = c 41 + 4 2 + 43 +  = 3 . Consideramos una variable aleatoria discreta con función de probabilidad.   x= ya que tenemos la suma de una progresión geométrica de razón menor que la unidad: Calculemos sucesivos valores de f(x) y F(x).75 3/16 0. y se calcula como. y P(x=3). los valores de las funciones de probabilidad y distribución para todos los valores de x. c f  x =¿∣ x ¿ x≥1 ∣0 otro caso  4 ¿ Obtener el valor de la constante c para que sea una función de probabilidad. Y como se observa que: si x crece.999 … … …. Esto es cierto aún en el caso en que la función no es uno-uno. x 2 3 f(x) F(x) 3/4 0.987 2 .987 5 3/256 0. f () →x X D i s c r e t a  V (= XE( X)− E () X=  ) +∞  ( x − E () 2X.función Y = g(X) = X2 .V(X)=b2σ 2 Ejemplo. f () x→ ) Xd Cx o n t i n u a  ∫− ∞ Obsérvese que del mismo modo en que se demuestra la relación se comprueba que V(X)=E(X2)-(E(X))2 Similarmente. Solución: Para ello consideramos. entonces su valor esperado es E(Y)= E(g(X))=∑f (x) g(x) . que representa el número de puntos obtenidos con un dado.8 0 P(0. esto es. entonces E(aX + b) = aE(X) + b.2≤x≤0. Si X es una v. Si a es una constante real. es decir. entonces E(aX) = aE(X). y la probabilidad de que la variable este comprendida entre 0. la función de distinción acumulada es F(x)=x4 para 0<x≤1.22=0. Corolario.7)-F(0.a. µ =E(X)=1*1/6+2*1/6+3*1/6+4*1/6+5*1/6+6*1/6 µ `2=E(X2)=12*1/6+22*1/6+32*1/6+42*1/6+52*1/6+62*1/6 Sabemos que σ 2=µ `2-µ 2=((91/6)-(7/2)2=35/12 Teorema: σ 2 = µ ′2 − µ 2 Teorema. 3 . Y es una v. Corolario. entonces c/4=1. Y = g(X) es una función a valores reales. Consideremos.2)=0.Ejemplo para la variable aleatoria continua.7 Solución. discreta y f(x) es su función de probabilidad. 0 en valores x≤0 y 1 para x≥1 El valor medio es E ( X ) = ∫ x ⋅ f ( x )d = ∫ x ⋅ 4 x 3 d = 4 x x − ∞ 0 ∞ 1 1 x5 5 = 0 . el valor medio. Teorema. Calcule la varianza de la variable aleatoria x. Si b es una constante real. entonces E(b) = b.24 Ejemplo.72-0. la función de distribución. c=4 F( x ) = ∫ f ( x )d = ∫ 4 x 3 d =4 x x − ∞ − ∞ x x x4 4 x =x 4 0 luego.7)=F(0. función de densidad fx () c x = 0 3 0 ≤ ≤ x 1 oo t r cs a o Hallar: El valor de la constante c para que sea una función de densidad.a. Si a y b son constantes reales y g(X) = aX + b es una función a valores reales.2 y 0. x4 ∫ cx dx =c 4 0 1 3 1 = 0 c 4 La cual debe ser de valor 1..  ∑ ( xi − E ) r(⋅ f Xi() → xX) D i s c r e t a r x m r = E( X − E (X) ) =  ∞+  ( x − E ) r(⋅ f X( →x ) C) d o x n t i n u a  ∫ ∞− De este modo.. entonces E(∑ci*gi(x))= Σ ci*E(gi(x)) Teorema. mr. Si c1.... y g1(X). gn(X)... Var( X) = σ 2 = E(X2) – [E(X)]2 = E(X2) – µ MOMENTOS La esperanza matemática y la varianza pueden ser calculadas a partir de otras medidas: el momento de orden r (r pertenece al conjunto de los naturales): µ r 2  ∞ x r ⋅ f ( →x X) C o n t i n u a r r  ∫− ∞ µ = E(X ) =  r  ∑ x ⋅ f ( → xX ) D i s c r e t a x Asimismo se denomina momento central de orden r.. son funciones reales de X.. g2(X) . cn son constantes reales. Ciertas mediciones codificadas del diámetro del avance de la cuerda de un ajuste tienen la densidad de probabilidad 4 .. c2. . es claro que la esperanza matemática es el momento de primer orden y que la varianza es el momento central de segundo orden μ = E(X1 ) = μ 1 σ 2 = V(X) = m 2 Ejemplo.Estos resultados se pueden generalizar de la siguiente forma: Teorema. 2732 π En muchas ocasiones puede ser complicado computar directamente los momentos de algunas variables aleatorias por lo cual debemos usar otras técnicas más convenientes.4413 2 π π(1 + x ) 4 1 x2 4 ∫0 1 + x 2 dx = π − 1 = 0. justifica el que µ sea una medida central y σ la medida de dispersión respecto a ese valor medio y motiva la introducción del concepto de tipificación de variables aleatorias. 5 . Más precisamente. 4  2 0< x< 1 f (x) =  π (1 + x ) 0 o tro  Determine el valor esperado y la varianza Aplicando la definición. está definida por Mx(t)= E(etX)=Σ etX*f(x) d r M x (t) Teorema. z. X. como. entonces para todo valor de k positivo. la probabilidad de realizar una observación de la variable y que esta no esté en dicho intervalo es inferior o igual a 1/k2: Si X es Variable Aleatoria con E(X)=µ y V(X)=σ 2. dada una Variable Aleatoria X. = E(X r ) r dt DESIGUALDAD DE TCHEBYCHEFF Variable Aleatoria tipificadas. Si X es una variable aleatoria con esperanza E(X)=µ y varianza V(X)=σ 2. la desigualdad de Thebycheff afirma que si consideramos un intervalo de centro µ y radio k veces σ . E ( X) = ∫0 x ⋅ µ′ = E (X 2 ) = 2 1 4 ln 4 dx = = 0. En particular podemos usar la función generatriz de momentos. por si sólo. donde existe. definimos su Variable Aleatoria tipificada. así. 1 P( X − μ ≥ kσ ) ≤ 2 k Este importante resultado. La función generatriz de momentos de una v. se puede demostrar que en general.a. una gran parte de la masa se encuentra en un intervalo centrado en µ y que tiene por amplitud varias veces σ . 80 ) = ∫ 0..1 ′ Teorema.75.. y)dxdy Y con respecto al valor medio µ′.. Si la densidad de probabilidad de la variable aleatoria x está dada por Determine la probabilidad de que x tome un valor contenido en dos desviaciones estándar de la media y compárela con el límite inferior proporcionado por el teorema de Chebyshev Integrando directamente.20 < x < 0. s = 0.s = E ( x r y s ) = ∑∑x r y s ⋅ f ( x .s es el valor esperado de xrys.z= X −µ σ que es una Variable Aleatoria que presenta la característica de tener valor medio cero y varianza unitaria: E(X)=0 y V(X)=1 Ejemplo...s = E( ( x − µ x ) r ( y − µ y ) s ) = ∫ r ∞ 0 ∫ ∞ 0 ( x − µ x ) r ( y − µ y ) s ⋅ f ( x .. obtenemos que µ =1/2 y σ 2=1/44 o sea σ =0. s = 0...80 0. σ xy = µ1.. y) = µ1.s = E ( x r y s ) = ∫ r ∞ 0 ∫ ∞ 0 x r y s ⋅ f ( x .96 Comparando: la probabilidad de 0. µ′. P(0. µ′. y)dxdy Teorema.1 − µ x µ y 6 .20  6 3x 4 (01 − x) 4 0 < x < 1 f (x ) =  o tro 0 630 x 4 (1 + x ) 4 dx = 0...96 es mucho mas especifico que la probabilidad es cuando menos 0. la probabilidad de que x tome un valor contenido en dos desviaciones de la media es la probabilidad de que tome un valor entre 0.s = E( ( x − µ x ) r ( y − µ y ) s ) = ∑∑( x − µ x ) r ( y − µ y ) s ⋅ f ( x .80. y) r x y r = 0. σxy = cov( x . representado por µ `r.. enunciado por el teorema de Shebyshev MOMENTO PRODUCTO El r-ésimo y s-ésimo momento producto con respecto al origen de las variables aleatorias x y y. y) r x y r = 0.15 Por tanto. µ′.20 y 0. Sea X = ∑i=1 X n .Xn sucesos de variables aleatorias independientes con E[X i ] = µi y V[X i ] = σi2 . n Zn = X − ∑i =1 µ i n ∑ n i =1 σ 2 i ≈ N (0. Sea P(A)=p... En n repeticiones independientes de ε . entonces. para cualquier número ξ positivo: P[ f A − p ≥ ξ] ≤ P[ f A p(1 − p) y nξ2 p(1 − p) − p < ξ] ≥1 − nξ2 Por lo anterior se puede demostrar que para grandes números la función de distribución binomial tiende a ser Normal Teorema del Límite Central: Sea X1. respectivamente... Lim P[Tn ≤ t ] = φ( t ) n →∞ | Teorema: Sean X y Y variables aleatorias independientes con funciones de distribución de probabilidad g y h..1) nσ E[S] = nµ y V[S] = nσ 2 . Tn = S − nµ ≈ N (0. entonces. s( z ) = ∫ ∞g ( w ) h ( z − w )dw .. Lim G n ( Z) = φ(z) n →∞ Teorema: Si X1. valores grandes de n.. para considerando. se nA el número de veces que ocurre A en las n repeticiones y fA=nA/n. y z=x+y ∞ 7 . es decir.Xn son variables aleatorias independientes y tienen igual distribución y sean µ = E[X i ] y σ 2 = V[X i ] n .TEORÍA DE LOS GRANDES NÚMEROS Y TEOREMA DEL LÍMITE CENTRAL Sea ε un experimento y A un suceso asociado. los valores esperados de media y varianza. igual para cualquier repetición. Sea Z=X+Y con Función de distribución de probabilidad s definida como. Sea S = ∑i =1 X i .. Si Gn es la fda de Zn.1) . Ahora bien. Entonces. Usando − la transformación w=x. entonces. Teorema: Si X y Y son variables aleatorias independientes con valores solo enteros positivos.. y) 2 / 3(x + 2 y) f ( x / y) = = h ( y) 1 / 3(1 + 4 y) h ( y) = ∞ f ( x .. y)d x = 12 5  E(x / 1 / 2) = ∫ x (x + 1)d x =  03   1 2 9 f  x /  = ( x + 1) ⇒   2 3  E(x 2 / 1 / 2) = 1 2 x 2 ( x + 1)d x = 7 ∫0 3  18  TEOREMA DE FOURIER – FUNCION GENERATRIZ 8 .. sea Z=X+Y y sea w(i)=P[Z=z]. respectivamente E( u ( x ) / y ) = ∑u ( x ) ⋅ f ( x / y) x ∞ −∞ E( u ( x ) / y ) = ∫ u ( x ) ⋅ f ( x / y)dx Ejemplo. i w (i) = ∑k =0 p(k )r (i − k ) ESPERANZA CONDICIONAL Si x es una variable aleatoria discreta o continua y f(x/y) es el valor de la distribución de probabilidad condicional de x dada y... siendo k=1. entonces. Si la densidad conjunta de dos variables aleatorias x y y está dada por 2 f (x) = (x − 2y) p a vr a l 0o< xr < e1 sy 0 < y < 1 3 Determine la media y la varianza condicionales de x dada y=1/2 2 1 1 (x + 2 y)d x = (1 + 4 y) ∫− ∞ 3 ∫0 3 f ( x. la esperanza condicional. de u(x) dada y es. y r=1. Sea p(k)=P[X=x] y q(r)=[Y=r].... La razón de ello estriba en una serie de propiedades de la función característica que la hacen muy manejable desde el punto de vista matemático. Sea Y = a + bX → Φ Y (t) = e ita Φ X (bt) . Para una Variable Aleatoria X se define su función característica como 9 . Es decir. su función de probabilidad (o densidad de probabilidad) es. entonces. Φ Y (t) = E(e itX ) = E e it(a + bX = E e ita e itbX = e ita Φ X (bt) ( ) ( ) Una propiedad de Φ que es muy usada es que la suma de Variable Aleatoria independientes tiene por función característica el producto de las respectivas funciones características. Sean X e Y Variables Aleatorias independientes. Φ X (0) = E(e Φ X (t) = i0x ) = E(1) = ∫ 1 ⋅ f(x)dt =1 −∞ ∞ ∫ ∞ −∞ e itx f(x)dx -itX ≤∫ ∞ −∞ e itx f(x) dx = ∫ 1 ⋅ f(x)dx =1 −∞ ∞ Φ X ( −t) = E(e ) = E ( cos( −tX) ) + iE ( sen( −tX) ) = E ( cos(tx) ) −iE (sen(tx) ) = Φ X (t) Aplicando a una recta. ya que en una gran cantidad de casos es mucho más fácil trabajar con la función característica que con la propia función de probabilidad (o densidad). ΦX +Y ( t ) = ΦX ( t ) ⋅ ΦY ( t ) La última propiedad de Φ que enunciamos es que al igual que la función generatriz de momentos. lo que se demuestra como.Si X es una Variable Aleatoria cuya función característica es ΦX . esta nos permite calcular los momentos de la variable (y por tanto su esperanza y su varianza). f(x) = 1 2π ∫ +∞ −∞ e −itx Φ X (t)dt Esta propiedad de ΦX es fundamental. +∞ Φ (r) (0) Φ (t) = ∫ i x e f(x)dx ⇒Φ (0) = i ∫ x e f(x)dx ⇒ X r = i r ∫ x r e itx f(x)dx −∞ −∞ −∞ i (r) X Función característica. Para esta función se verifican las relaciones Φ X (0) = 1 Φ X (−t ) = Φ X ( t ) Φ X (t ) ≤ 1 ∀t ∈ ℜ ∀t ∈ ℜ Lo cual se puede verificar con. veamos. E(X r ) = Φ (r) (0) X ir +∞ r r itx (r) X r +∞ r itx Lo que se puede observar como.  ∑ ei t x⋅ f ( i x)  Φ X ( t =) E (i t eX) =  x∞  ∫ ei t x⋅ f ( x ) d x  −∞ Pero e itx = cos(tx) + isen(tx) . lo que es igual a x x tx 2 n x  2! 2 n!   t E[ x ] t E[ x n ]  M x ( t ) = 1 + tE[ x ] + +⋅⋅⋅ +  2! n!   2 n Derivando tenemos. y esta función siempre existe para todo t Las principales funciones generadoras de momentos son: U ne im f o r B i i n o m a l P o in s s o Ec x i p a o n e n : : : M M M x (t) x b e t = ∫ a a b − n x (t) k =e t ∑ k = 0 ∞ x (t) M k =e t ∑ k = 0 l : x (t) x = e t ∫ 0 ∞ x2 xn Propiedades: Sea la serie de MacLaurin de e : e = 1 + x + + ⋅⋅⋅+ 2! n!  ( tx ) ( tx )  M ( t ) = E ( e ) = 1 + tx + + ⋅⋅⋅ +  .  t 2 E[ x 3 ] t n −1 E[ x n ]  M ′ ( t ) = E[ x ] + tE[ x 2 ] + +⋅⋅⋅ + x  2! (n − 2)!   Ahora bien. si t=0. lo cual nos conduce a la Tansformada de Fourier de f. siendo i = −1 . entonces. M ′′ (0) = E[ x 2 ] x 10 .  t n −2 E[ x n ]  M ′′ ( t ) = E[ x 2 ] + tE[ x 3 ] + ⋅ ⋅ ⋅ + x  (n − 2)!   Si t=0. Su denominación proviene del hecho de que una vez conocida la función característica podemos determinar la función de distribución de la Variable Aleatoria y recíprocamente. entonces. M ′ (0) = E[ x ] x Volviendo a derivar. En general. para todo t. y sea Y = αX + β. Utilícela para hallar µ `r M x ( t ) = E (e tx ) = ∫ e tx ⋅ e −x dx =∫ e −x (1−t ) dx = 0 0 ∞ ∞  e− x x > 0 f ( =x  ) 0 o t r o Expandiendo en la serie de McLaurin. cuya densidad de probabilidad está dada por. M (xn ) (0) = E[ x n ] Teorema: La variable aleatoria X tiene una fgm Mx. Mz(t)=Mx(t)My(t) Ejemplo. y tienen fgm Mx(t). se tiene. My(t) y Mz(t). M x ( t ) = 1 + t + t 2 +  + t r +  = 1 +1!⋅ 1 1−t Por consiguiente. M y ( t ) = e βt M x (αt ) Teorema: Si Mx(t) y My(t) son las fgm de X y Y que son variables aleatorias respectivamente y si Mx(t)=My(t). entonces. Teorema: Si X y Y son variables aleatorias independientes y Z=X+Y. entonces X y Y tienen igual distribución de probabilidad. Determine la función generatriz de momentos de la variable aleatoria x. µ ′r = r! ∀ r t t2 tr + 2!⋅ +  + r!⋅ +  1! 2! r! Transformada Lineal de una Variable Aleatoria * 1 2 1 * * µ = E[X ] = c1E[X] + c 2 E[1] = c1 X + c 2 X = c X+ c c ≠ 0 X * − µ* = (c1 X + c 2 ) − (c1µ + c 2 ) = c1 ( X − µ) En general. E[( X * − µ* ) k ] = E[c k (X − µ) k ] = c k (X − µ) k ] 1 1 σ*2 = c1σ 2 que es un caso particular para k=2 11 . respectivamente. entonces. y)f (x.Y)] se define como  ∑ ∑ g ( x . que tiene media 0 y varianza 1 σ 1 µ c1 = y c 2 = − . y) = ∑ g(x)f1 (x) ⇔ d e p e nd de X e x y x E[X+Y]=E[X]+E[Y] 12 . y)d x d →y C o n t i n u o  −∞ −∞ E[a gX. M x +a ( t ) = E e ( x +a ) t = e at ⋅ M x ( t ) a   x +a  t    t t M x +a ( t ) = E  e  b   = e b ⋅ M x     b b   ( ) M bx ( t ) = E e bxt = M x (bt ) ( ) ESPERANZA BIDIMENSIONAL E[g(X. y) ]+ b Eh(x. y )f ( x . Si entonces. una transformación de la forma X * = X + c 2 . y ) → D i s c r e t o  E[g(X. Y) + b hX. Y) ]=  ∞ x∞ y  ∫ ∫ g(x. y) ] ( ( [ [ E[g(X. d r M x (t ) = µ′ r dt r De este teorema se desprende.La varianza es invariante bajo una traslación del origen. esto es. Y) ]= ∑ g(x)∑ f (x. σ σ σ X −µ Si una variable aleatoria X tiene media µ y varianza σ2 . X* toma la expresión entonces X −µ = Z . entonces Z = tiene media 0 y varianza 1 Teorema. Y) ]= a Eg(x. X Y y si X e Y son independientes..Xn son variables aleatorias independientes. −∞ ∞ siendo f(x) la función de distribución de probabilidades 13 . con varianza común entonces Si X1. σ XY = 0 La varianza de una suma de variables aleatorias independientes cuyas varianzas existan. o sea. lo que conduce a ... E ∑ X i = ∑ E[X i ] y E[X ]Y= E[X]E[Y] si X e Y son independientes X1. esto es.. entonces σ2 = E[ Z 2 ] − ( E[ Z]) 2 de donde E[ Z 2 ] = E[ X 2 + 2XY + Y 2 ] = ( E[ X ] + E[Y ]) 2 .El valor medio de una suma de variables aleatorias es igual a la suma de los valores medios de las variables aleatorias. σ 2 = σ 2 + σ 2 + 2σ XY . entonces σ2 = X σ2 n La fgm se define como: Sea X una variable aleatoria con dp p(x i)=P[X=xi]. es igual a la suma de esas varianzas Si X1....Xn son variables aleatorias independientes.. la función Mx es la fgm de X y se define como M x ( t) = ∑ j=1 e j p( x j ) para el caso discreto. σXY = E[XY ] − E[X ]E[Y ] . entonces X= 1 ( X1 + +X n )  n σ2 .X2.X2. y ∞ tx M x ( t) = ∫ d tx f ( x)dx para el caso continuo.. [ ] Si entonces   E X E ∏ n  = ∏ [X n ]  n  n Varianza: Si se tiene Z=X+Y.X2..X2.Xn son variables aleatorias independientes.Xn son variables aleatorias independientes. y tienen varianza Si X1...
Copyright © 2024 DOKUMEN.SITE Inc.