Capitulo4

March 27, 2018 | Author: Facu Lavandeira | Category: Statistical Hypothesis Testing, Normal Distribution, Probability, Hypothesis, Decision Making


Comments



Description

Detección de Señales4 2012 Objetivos: establecer el alcance del problema de detectar una señal en presencia de ruido; discutir los diferentes enfoques con que se puede abordar el problema; desarrollar algoritmos de detección que cumplan con determinados criterios de desempeño; 4.1 INTRODUCCION En los capítulos anteriores se han desarrollado modelos de procesos estocásticos para señales y ruido, lo que nos ha brindado una base para poder desarrollar algoritmos óptimos de procesamiento de señal que permitan extraer la información contenida en señales ruidosas. Estos algoritmos pueden usarse, por ejemplo, para determinar la secuencia de dígitos binarios transmitidos a través de un canal de comunicaciones ruidoso (figura 4.1); para detectar la presencia y estimar la localización de objetos en el espacio mediante radar; filtrar una señal ruidosa de audio, etc. En este capítulo, se considera un tipo de algoritmo de detección – extracción que se utiliza para lo que se denomina detección de señales. Figura 4.1: Modelo de canal para análisis del problema de detección de señales En detección de señales, (figura 4.1), el receptor observa una forma de onda durante un tiempo T y decide, sobre la base de esta observación, qué símbolo había sido transmitido en ese intervalo de tiempo. Tanto el transmisor como el receptor conocen, de antemano (a priori), el conjunto de símbolos y la forma de onda asociada a cada uno de ellos. Figura 4.2: Formas de onda y secuencias de la fig. 4.1 Cátedra de Señales Aleatorias – Fac. de Ingeniería U.N.R.C. / Capítulo 4 – Pág. 2 de 23 Así, en el caso de un sistema de comunicación binario, el receptor conoce que cada T segundos se transmite un “1” ó un “0” y que un “1” es representado por un pulso de –V volt (por ejemplo) y un “0” por un pulso de V volt. Lo que el receptor no puede conocer con anticipación, es cual es el símbolo que se ha transmitido en un período dado y, para conocerlo, debe decidir procesando la forma de onda recibida. Dado que la señal recibida está, usualmente, distorsionada y enmascarada en ruido, el receptor puede cometer errores en el proceso de decidir cual es el símbolo presente en un intervalo de observación dado. En síntesis, se examinará el problema de decisión (o detección) y se desarrollarán algoritmos que puedan usarse para determinar cual de las M formas de onda posibles (las que son conocidas de antemano, es decir: a priori) está presente durante un intervalo de observación. El trabajo a desarrollar comprende el proceso de análisis y síntesis de algoritmos de procesamiento de señales para detección. El análisis comprende la evaluación de la efectividad de un algoritmo dado, mientras que la síntesis consiste en el diseño de un algoritmo que cumpla con cierta especificación de desempeño. En los problemas de detección, un requisito típico de desempeño es minimizar la probabilidad de una decisión incorrecta; así, en la medición de desempeño se suele incluir el costo asociado a una decisión incorrecta. Mencionemos, finalmente, que algunas aplicaciones requieren, además de la detección, la estimación de parámetros desconocidos; estos parámetros pueden ser estimados a partir de los datos y los valores así obtenidos pueden ser usados en el algoritmo de detección. 4.2 DETECCION BINARIA MEDIANTE UNA UNICA OBSERVACION Existen muchas aplicaciones en las que se debe hacer una elección o tomar una decisión sobre la base de observaciones. Por ejemplo, en detección de señales radáricas o de sonar, la señal de retorno debe ser observada para decidir si cierto objetivo está presente o no; en sistemas de comunicación digital, el receptor debe tomar, a partir de observaciones ruidosas, la decisión de elegir cual de las M señales posibles está presente. En cada caso, la solución comprende la toma de decisión sobre la base de observaciones de datos que son variables aleatorias. La teoría subyacente en la resolución de estos problemas ha sido desarrollada por especialistas en estadística y está comprendida dentro del área conocida como inferencia estadística, teoría de decisión o prueba de hipótesis. Se comienza el tratamiento del tema con la formulación del problema de detección binaria como uno de prueba de hipótesis simple (es decir, uno en que se elige entre dos posibilidades) y se desarrollará una regla de decisión que maximice cierta medida de desempeño basada en la probabilidad de tomar decisiones correctas o incorrectas. La regla será aplicada luego al problema de detección cuando las decisiones son tomadas sobre la base de una o varias observaciones; finalmente, se extenderán los resultados al caso de detección M-aria (es decir cuando se decide entre M posibilidades). Teoría de decisión y prueba de hipótesis En prueba de hipótesis, se estudia como tomar decisiones acerca de cual hipótesis aceptar como válida. Si se toma el caso de un sistema de recepción de datos binarios, las dos hipótesis posibles son: se transmitió un “1” o se transmitió un “0”. Puede llamarse a esas hipótesis: H0 : se transmitió un “0” H1 : se transmitió un “1” En el lenguaje de prueba de hipótesis, se denomina a H0 hipótesis nula, y a H1 hipótesis alternativa. En el caso de detección de objetivos, estas hipótesis se denominan blanco ausente y blanco presente, respectivamente. La relación utilizada para la toma de decisión es la denominada regla de decisión. para cualquier aplicación práctica es preciso reescribir la (4.2) H0 (Nótese. en efecto. Recuérdese que Y es una variable aleatoria. la regla de decisión establecida en la (4. en primer término. que el signo igual puede ser incluido tanto a favor de H1 como de H2).R.1. existen una o más observaciones (variables aleatorias) sobre la base de las cuales se toma la decisión acerca de cual es la válida. evaluada una vez que se ha hecho la observación. Hi sea la hipótesis verdadera).2): . Regla de Decisión MAP El criterio establecido mediante la (4.C.Cátedra de Señales Aleatorias – Fac. 3 de 23 En correspondencia con cada hipótesis. 1 se pueden expresar las P(Hi|y) en función de las densidades de probabilidad usando la Regla de Bayes. el criterio de decisión establecido por la (4. f Y | H ( y | H 1) 1 f Y |H 0 H1 > P ( H 0) < P ( H 1) ( y | H 0) (4. resulta: P( H i | y) = f Y |H i ( y | H i) P( H i) f Y ( y) así. denota la probabilidad condicional a posteriori (es decir. de Ingeniería U.1) puede ser expresada ahora como: P ( H 1) f Y | H ( y | H 1) 1 P ( H 0) f Y | H ( y | H 0) 0 H1 > < 1 H0 o bien. se decide tratando de maximizar la probabilidad de tomar una decisión correcta. Así.1) recibe el nombre de Máximo a Posteriori o directamente MAP. que dada una observación particular y. en forma concisa: H1 P( H1 | y ) > 1 P( H 0 | y ) H< (4. con i = 0. Dado que la probabilidad P(Hi|y) se denomina probabilidad a posteriori.N. dado que se conocen a priori las funciones de densidad de probabilidad de Y correspondientes a cada hipótesis: y f Y | H ( y | H 0) 0 f Y | H ( y | H 1) . / Capítulo 4 – Pág. Esta regla de decisión se formaliza expresando: se escoge H0 sí P(H0|y) > P(H1|y) y se escoge H1 sí P(H1|y) > P(H0|y) o bien.1) es aplicable una vez que se cuenta con la observación y. Se considerará. Sí P(Hi|y).1) en términos de factores que se puedan conocer de antemano. la cual se deriva de maximizar algún criterio de desempeño. La relación de lado izquierdo de la (4.1) 0 que significa que: Se escoge H1 cuando la relación es mayor que 1 y se escoge H0 cuando la relación es menor que 1. intuitivamente puede decirse que se debe escoger en favor de H0 ó H1 en consonancia con el mayor de P(H0|y) y P(H1|y). En síntesis. sin embargo. siendo y un valor particular. es decir. el caso en que se debe decidir entre H0 y H1 sobre la base de una única observación Y. Por su parte.Y n| H 0 ( y1 . se mostrará como se aplica la regla de decisión desarrollada en casos prácticos. las decisiones se basan en la función de verosimilitud L(y).Decidir en favor de H1 cuando H0 es correcto 4. El error de la posibilidad 3 se denomina error tipo-I y el de la posibilidad 4.3. y 2 . / Capítulo 4 – Pág.Si la decisión se adopta a partir de observaciones múltiples.. y 2 .2): γ = P ( H 0) P ( H 1) recibe el nombre de umbral de decisión. Frecuentemente. Pe.. se denomina a P(D1|H0) probabilidad de falsa alarma (PF) y a P(D0|H1) probabilidad de pérdida (PM). hay cuatro posibilidades: 1. L(Y) es una variable aleatoria y recibe el nombre de estadística o verosimilitud. se elige como medida de desempeño a ser minimizado a la probabilidad media de error. Tipos de Error Cuando se toman decisiones sobre la base de observaciones ruidosas. la regla MAP se aplica sobre la base de la razón de verosimilitud: L( y1 .R.. siempre es posible tomar alguna decisión incorrecta. así. R0 y R1. Y2.4) Volveremos sobre este último punto en el apartado 4. Observaciones: 1. en el enfoque la teoría de decisiones.L.Decidir en favor de H1 cuando H1 es correcto 3. . y 2 . 2..Decidir en favor de H0 cuando H1 es correcto Si denominamos Di a la decisión en favor de Hi. La relación de la derecha de la (4. usualmente se tienen en cuenta tanto los costos como las probabilidades a priori. de Ingeniería U.Cátedra de Señales Aleatorias – Fac.N. Así.L y n) = f Y 1. . mientras que las correspondientes a las decisiones incorrectas son P(D1|H0) y P(D0|H1).3) recibe el nombre de relación de verosimilitud. 3. 4 de 23 L( y ) = f Y | H 1 ( y | H 1) f Y | H 0 ( y | H 0) (4.. Yn.. que se define: Pe = P(H0)P(D1|H0) + P(H1)P(D0|H1) Mediante el siguiente ejemplo. En detección de señales..L y n | H 1) f Y1.Decidir en favor de H0 cuando H0 es correcto 2. digamos: Y1. error tipo-II.Y 2. conduce a una partición del espacio de observación en dos regiones. se escoge H0 ó H1 según que la observación y ∈ R0 ó R1.Y 2..C. se incluyen las probabilidades a priori y los costos asociados a cada decisión.. en cambio.. las probabilidades condicionales correspondientes a las decisiones correctas son P(D0|H0) y P(D1|H1). En terminología de radar. la regla de decisión MAP consiste en comparar la razón de verosimilitud con el término constante γ.L y n | H 0) (4.En el enfoque clásico de prueba de hipótesis.L. En el problema de prueba de hipótesis binaria.La regla de decisión MAP establecida en el parágrafo anterior.Y n|H 1 ( y1 . 622 y < 2 9 H0 . Por otra parte. de lo que resulta: f Y | H 1 ( y | H 1) = f Y | X ( y | 1) = 9 ⎛ 9 ⎞ exp⎜ − ( y − 1)2 ⎟ 2π ⎝ 2 ⎠ A partir de la relación de la (4.C.R...3). con distribución Gaussiana de media cero y varianza 1/9 (X y N son independientes). se recibe señal y ruido. se obtiene que la regla de decisión es: H1 > 1 + 1 Ln(3) ≈ 0.Desarrolle la regla de decisión MAP b. recordemos que la función de densidad de probabilidad Gaussiana es: f x ( x) = 1 2π σ 2X ⎡ ( x − μ X )2 ⎤ exp ⎢− ⎥ 2σ 2X ⎦⎥ ⎣⎢ Así.1 En cierto sistema de comunicación binario. tomando logaritmos a ambos lados. podemos establecer la relación de verosimilitud para este caso como: ⎡ 9 ⎤ exp ⎢− ( y − 1) 2 ⎥ ⎣ 2 ⎦ L( y ) = ⎛ 9 ⎞ exp⎜ − y 2 ⎟ ⎝ 2 ⎠ y la regla de decisión se expresa como: H1 ⎛9 ⎞ > 34 exp⎜ (2 y − 1) ⎟ < ⎝2 ⎠ H0 1 4 de donde. 5 de 23 Ejemplo 4.Calcule las probabilidades de error Solución: a.Si se denota como: H0: “0 transmitido” H1: “1 transmitido” se sabe que P(H0) = ¾ y que P(H1) = ¼ .Cátedra de Señales Aleatorias – Fac. / Capítulo 4 – Pág.N.1 representa el dato transmitido y N es ruido aditivo. se considera que P(X=0) = ¾ y que P(X=1) = ¼. Para el cálculo de las funciones de densidad de probabilidad de acuerdo a lo que se ha transmitido. en el caso de haberse transmitido un cero.. Las formas de onda asociadas son: ausencia de señal cuando se transmite un 0 y señal continua de 1 volt de amplitud cuando se transmite un 1. solo se recibe ruido y resulta: f Y |H 0 ( y | H 0) = f Y | X ( y | 0) = 9 ⎛ 9 ⎞ exp⎜ − y 2 ⎟ 2π ⎝ 2 ⎠ Para el caso de recibirse un uno. a. la decisión acerca del bit transmitido es tomada sobre la base de una única observación ruidosa de forma: Y=X+N en la que X = 0 . de Ingeniería U. en el contexto de detección radárica.3: Regla de decisión y probabilidades de error del Ejemplo 4. se elige H0 cuando y ∈ R0 y se elige H1 cuando y ∈ R1. 0. usualmente se tienen en cuenta costos en el proceso de diseño. de modo que.3 y con ayuda de tablas. H0) y (D1. Figura 4. 1. Si recordamos que hemos denominado.622 . En nuestro caso. es decir μx = 0 y σx2 = 1.866) + ¼ Q(1. de Ingeniería U. en * se procedió a normalizar antes de buscar en tabla) La probabilidad media de una decisión incorrecta es. la regla de decisión resultante particiona el espacio de observación y ∈(-∞ .1 b. los pares (D0. o un costo asociado al filtrado de una señal (en términos de información perdida). En este contexto. entonces: Pe = P(H0)P(D1|H0) + P(H1)P(D0|H1) ≈ ¾ Q(1.055 Regla de Decisión de Bayes – Costos de los Errores En las aplicaciones de ingeniería.. 1 [se lee: decidirse por i habiendo sido transmitido j].134) ≈ 0. desarrollaremos una regla de decisión que minimiza el costo promedio. H1) denotan decisiones correctas. podemos obtener las probabilidades de error como: P ( D0 | H 1) = P ( y ∈ R0 | H 1) = ∫f Y |H 1 ( y | H 1)dy R0 ⎡ 9 ⎤ exp ⎢− ( y − 1)2 ⎥dy −∞ 2π ⎣ 2 ⎦ * ≈ Q (1. mientras que los .866) ≈ 0.C.622) y R1 = (0. Por ejemplo. Una regla de decisión óptima. en nuestro caso. 622 3 y P ( D1 | H 0) = P ( y ∈ R1 | H 0) = ∫f Y |H 0 ( y | H 0)dy R1 ≈ * Q (1. existe un costo asociado a llevar o mantener una variable en determinado punto de trabajo (en términos de consumo de materias primas). existen cuatro posibilidades. debe tener en cuenta estos costos relativos y minimizar el costo medio. a las decisiones tomadas en el contexto del problema de hipótesis binaria. 6 de 23 Es decir. ∞).134) ≈ 0.Cátedra de Señales Aleatorias – Fac.N.R.128 = ∫ 0 . ∞) en dos regiones: R0 = (-∞ . los costos y consecuencias de no detectar un blanco son muy diferentes a los de una falsa alarma.De la figura 4. podemos considerar los costos asociados a la toma de decisiones y desarrollar reglas de decisión que minimicen ciertos costos medios. Así.031 (recordar que las tablas son válidas para la función normalizada. A continuación. Así. / Capítulo 4 – Pág. que denotamos como (Di. entonces. como Di con i = 0. 1 y j = 0. Hj) con i = 0. / Capítulo 4 – Pág.6) R1 ∫f Y |H 1 ( y | H 1) dy + C11 P ( H 1) R0 ∫f R1 Sabiendo que el espacio de las observaciones se extiende entre (-∞. es decir que: C10 > C00 y C01 > C11 se puede escribir la (4.1 en la que P(Di|Hj) es la probabilidad de decidir en favor de Hi cuando Hj es la hipótesis correcta. desarrollaremos la denominada Regla de Decisión de Bayes. que los dos primeros términos de la derecha no dependen de la partición del espacio de observación). [R1 ∪ R0 = (-∞. el integrando será negativo si se escoge R0 de forma tal que para cada valor de y ∈ R0 se cumpla: P ( H 1)(C 01 − C11) f Y | H ( y | H 1) < P( H 0)(C10 − C 00) f Y | H ( y | H 0) 1 0 .Cátedra de Señales Aleatorias – Fac. Hj). Dado que C10 > C00 y C01 > C11. Si denominamos R0 y R1 a las particiones del espacio de observación y. la cual minimiza el costo medio C .∞) y R1 ∩ R0 = ∅].R.1 j =0. 7 de 23 pares (D1. H0) y (D0.1 = ∑∑ (4. H1) denotan decisiones incorrectas. entonces el costo medio puede ser expresado como: C = C 00 P ( D 0 | H 0) P ( H 0) + C10 P ( D1 | H 0) P ( H 0) + C 01 P ( D 0 | H 1) P( H 1) + C11 P( D1 | H 1) P ( H 1) = C 00 P ( H 0) ∫f Y |H 0 ( y | H 0)dy + C10 P ( H 0) R0 + C 01 P ( H 1) ∫f Y |H 0 ( y | H 0)dy + Y |H 1 ( y | H 1)dy (4. El menor valor de C será alcanzado cuando el integrando sea negativo ∀ y ∈ R0. de Ingeniería U. podemos escribir que: C10 P ( H 0) ∫ R1 ⎡ ⎤ f Y | H ( y | H 0)dy = C10 P ( H 0) ⎢⎢1 − f Y | H ( y | H 0)dy ⎥⎥ 0 0 ⎢⎣ R 0 ⎥⎦ ∫ y C11 P ( H 1) ∫ R1 ⎡ ⎤ f Y | H ( y | H 1)dy = C11 P ( H 1) ⎢⎢1 − f Y |H ( y | H 1)dy ⎥⎥ 1 1 ⎢⎣ R 0 ⎥⎦ ∫ Además.C. A continuación. para minimizarlo se deberá establecer la R0 que minimice la integral de la última expresión (nótese. Si ahora asociamos un costo Cij [se lee: costo de decidirse por i cuando ha ocurrido j] a cada par (Di. H j) i =0. si las decisiones son tomadas a favor de H0 cuando y ∈ R0 y a favor de H1 cuando y ∈ R1.1 j = 0. que constituye un conjunto exhaustivo y excluyente.5) C ij P ( H j ) P( Di | H j ) i = 0.N.6) como: C = C10 P( H 0) + C11 P( H 1) + ∫ [P(H )(C 1 01 − C11) ] f Y | H ( y | H 1) − P( H 0)(C10 − C 00) f Y |H ( y | H 0) dy 1 0 R0 Dado que el costo medio queda especificado en términos de R0.∞) y que no hay solapamiento entre las regiones R0 y R1. si se considera (razonablemente) que los costos de tomar una decisión incorrecta son mayores que los asociados a una decisión correcta. es decir. podemos expresar el costo promedio como: C = ∑ ∑ Cij P(Di . contenido en el valor que asume el umbral de decisión γ con el que es comparada la relación de verosimilitud. Sin embargo.2). el peor caso. es decir: L( y ) = f Y | H 1 ( y | H 1) f Y | H 0 ( y | H 0) H1 > < γ (4. Esta regla ha sido desarrollada buscando. La regla se desarrolla manteniendo la probabilidad de falsa alarma. que busca sacar el mejor provecho de la peor situación a partir de considerar el: ⎧⎪ ⎫⎪ min max ⎨ Cij P ( H j ) P( Di | H j )⎬ Hi Hj ⎪⎩ i =0. además. resulta: H1 f Y | H ( y | H 1) > P ( H 0)(C − C ) 10 00 1 =γ L( y ) = f Y | H ( y | H 0) < P ( H 1)(C 01 − C11) 0 (4.R.1 ⎪⎭ ∑∑ Se destaca que la regla resultante asume una forma similar a lo ya visto.Cátedra de Señales Aleatorias – Fac. Se ve que ambas reglas son idénticas en el caso en que se cumpla que: C10 . que la regla de decisión de Bayes minimiza la probabilidad de una decisión incorrecta cuando C11 = C00 = 0 y C10 = C01 = 1 A fin de utilizar las reglas de decisión MAP y de Bayes.1 j =0. se utilizan otras reglas de decisión que no requieren el conocimiento de los costos. el valor de P(Hj) que maximice el costo medio C . Regla de decisión Neyman – Pearson La regla de decisión Neyman – Pearson es utilizada cuando no se conocen las probabilidades a priori ni se han asignado costos a la toma de decisión.7) tiene la misma forma que la regla de decisión MAP establecida en la (4. 8 de 23 lo que lleva a establecer la regla de decisión de la siguiente forma: “Se escoge H0 sí P ( H 1)(C 01 − C11) f Y | H ( y | H 1) < P( H 0)(C10 − C 00) f Y | H ( y | H 0) ” 1 0 Escribiendo lo anterior en términos de relación de verosimilitud y umbral de decisión. P(H0) ni P(H1). es necesario conocer las probabilidades a priori P(H0) y P(H1). en primer término.C11 Puede mostrarse. es decir. / Capítulo 4 – Pág.8) H0 En la que γ es el umbral de decisión. La forma general que asume esta regla de decisión es igual a la de la regla minimax de la ecuación (4. P(D1| H0) por debajo de cierto valor especificado y minimizando la probabilidad de una pérdida (de no detectar) P(D0| H1).N.8) quedando. . el criterio de cada regla. la regla de decisión de Bayes de la (4. de Ingeniería U. para luego minimizar este costo medio (de allí su nombre). en tales casos.7) H0 Nótese que. así como los costos relativos. A continuación.C.C00 = C01 . excepto en lo que concierne al umbral de decisión γ. en muchas aplicaciones de ingeniería estas cantidades pueden no estar disponibles. Se omiten los detalles de desarrollo de esta regla de decisión. Regla de decisión Minimax La regla de decisión minimax es utilizada cuando se conocen los costos Cij pero no las probabilidades a priori. se mencionan dos de estas reglas de uso corriente. que la diferencia entre las medias es 2A. Estas curvas reciben la denominación de características operativas del receptor (ROC). a la probabilidad de error y. como medida de la performance de las reglas de decisión. el desempeño de las reglas de decisión se muestra en forma de gráficos de probabilidad de detección con P(D1| H1) = PD en función de la probabilidad de falsa alarma P(D1| H0) = PF. al aumentar el número de muestras consideradas disminuye la varianza. para el problema de detección binaria mostrado en la figura .4 se muestran las probabilidades condicionales con indicación de PD y PF. en base a las cuales de determina el símbolo detectado. se ve que si estas áreas disminuyen también lo hará la probabilidad de error. para disminuir la probabilidad de error. Así. muestra un ejemplo de curvas ROC con la relación señal .5: Característica operativa del receptor (Receiver Operating Characteristic) ROC 4. Figura 4. en muchos casos no suele hacerse la detección a partir de una única muestra sino que. 9 de 23 Figura 4.R. de Ingeniería U. nótese.4: Funciones de densidad de probabilidad condicional PF y PD (considerando que sean Gaussianas con varianza = σ2) En ciertas aplicaciones. según se sabe.5. se estableció. tal lo visto a partir de la fig. A partir de esto. dado un determinado umbral de decisión. esta probabilidad de error está directamente relacionada con las áreas sombreadas correspondientes a P(D0|H1) y P(D1|H0). se pueden reducir P(D0|H1) y P(D1|H0) por dos caminos: separando los valores medios (lo cual implica mayor disipación de potencia en los dispositivos involucrados) o bien disminuyendo la variancia asociada a las fdp.ruido como parámetro (expresada como cociente entre la media y la desviación standard).N.3. / Capítulo 4 – Pág. para diversos valores de umbral. 4. Como.C. En la figura 4. se toman varias muestras. En principio.Cátedra de Señales Aleatorias – Fac. entre las que se incluyen los sistemas de radar. La figura 4.3 DETECCION BINARIA MEDIANTE OBSERVACIONES MULTIPLES En el apartado anterior. será igual a la distribución conjunta de N1.k = s1(tk). y2. concentrándonos.Cátedra de Señales Aleatorias – Fac. procesarlas y tomar una decisión a partir de la información contenida en el conjunto de las observaciones realizadas en el intervalo de símbolo T. Una extensión directa de la regla de decisión MAP ya discutida. Ym]T e y = [y1.T).C.1.. ... el receptor observa: Y(t) = X(t) + N(t). 0≤t≤T en la que: ⎧⎪s 0 (t ) X (t ) = ⎨ ⎪⎩s1 (t ) bajo la hipótesis H 0 bajo la hipótesis H 1 designándose como s0(t) y s1(t) a las formas de onda usadas en el transmisor para representar el “0” y el “1” respectivamente. . Con el conjunto de muestras de cada período. . entre muchas.k = s0(tk) y s1.N.1. m muestras de Y(t). además. Ym. ym]T Consideremos. definimos los vectores: Y = [Y1.. con tk ∈ (0. una variable aleatoria que toma yk como valor particular de Yk. s0(t) puede ser un pulso rectangular de duración T y amplitud +V y s1(t) un pulso rectangular de duración T y amplitud –V tal como se muestra en la figura 4. en la que s0(t) y s1(t) son sinusoidales de igual frecuencia y amplitud. A continuación. el receptor puede extraer varias muestras de Y(t). . puede ser una transmisión BPSK. en cada período. Otra alternativa.. Supóngase que el receptor toma. Y2. tal como se muestra (en forma simplificada) en la figura 4..k o s1. 10 de 23 4. las muestras tomadas se pueden expresar como: ⎧⎪s0. Y2. en el problema de escoger entre dos formas de onda conocidas que arriban corruptas por ruido aditivo. a las que se denominan Y1. excepto por una traslación de medias debido a s0. Durante el intervalo T. N2. En un caso simple. s0(t) y s1(t) son formas de onda determinísticas conocidas.k.6: Forma de onda recibida en BPSK de fase de 180º..6... Bajo esta hipótesis. .R.k + nk yk = ⎨ ⎪⎩s1. la distribución de Y1. en primera instancia. conocidas las distribuciones de Y bajo H0 y H1 (en el caso de pulsos rectangulares. Nm. Y2. de Ingeniería U. es decir.. Bajo las hipótesis planteadas.. lo único que el receptor no puede conocer de antemano es cual de las dos ha sido transmitida en un intervalo dado. denotándose Yk = Y(tk). son valores conocidos de las formas de onda determinísticas s0(t) y s1(t). Ym. pero con una diferencia Figura 4.. En cualquier caso. conduce a un algoritmo de decisión de la forma: . desarrollaremos un algoritmo para la toma de decisiones a partir del procesamiento de observaciones múltiples.. el receptor toma su decisión a partir de la observación de la forma de onda recibida durante T segundos..k + nk bajo la hipótesis H 0 bajo la hipótesis H1 en las que s0. / Capítulo 4 – Pág.. el muestreo del canal se realiza a una tasa determinada a partir de tk = k(1/2B).12) Ahora bien..10) para cualquier otra frecuencia en la que N0/2 es la densidad espectral de potencia bilateral del ruido y B es el ancho de banda del receptor.Cátedra de Señales Aleatorias – Fac. lo que permitirá establecer las funciones de distribución conjunta a utilizar en la (4. / Capítulo 4 – Pág. Y j | H 1 = ⎨ ⎩0 { } si k = j cc Volviendo al problema original y bajo las condiciones establecidas. con la media desplazada en función del símbolo transmitido (s0 ó s1) y una distribución condicional Gaussiana multivariable con: E{Y|H0} = [s0.9). el cual es considerado. la función de distribución de probabilidad puede ser expresada como el producto de las funciones de distribución de probabilidad condicional de los elementos individuales del vector Y de la forma: .12). antes de proseguir debe establecerse cierto criterio en cuanto a la tasa de muestreo a utilizar. Dado que se ha modelado el ruido en el canal como un proceso aleatorio Gaussiano. . usualmente. que las muestras serán incorrelacionadas. con k entero. por razones que se harán evidentes en el transcurso del desarrollo del tema. s0. las Nk = N(tk) muestras de ruido correspondientes al período de bit de la señal.. s1. la (3. ⎧σ 2 covar Yk . 11 de 23 H1 f Y| H (y | H 1) > P( H ) 0 1 L( y ) = f Y| H ( y | H 0) < P( H 1 ) 0 (4.1.C. La señal percibida por el receptor. independencia entre muestras y ruido En muchas de las aplicaciones que involucran canales de comunicación. con todos los elementos fuera de la diagonal principal nulos.. s1.9) H0 En este punto. si se logra que las muestras sean incorrelacionadas. Y j | H 0 = ⎨ ⎩0 { } si k = j cc y ⎧σ 2 covar Yk .. igual al ancho de banda del ruido. Con las propiedades establecidas. el ruido que acompaña a la señal puede ser modelado como un proceso aleatorio Gaussiano de media nula y con una densidad espectral de potencia dada por: ⎧ N0 ⎪ S NN ( f ) = ⎨ 2 ⎪ ⎩ 0 | f |< B (4. de Ingeniería U.R. s0. es decir que RNN(τ) = 0. Es decir si.1.. Dado que para el caso Gaussiano muestras incorrelacionadas implica que las muestras son independientes.m]T E{Y|H1} = [s1.m]T y además.11) sen2πBτ (2πBτ ) (4. Se ha establecido en capítulos anteriores que la potencia del ruido es: { } E N 2(t) = R NN ( 0 ) = N 0 B y R NN (τ ) = N 0 B (4. se denomina a N(t) ruido blanco Gaussiano de banda limitada. también serán independientes.101) posee una matriz de covarianza diagonal. es decir. se desea averiguar qué período de muestreo debe utilizarse para que las muestras sean independientes del ruido.. serán..N. Establecimiento de la tasa de muestreo. entonces. incorrelacionadas e independientes.2. tal como se deduce de la observación de la (4. efectivamente. . poseerá una distribución Gaussiana.2.. 15) en la que: si = [si... tomando logaritmos para eliminar los productos y ordenando los términos. si.14) la que también puede expresarse vectorialmente como: H1 T > σ 2 ln⎛⎜ P( H 0) ⎞⎟ + 1 (s1T s1 − sT0 s0) y [s1 − s0] < ⎜ P( ) ⎟ 2 ⎝ H1 ⎠ H0 (4. se arriba a la siguiente regla de decisión: m ∑ k =1 1 m > σ 2 ln⎛⎜ P ( H 0) ⎞⎟ + 1 ( s12k − s02k ) y k s 0 .15) se denomina algoritmo de filtro adaptado.2: Un sistema de comunicación binario utiliza como señales las formas de onda mostradas en la figura 4.1. / Capítulo 4 – Pág.2. .C.9).7 para transmitir secuencias equiprobables de unos y ceros.1 El esquema dado por la (4.2 En la entrada del receptor.k - ∑ H ∑ (4.m]T .7: Formas de onda de las señales del sistema de comunicación binario del ejemplo 4. En él. Figura 4.13) en la regla de decisión dada por la (4. las señales se reciben con el agregado de ruido Gaussiano de media cero y con una densidad espectral de potencia dada por: . si.k < ⎜ P( ) ⎟ 2 ⎝ H1 ⎠ k =1 k =1 H0 m yk s1. 12 de 23 f Y|H i (y | H i ) = m ∏ k =1 ⎡ ( y − sik )2 ⎤ exp ⎢− k 2 ⎥ 2σ 2πσ 2 ⎣⎢ ⎦⎥ 1 (4. de Ingeniería U..Cátedra de Señales Aleatorias – Fac.N. Sustituyendo la (4. Ejemplo 4. los productos escalares yTs1 y yTs0 permiten conocer a cual de las señales s1 ó s0 se “parece” más el vector recibido y. pues una vez transmitido el dato es determinístico).13) en la que σ2 = N0B (la varianza es la correspondiente al ruido. i = 0.R. k es entero y.C.2 −∞ La probabilidad media de error está dada por: ∞ ∫ P e = P ( H 0) f Z | H 0 ( z | H 0)dz + P ( H 1) 1. y m] . L .1. considerando secuencias equiprobables de unos y ceros.2. ¿Cuál es la regla de decisión y cuál es la probabilidad media de error? Solución: De acuerdo al enunciado. las muestras de N(t) serán independientes una de otra. La variable de decisión Z.1] Reemplazando y operando. la regla de decisión de la ecuación (4. L .5 i m = 10 H0 esta última expresión implica que el receptor debe promediar las muestras tomadas durante el intervalo de bit. según se ha definido la densidad espectral de potencia del ruido. La varianza de Z puede ser calculada como: ⎧1 m ⎫ σ2 N (t i ) ⎬ = N m σ 2Z = varianza de ⎨ ⎩ m i =1 ⎭ en la que: ∑ ∞ σ 2N = ∫ S NN ( f ) df = 0. / Capítulo 4 – Pág. en consecuencia. como: H 1 > 1 (sT s − sT s ) y T [s1 − s0] < 1 0 0 2 1 H0 con: yT = [ y1 .R.1 ms. m = 10 s1T = [ 2. resulta: tk = k 1 ⇒ k = 0. por otra parte.Cátedra de Señales Aleatorias – Fac. si se toma una muestra cada 0. 5 ∫f −∞ Z |H 1 ( z | H 1)dz de donde se obtiene. Z= 1 m m ∑Y i i =1 tiene una distribución Gaussiana con media 2 bajo H1 y 1 bajo H0. 5 1.N.2] sT0 = [1. 13 de 23 ⎧⎪10-7 S NN ( f ) = ⎨ ⎪⎩ 0 | f |< 106 para cualquier otra frecuencia Se supone que el receptor toma una muestra de la señal entrante cada 0. L . comparar el promedio obtenido con el valor del umbral y decidir sobre la base de la comparación.1 ms y toma una decisión cada milisegundo sobre la base de las 10 muestras tomadas en cada intervalo de bit. y 2 . podemos expresar la regla de decisión como: 1 m H1 m ∑y i =1 > < 1.1x10 −3 2 x10 6 = 200 2B ( ) ( )( ) es decir. se recibe Y(t) = X(t) + N(t).15) queda. resulta: m ∑ i =1 H 1 > 3m yi < 2 H 0 Dividiendo ambos miembros por el número de muestras. de Ingeniería U. según la cantidad de muestras tomadas en el período de bit: . Si bien sabemos que en la realidad esto no es estrictamente así. T segundos después. Una vez que se ha tomado una decisión. Cuando la salida del correlador de la señal s1(t) excede al valor de la salida del correlador de s0(t) en una cantidad γ. así.18).18) H0 En la figura 4. Este procedimiento se repite y la salida del circuito es una sucesión de unos y ceros que constituyen la estimación de la secuencia transmitida. / Capítulo 4 – Pág. de Ingeniería U. .2 cuando m =1 La comparación de la probabilidad media de error para m = 1 y m = 10 revela que promediar 10 muestras reduce considerablemente la probabilidad de error.5 0.C. Ruido Blanco y Observaciones Continuas Cuando el ancho de banda del ruido es mucho mayor que 1/T. se relanzan los integradores con condición inicial 0 hasta realizar la toma de decisión del próximo período. de acuerdo a la (4.14) se convierte en: T T ∫ y(t )s (t )dt − ∫ y(t )s (t )dt 1 0 0 0 Recordemos que. el concepto es de utilidad para desarrollar una regla de decisión que aproveche estas consideraciones.16) por lo que la función de autocorrelación del ruido blanco resulta: R NN (τ ) = N0 δ (τ ) 2 (4.0002 cuando m =10 0.8. la regla de decisión se convierte en: T ∫ 0 T y (t ) s1(t )dt − ∫ 0 H1 >γ y (t ) s 0(t )dt < (4.13 0. el término de la izquierda de la regla de decisión de filtro adaptado establecida en la ecuación (4. Este consta de dos correladores cruzados (una combinación de multiplicador e integrador) cuyas salidas son muestreadas cada T segundos.14) la última expresión es el logaritmo de la relación de verosimilitud y que el receptor debe tomar su decisión comparando esta cantidad con el umbral de decisión γ.5 ≈ 0. se puede considerar al ruido blanco como si tuviera una densidad espectral de potencia: S NN ( f ) = N0 2 ∀f (4. se muestra un diagrama en bloques de la operación de procesamiento que tiene lugar en el receptor al aplicar la (4.R. T). el receptor se decide en favor de s1(t).02 Pe = Q Pe = Q ≈ 0.Cátedra de Señales Aleatorias – Fac.N. el receptor podría obtener y procesar una cantidad infinita no numerable de muestras independientes en el intervalo (0. Si se considera posible hacer tender m → ∞.17) lo que implica que. en teoría. 14 de 23 0. bajo las dos hipótesis planteadas. que se ha supuesto Gaussiano. se ve que el umbral de decisión γ está dado por: 2 μ +μ ⎛ P( H 0 ) ⎞ ⎟ ln⎜⎜ (4.N. comparando la (4. se determinará el valor que asume el umbral de decisión γ .18).19) con la (4.20) γ = 0 1+ σ 2 μ1 − μ 0 ⎝ P( H 1 ) ⎟⎠ . pues lo único aleatorio en cada caso se reduce al término N.19) H0 en la que: T z= T ∫ y(t )s (t )dt − ∫ y(t )s (t )dt 1 0 0 0 Entonces. de Ingeniería U. la regla de decisión se reduce a (aplicando logaritmos para poder despejar): H1 2 ⎛ P( H 0 ) ⎞ > μ 0 + μ1 + σ ⎟ ln⎜⎜ z < 2 μ1 − μ 0 ⎝ P( H 1 ) ⎟⎠ (4. / Capítulo 4 – Pág. la regla MAP para decidir entre H0 y H1 sobre la base de una observación Z se reduce a la ya conocida: L( Z ) = f Z | H ( z | H 1) H1 > P( H 0 ) < P( H 1 ) f Z | H ( z | H 0) 0 H0 1 Si f Z | H 1 es Gaussiana con media μ1 y varianza σ2. Así.Cátedra de Señales Aleatorias – Fac. puede ser determinada a partir de: T Z= ∫ [s (t ) + N (t )][s (t ) − s (t )]dt 1 1 0 bajo H1 (se transmitió un uno) 0 y de: T Z= ∫ [s (t ) + N (t )][s (t ) − s (t )]dt 0 1 0 bajo H0 (se transmitió un cero) 0 De estas expresiones se infiere que Z tiene una distribución Gaussiana.8: Correlador de recepción para detectar dos señales determinísticas s1(t) y s0(t) corruptas por ruido blanco Gaussiano aditivo A continuación. y f Z | H 0 es Gaussiana con media μ0 y varianza σ2. este problema de detección binaria es equivalente a decidir entre H0 y H1 sobre la base de una única observación Z. dado que la estructura propuesta de correlador permite obtener una observación cada T segundos. 15 de 23 Figura 4. Por otra parte.R.C. sea: T Z = Y (t )[s1 (t ) − s0 (t )]dt ∫ 0 La distribución condicional de la variable de decisión Z. de Ingeniería U. La varianza de Z puede ser calculada usando los resultados de Probabilidad como: σ 2Z ≈ σ 2N 2 BT en la que el producto BT es igual a (106)(10-3). La regla de decisión. se denomina ruido blanco a aquel que posee una densidad espectral de potencia plana en un rango muy amplio de frecuencias. / Capítulo 4 – Pág. es: T ∫ H1 >γ y (t ) [s1 (t ) − s0 (t )]dt < 0 T = 1 ms H0 o T H 1 1 > γ′ y (t ) dt < T 0 H ∫ 0 en la que γ´ = γ/T es el umbral de decisión cuyo valor puede ser determinado a partir de la distribución de la variable de decisión. y posee una forma arbitraria. y por consiguiente las observaciones. cuando la densidad espectral de potencia no es uniforme en el rango de frecuencias considerado. 16 de 23 Ejemplo 4.R. dado que el ancho de banda del ruido es mucho mayor que el de la señal X(t). desarrolle una estructura para el receptor y la regla de decisión sobre la base de un procesamiento analógico continuo de la señal durante cada intervalo de bit.8 es aplicable solo cuando N(t) es blanco de banda ilimitada. Compare la probabilidad de error con la obtenida en el ejemplo 4. Si bien las consideracio- .Cátedra de Señales Aleatorias – Fac. Por extensión de esta denominación. la performance del receptor de correlación está próxima a ser óptima.18)]. la que presenta esa misma propiedad. sabemos que γ´ = 1. [a partir de la ecuación (4.5 ⎞ ⎟≈0 P e = Q⎜ ⎜ −4 ⎟ ⎝ 10 ⎠ Detección de Señales corruptas con Ruido Coloreado Según se sabe. la variable de decisión Z: T Z= 1 Y (t ) dt T 0 ∫ tiene una función de densidad de probabilidad Gaussiana con media 2 bajo H1.N. al tratar el problema de detección binaria con observaciones múltiples. la misma puede ser utilizada aquí como una aproximación.- Solución: Si bien la estructura del receptor correlador mostrada en la figura 4. para el sistema en cuestión. En este ejemplo. y una media de 1 bajo H0.2. fueran independientes.C. según el caso. al ruido se lo denomina coloreado por analogía con la luz que presenta estas características y no es blanca (es de algún color).2. por analogía con la luz blanca.5 y que: ⎛ 0.3: Considérese nuevamente el sistema de comunicación binario descripto en el ejemplo 4. en estos casos. y se habían establecido las condiciones para que las muestras del ruido. se había asumido que el ruido que contaminaba la señal era blanco. luego: σ 2Z = σ 2N 2000 = 0.2 = 10− 4 2000 Dado que la recepción de un uno o un cero es equiprobable. de banda limitada o no. En las secciones anteriores. 25) ⎢M ⎢ ⎣0 M 0 M ⎥ ⎥ L λm ⎦ mxm con las propiedades: Σ N Vi = λi Vi ViT V j = δ ij VT Σ N V = λ V V=I T i = 1. Sustituyendo las pdf dadas por (4. Si el receptor toma una decisión sobre la base de m observaciones.L. de la forma: (4. Gaussianas con: E{Y | H 0 } = s 0 E{Y | H1} = s1 y Sin embargo.Cátedra de Señales Aleatorias – Fac.26c) (4. j = 1.26a) (4. sigue siendo válida la regla MAP de la forma ya conocida: L( y ) = f Y|H 1 ( y | H 1) H1 > P( H 0 ) < f Y|H 0 ( y | H 0) H P( H 1 ) 0 (4. se obtiene: Ln[L( y )] = 1 (y − s 0 )T Σ −N1 (y − s 0 ) − 1 (y − s1 )T Σ −N1 (y − s1 ) = 2 2 1 1 = y T Σ −N1s1 − y T Σ −N1s 0 + s T0 Σ −N1s 0 − s1T Σ −N1s1 2 2 (4.3.9) Puede considerarse que las funciones de densidad de probabilidad condicional son. en este caso.22) A diferencia del caso considerado en el apartado 4. las pdf de la forma general: f Y|H i (s i ) = [ 1 (2π ) n 2 ΣN 1 2 ] exp − 1 (y − s i ) Σ −N1 (y − s i ) 2 T (4. 2. / Capítulo 4 – Pág. aunque con la consideración de que el ruido N(t) presente en las muestras es coloreado. los valores esperados indicados (autocorrelaciones) no se anulan pues no puede garantizarse independencia entre muestras. ···.N. m (4. Considérese nuevamente el problema de detección binaria con observaciones múltiples.R.21) en la regla MAP y tomando logaritmos.24) V = [V1 .21) en la que cada elemento de la matriz de covarianza es (considerando que el ruido tiene media nula): [Σ N ]ij = E{N (ti ). es decir que posee una función de densidad espectral de potencia SNN(f) arbitraria no nula en el intervalo [-B. 17 de 23 nes mencionadas son válidas en la mayoría de los casos. para la regla MAP.26b) (4. Vm ]mxm y ⎡λ1 0 L 0 ⎤ ⎢0 λ L 0 ⎥ 2 ⎥ λ=⎢ (4. 2. ···. N (t j )} (4. m i.C. debido a que el ruido no responde a las características supuestas. existen situaciones en que las observaciones pueden estar correlacionadas.23) Si se define a V como los autovectores de ΣN y a λk como los autovalores de ΣN. dado que SNN(f) es de forma arbitraria. B] y cero fuera el. no es posible considerar condiciones en que las muestras sean independientes y deben considerarse.26d) . de Ingeniería U. en el caso de ruido blanco (muestras incorrelacionadas). En estos casos las señales a detectar poseen uno o más parámetros desconocidos.27) Es decir que. se podía considerar que las varianzas eran iguales. se han discutido casos en los que se intenta detectar señales conocidas.R. en las que la única incertidumbre es provocada por la presencia de ruido aditivo. En el receptor. las varianzas de las componentes del ruido transformado no son iguales. En caso contrario. con una excepción.4: Supóngase que se considera un problema de detección binaria. 18 de 23 y se sustituyen las (4. la regla de decisión asume una forma similar a la del filtro adaptado.k ) > ⎛ P ( H 0) ⎞ 1 ⎟+ ln⎜ < ⎜⎝ P ( H 1) ⎟⎠ 2 λk H1 H0 m ∑ k =1 s '1k − s '0 k λk 2 2 (4. Existen otros casos. supóngase un caso con un único parámetro desconocido θ. la señal entrante es de la forma: Y(t) = X(t) + N(t) . por lo que aparecen los autovalores como factores normalizantes en la regla de decisión. 4. Por ejemplo.k = VkTs0 s’1. de Ingeniería U. este enfoque puede permitir encontrar una solución en forma más directa: se calcula la razón de verosimilitud condicional como una función del parámetro desconocido y luego se obtiene para éste un promedio respecto a su distribución (conocida).k = VkTs1 y’k = VkTy (4. luego de las transformaciones.28) representan los valores de las señales y observación transformados. / Capítulo 4 – Pág.k − s '0.C. la regla de decisión resultante. a uno equivalente de observaciones incorrelacionadas. la razón de verosimilitud se calcula haciendo: L( z ) = ∫ L( z | θ ) fθ (θ )dθ (4. pues: s’0. en aplicaciones de radar y sonar. que asume la forma: m ∑ k =1 y k (s '1.27). en este caso.29) θ y luego se desarrolla la regla de decisión. Así.4 DETECCION DE SEÑALES CON PARAMETROS DESCONOCIDOS Hasta aquí. ordenando y combinando con la (4. habría que modelar el parámetro desconocido como una variable aleatoria con una función de densidad de probabilidad conocida. se corresponde con la del filtro adaptado. los pulsos de retorno que se intenta detectar pueden incluir aleatoriedad en la amplitud y fase. Ejemplo 4. A continuación.Cátedra de Señales Aleatorias – Fac. con algunas consideraciones particulares. se ilustra este enfoque mediante un ejemplo. por ejemplo. en cambio.26) en la (4.23). La expresión resultante para la regla de decisión (4. su valor puede ser estimado a partir de observaciones (esto se verá en el capítulo 6) para ser incluido en la formulación de la regla de decisión. Si el parámetro desconocido puede ser considerado constante. con las transformaciones indicadas reduce el problema de detección binaria con observaciones correlacionadas.N.9) se obtiene la regla de decisión. en los cuales la consideración acerca del conocimiento de las señales no es válida. con una densidad espectral de potencia SNN(f) = N0 / 2. dada por: ⎧ 2a ⎛ − a2 ⎞ ⎟ a > 0. 19 de 23 en la que la señal es: ⎧s1 (t ) = A X (t ) = ⎨ ⎩ s 0 (t ) = 0 en caso de H 1 0≤t ≤T en caso de H 0 (4.9: detector de ley cuadrática . los resultados de la sección 4. puede demostrarse que la regla de decisión se reduce a: H1 > γ z2 < (4. / Capítulo 4 – Pág. R > 0 ⎪ exp⎜⎜ ⎟ f A (a) = ⎨ R (4.N. denominada detector de ley cuadrática. tomando logaritmos y reordenando los términos. la función de verosimilitud condicional resulta: L(z | A = a ) = y.Cátedra de Señales Aleatorias – Fac.3 conducen a una regla de decisión basada en la variable Z.9.31) ⎝ R ⎠ ⎪ a≤0 ⎩0 Para cierto valor dado de A = a. en las que A y θ son desconocidas y aleatorias. Figura 4.a ⎧ a 2T 2 − 2aTz ⎫ = exp⎨− ⎬ 2σ W2 ⎩ ⎭ (4. en tanto que A es una señal de amplitud desconocida con una pdf Gamma. a f Z |H 0 . es: f Z | H1 .34) H0 Esta regla de decisión. por la (4. de Ingeniería U.29).C. de la forma: T en caso de H1 ⎧aT + W Z = [X (t ) + N (t )]dt = ⎨ (4. Diversas variantes de esta regla de decisión son utilizadas en muchos sistemas de comunicaciones para detectar señales del tipo A cos(ω0t + θ).32) en caso de H 0 ⎩0 + W 0 ∫ en la que W es Gaussiana con: μW = 0 σ W2 = y N 0T 2 Luego.R. se implementa de la forma indicada en la figura 4.33) L( z ) = L(z | A = a ) f A (a )da ∫ a Completando la integración.30) N(t) es ruido aditivo blanco Gaussiano de media nula. puede ser expresada usando la regla de Bayes de la forma: P( H i | y) = y la regla de decisión resulta de la forma: { f Y |H i ( y | H i) P( H i) f Y ( y) } Aceptar H i si max P ( H j ) f Y | H ( y | H j ) = P ( H i ) f Y |H ( y | H i ) j i H (4. 01.36) puede extenderse fácilmente al caso de observaciones múltiples y observaciones continuas. A modo de ejemplo. hemos tratado el problema de decidir entre dos símbolos posibles. X(t) es constante.ARIA Hasta ahora. serán tomadas con una separación de 2 μs. esta probabilidad. la regla de decisión MAP involucrará la selección de la hipótesis Hi que maximice la probabilidad a posteriori P(Hi|y). y el ruido es Gaussiano. ilustrándolo mediante un ejemplo simple. consideremos cierto sistema de comunicación en que el receptor debe decidir cual de cuatro amplitudes o símbolos posibles ha sido transmitido durante cierto intervalo de observación. 10 y 11 respectivamente. Dado que el mínimo período de muestreo de la señal para que las muestras sean incorrelacionadas es: t k = 12 B = 0. de Ingeniería U. sin embargo. cuando M > 2. el receptor debe decidirse por una entre muchas (digamos M) posibilidades. / Capítulo 4 – Pág. Se concluirá con el tratamiento del problema de detección M – aria. definidas en: -3. Ejemplo 4.C. se cumple que las muestras son independientes.36) j La regla de decisión dada por la (4. recibe el nombre de problema de detección M-aria. Cada pulso transmitido puede tener una de las cuatro amplitudes equiprobables. Si la decisión se toma sobre la base de una única observación y.5: Un sistema de comunicación digital utiliza como señales las formas de onda mostradas en la figura 4. Solución: Durante el primer intervalo de símbolo [0.N. tal como se ha visto.Cátedra de Señales Aleatorias – Fac. El problema de decidir entre M hipótesis alternativas. +1 ó +3 volt representativas de la transmisión de 00. La señal recibida tiene la forma: Y(t) = X(t) + N(t) en la que el ruido N(t) es un proceso aleatorio Gaussiano con una función de densidad espectral de potencia dada por: ⎧⎪2x10-7 | f |≤ 1MHz S NN ( f ) = ⎨ ⎪⎩ 0 | f |> 1MHz El receptor toma cinco muestras igualmente espaciadas en cada intervalo de señal y toma una decisión sobre la base de estas cinco muestras.5 DETECCION M .10. Desarrolle la regla de decisión y calcule la probabilidad de una decisión incorrecta. 20 de 23 4.R.5μs como el período adoptado es un múltiplo exacto de tk. -1. en muchas aplicaciones de sistemas de comunicación digital. . Las cinco muestras de Y(t) igualmente espaciadas en el período de bit. 10μs]. / Capítulo 4 – Pág. Tomando logaritmos de la función de densidad de probabilidad y escogiendo solo los términos que involucran a Aj. Las funciones de densidad de probabilidad de la variable de decisión Y y los límites de decisión se muestran en la figura 4. 21 de 23 Figura 4. correspondiente a la j-ésima hipótesis y σ2 es la varianza de N(t).11. y 2 .Cátedra de Señales Aleatorias – Fac.Y 2.4 La regla de decisión MAP estará.10: Forma de onda de las señales transmitidas y recibidas en el sistema del Ejemplo 4. basada en: f Y 1. en este caso. y5 | H j ) = 5 ∏ k =1 1 2πσ 2 ⎡ ( y k − A j )2 ⎤ exp ⎢− ⎥ 2 2σ ⎢⎣ ⎥⎦ en la que Aj es la amplitud transmitida. La probabilidad media de una decisión incorrecta es: Pe = 4 ∑ P( D j | H i ) P( H i ) i =1 Figura 4. la regla de decisión se reduce a promediar las cinco observaciones y decidirse por el nivel más próximo a la media.R. y 4 .C. obtenemos la regla de decisión: 5 “Se escoge Hi si ∑( y − A j ) es mínimo cuando Aj = Ai” 2 k k =1 o 2 “Se escoge Hi si ( y − A j ) es mínimo cuando Aj = Ai” donde y = 1 5 y 5 k =1 k ∑ Así. de Ingeniería U. y3 .N.Y 3. Cada área sombreada en la figura representa la probabilidad de una decisión incorrecta.Y 4.Y 5|H j ( y1 .11: Funciones de densidad de probabilidad condicional y probabilidades de una decisión incorrecta . 22 de 23 como P(Hi) = 1 / 4. Dado que: ∞ σ = ∫ S NN ( f )df = 0.C. normalizando para buscar en tablas. Saced V.37) El factor 6 en la expresión (4.00035 4 Bibliografía. Advanced Digital Processing and Noise Reduction 2nd Ed.Cátedra de Señales Aleatorias – Fac. K. resulta: 1 [suma de las áreas sombreadas] 4 y. considerando que se toman 5 muestras por período de bit.4 2 −∞ la probabilidad media de error es: Pe = 1 (6)Q( 12. (2000) John Willey & Sons Ltd. Vaseghi. & Breipohl.. resulta: Pe = Pe = ⎛ 1 ⎞ 1 ⎟ (6)Q⎜ ⎜ ⎟ 2 4 σ / 5 ⎝ ⎠ (4. A. Random Signal: Detection.R.37) representa a las seis áreas sombreadas y σ2/5 es la varianza de Y en las funciones de distribución de densidad de probabilidad condicional.. / Capítulo 4 – Pág. Estimation and Data Analysis.N. .5 ) ≈ 0. de Ingeniería U. (1988) John Willey & Sons Ltd. Shanimugan. 0019 .0013 .4602 .0446 .5x10-4 3.3632 .1251 .10 2.30 3.0228 2.2578 .1977 .00 .1: Probabilidades Gaussianas .3085 .00005 .40 2.40 1.0495 .25 .05 . John Wiley & Sons.0035 .05 1.3821 .00003 Q(y) y 10-3 3.90 10-5 4.50 2.45 1.0026 .20 .0401 .00048 .50 3.1357 .00016 .27 10-6 4.3264 .30 .0808 .90 .00 .4013 .70 2. Q(-y) = 1 – Q(y).65 .78 Fuente: K.2266 .0062 .20 1.80 .0107 .65 1.00007 .0010 .90 1.4405 .55 1.00023 .0047 .1841 .15 .1056 .0735 .50 1. / Capítulo 4 – Pág.Cátedra de Señales Aleatorias – Fac.80 3.5x10-3 3.60 3.35 1.2420 . 583-84 Tabla 4.0548 .70 .95 1.10 1.70 1.0082 .C.60 2.15 1.95 2. 23 de 23 Apéndice 4.10 .30 2.00069 .90 4.55 .1711 .28 10-4 3.70 .60 .50 .1587 1.4801 .0668 . de Ingeniería U.00 .4207 .45 .0256 .N.A: PROBABILIDADES GAUSSIANAS (1) P ( X > μ x + yσ x) = Q( y ) = ∫ ∞ ⎡ z2 ⎤ exp ⎢− ⎥dz 2π ⎣ 2⎦ 1 y cuando y ≥ 0 (2) Q(0) = ½.0287 .75 .2743 .10 3. Digital and Analog Communications Systems.90 3.0968 .1469 .0139 .85 .60 1.10 . Sam Shanmugan.00 3.2119 .0885 .00034 .85 1.3446 .0606 .1151 .30 1.0359 .0322 .80 1.40 3.35 .2912 .75 1. 2 y>0 y y Q(y) y Q(y) y Q(y) .0179 .R.25 1.00010 .20 2.70 3.20 3.80 2. 1979. pp. (3) Q( y ) ≈ ⎡ y2 ⎤ exp ⎢− ⎥ cuando y > 4 y 2π ⎢⎣ 2 ⎥⎦ (4) erfc( y ) = 1 1 2π ∞ ∫ exp[− z ]dz = 2Q( 2 y ).40 .
Copyright © 2024 DOKUMEN.SITE Inc.