C2_Senales_Espectros.pdf

March 28, 2018 | Author: Meissys Ortega | Category: Integral, Analog Signal, Vector Space, Spectral Density, Function (Mathematics)


Comments



Description

18Capítulo 2 Señales y Espectros +∞ E x = ∫ x 2 (t )dt para una señal real, y −∞ +∞ E x = ∫ x (t ) dt para una señal compleja (2.1) 2 −∞ A pesar de que pueden definirse otras medidas para una señal, la energía Ex resulta más significativa en el sentido de que es un indicativo de la cantidad de energía que puede extraerse de la señal. En los sistemas de comunicación se trasmiten señales que portan información. Las mismas son modificadas por las características del canal, y deben ser procesadas por el receptor para recuperar la señal transmitida; de allí que el estudio de las señales es fundamental en un sistema de comunicación. En este capítulo, se desarrollan los conceptos más importantes sobre las señales y sus representaciones en los dominios del tiempo y de la frecuencia, los cuales son necesarios para una mejor comprensión de los sistemas de comunicación. El estudio sobre señales se inicia con las definiciones de señal y sistema, y los conceptos de energía y potencia como medidas adecuadas para una señal. También, se tratan algunas características de las señales que permiten su clasificación de acuerdo a varios criterios; se definen ciertas formas de onda de pulso de gran importancia en el estudio de los sistemas de comunicación; se estudia la representación de una señal dada por medio de un conjunto ortonormal de señales, tanto en el dominio del tiempo como de la frecuencia; y se desarrollan los conceptos de densidad espectral y correlación. Además, se presentan los conceptos de modulación y señales pasa-banda, y también se incluye un breve estudio sobre señales discretas. 2.1 Señales y Sistemas Una señal es una función que representa una cantidad o variable física, y típicamente contiene información acerca del comportamiento o naturaleza del fenómeno. Matemáticamente, una señal es una función de una variable independiente, que generalmente, es el tiempo, como por ejemplo, una señal de voltaje, o los precios de una tienda. Sin embargo, éste no es el único caso, ya que se pueden tener funciones del espacio, como una densidad superficial de carga, o funciones del espacio-tiempo como la expresión de una onda electromagnética. Pero, como en el estudio de los sistemas de comunicación tratamos casi exclusivamente con señales que son funciones del tiempo, a continuación, utilizamos sólo señales de este tipo en nuestra discusión, sin que por ello los temas desarrollados no sean aplicables a otras variables independientes. Si queremos modificar o manipular las señales, utilizamos los sistemas. Un sistema es una entidad que procesa un conjunto de señales (entrada) para producir otro conjunto de señales (salida), las cuales difieren, pero están relacionadas de alguna forma con las primeras. En general, los sistemas están constituidos por componentes físicos (hardware) y algoritmos (software). 2.2 Medida de una Señal - Energía y Potencia El tamaño de cualquier entidad es un número que indica la dimensión o intensidad de la entidad. En general, si consideramos la amplitud de una señal, ésta varía con el tiempo; por lo que es importante preguntarse ¿cómo se puede medir el tamaño de una señal solamente con un número, si la señal varía durante un cierto intervalo de existencia? Debe notarse que tal número debe considerar una medida no sólo de la amplitud variable de la señal, sino también del intervalo de duración. Una medida adecuada de una señal x(t) podría ser el área bajo la curva de x(t), porque nótese que toma en consideración no sólo la amplitud, sino también la duración. Sin embargo, esta medida tiene algunos inconvenientes como la cancelación de áreas positivas y negativas. Para corregir esto, se puede considerar x2(t), lo que resulta en la energía de la señal Ex, definida como Para que tenga significado, la energía de una señal debe ser finita. Una condición necesaria para esto es que la amplitud tiende a 0 a medida que ⏐t⏐ tiende a ∞. De lo contrario la integral en la expresión (2.1) no convergerá. Si la amplitud de la señal x(t) no tiende 0 a medida que ⏐t⏐ tiende ∞, la energía de la señal es infinita. Para este caso, una medida más significativa del tamaño de la señal sería el promedio en el tiempo de la energía (si existe), el cual es la potencia promedio Px definida por Px = lim T →∞ 1 +T / 2 2 ∫ x (t )dt T −T / 2 para una señal real, y +T / 2 1 2 ∫ x (t ) dt para una señal compleja. T →∞ T −T / 2 Px = lim (2.2) donde la raíz cuadrada de la potencia de la señal Px es el valor rms de x(t). La media de una entidad promediada sobre un intervalo largo de tiempo que se aproxime a infinito, existe si la entidad es periódica o tiene una regularidad estadística. Si tal condición no se satisface, el promedio no existe. Considere, por ejemplo, el caso de una función rampa x(t) = t. En este caso, no existe Ex ni Px. Es importante indicar que las definiciones (2.1) y (2.2) no son una medida real de la energía ni de la potencia de la señal, ya que la energía y la potencia dependen no sólo de la señal, sino también de la carga. Sin embargo, las ecuaciones (2.1) y (2.2) pueden interpretarse como la energía o potencia promedio disipada en una carga normalizada de un resistor de 1Ω. También debe notar que las dimensiones de las ecuaciones (2.1) y (2.2) no son correctas, ya que el término energía (o potencia promedio) no se utiliza en el sentido convencional, sino como un indicativo del tamaño de la señal. Así, las dimensiones de Ex y Px en (2.1) y (2.2), respectivamente, dependen de la naturaleza de la señal. Por ejemplo, si x(t) es una señal de voltaje, entonces Ex tiene dimensiones [(voltios)2 segundos] y Px se mide en [(voltios)2]. 2.3 Clasificación de las Señales Las señales se pueden clasificar de múltiples formas, pero en nuestro estudio de los sistemas de comunicación nos interesan las siguientes clases: • • • • • Señales de tiempo continuo y de tiempo discreto. Señales analógicas y digitales. Señales periódicas y no-periódicas. Señales de energía y de potencia. Señales determinísticas y probabilísticas (aleatorias). 2.3.1 Señales de Tiempo Continuo y de Tiempo Discreto Una señal de tiempo continuo es aquella que está especificada para cada valor de tiempo t, mientras que una señal de tiempo discreto está especificada solamente para ciertos valores de tiempo. La Figura 2.1 muestra la misma función sinusoidal como una señal de tiempo continuo (izquierda) y de tiempo discreto (derecha). La Sección 2.16 presenta una introducción a los aspectos más importantes sobre señales discretas. 2. Señales y Espectros 19 20 El menor valor de To que satisface la condición de periodicidad es el periodo de x(t). Una señal es no-periódica si no es una señal periódica. Una señal periódica, por definición, debe iniciar en – ∞ y continuar por siempre. Otra propiedad importante de una señal periódica x(t) es que la misma puede ser generada por una extensión periódica de cualquier segmento de x(t) de duración To (el periodo). 2.3.4 Señales de Energía y de Potencia Una señal de señal de energía es aquella que tiene energía finita, i.e., para una señal x(t), si Ex = ∞ ∫ x(t ) dt < ∞ 2 (2.4) −∞ entonces, x(t) es una señal de energía. Figura 2.1: Señales de tiempo continuo y tiempo discreto. De forma similar, se tiene que una señal de potencia es aquella que tiene potencia finita y diferente de cero. Si x(t) es una señal de potencia, entonces 2.3.2 Señales Analógicas y Digitales Una señal analógica es una señal cuya amplitud puede tomar cualquier valor en un rango continuo, es decir, que la amplitud puede tomar un número infinito de valores dentro de un intervalo. Por el contrario, una señal digital, es aquella cuya amplitud solamente puede tomar un número finito de valores. La Figura 2.2 muestra las formas de onda de una señal sinusoidal analógica y digital. Observe que la señal analógica toma cualquier valor en el intervalo [–2,2], mientras que la amplitud de la señal digital correspondiente solo toma valores del conjunto {–2, –1.5, –1, –0.5, 0, 1, 1.5, 2} . 0 < Px = lim T →∞ 1 T T /2 ∫ x(t ) dt < ∞ . 2 (2.5) −T / 2 Una señal de energía tiene potencia cero, y una señal de potencia tiene energía infinita, por lo tanto, una señal no puede ser de potencia y de energía al mismo tiempo! Sin embargo, una señal puede no ser de energía ni de potencia, e.g., la señal rampa. 2.3.5 Señales Determinísticas y Probabilísticas (aleatorias) Una señal determinística es aquella cuya descripción física es conocida completamente, ya sea en una forma matemática o en forma gráfica, e.g., x(t) = 3 + 2t2. Por otro lado, una señal probabilística o aleatoria es conocida solamente en términos de su descripción probabilística, tal como el valor cuadrático medio, valor medio, etc., e.g., el ruido aditivo blanco Gaussiano (ver Capítulo 6). La Figura 2.3 muestra dos señales: una determinística, dada por x(t) = 2 sin(20πt), y otra aleatoria, con una función de densidad de probabilidad Gaussiana con media cero y varianza 1. Figura 2.2: Señales analógica y digital. No se deben confundir los conceptos de tiempo continuo y analógico, ya que ambos no son iguales. Esto también ocurre con los conceptos de tiempo discreto y digital. Los términos de tiempo continuo y de tiempo discreto califican la naturaleza de la señal a lo largo del tiempo, mientras que los términos analógico y digital clasifican la naturaleza de la amplitud de la señal. 2.3.3 Señales Periódicas y No-periódicas Una señal periódica x(t) es aquella que para alguna constante positiva To, satisface la condición x (t ) = x (t + To ) ∀ t . (2.3) Figura 2.3: Señales determinística y aleatoria. 2. Señales y Espectros 21 22 Ejemplo 2.1 (Clasificación de señales): Clasifique la señal x(t) que se muestra en la Figura 2.4. a) desplazamiento en el tiempo b) cambio de escala del tiempo c) inversión en el tiempo Figura 2.5: Operaciones sobre una señal x(t). Figura 2.4: Señal impulso rectangular. 2.4.4 Función Impulso Unitario Solución: La señal x(t) tiene una duración finita, por lo que es una señal de energía. 2 La función impulso unitario δ (t) es una de las funciones más importantes en el estudio de las señales y los sistemas. Esta función fue definida por P. Dirac como: E x = ∫ A dt = 4A . 2 2 δ (t ) = 0 −2 t≠0 ∞ Además, la señal x(t) es una señal de tiempo continuo, analógica, no-periódica y determinística. ■ 2.4 Operaciones con Señales y Función Impulso (2.6) ∫ δ (t )dt = 1 . −∞ La Figura 2.6 muestra una imagen del impulso. Este puede considerarse como un pulso rectangular con un ancho infinitamente pequeño, una altura infinitamente grande, y un área que es igual a la unidad. En esta sección se tratan tres operaciones básicas, pero de gran importancia, para manipular señales: desplazamiento en el tiempo, cambio de escala en el tiempo e inversión en el tiempo. Además, se presenta la función impulso, que es fundamental en el estudio de los sistemas de comunicación. 2.4.1 Desplazamiento en el tiempo En la Figura 2.5a se muestra una señal x(t) y una versión de la misma señal adelantada 3 segundos. En general, para desplazar en el tiempo una señal x(t) por T segundos, se reemplaza la variable independiente t por (t – T). De esta forma se obtiene una señal y(t) = x(t – T) que es idéntica a x(t) pero corrida en el tiempo. Si T es un valor positivo, el desplazamiento corresponde a un retraso, mientras que si T es un valor negativo, el desplazamiento corresponde a un adelanto. 2.4.2 Cambio de Escala del Tiempo Figura 2.6: Impulso unitario. Esta definición de la función impulso unitario, ecuación (2.6), conduce a una función que no es única. Más aún, δ(t) no es una función verdadera en el sentido ordinario, ya que una función verdadera está especificada por sus valores para todo tiempo t. Esta función impulso es cero en todos lados, excepto en t = 0, y aún en este punto, no está definida. El cambio de escala del tiempo produce la compresión o expansión de una señal. La Figura 2.5b muestra una señal x(t) y dos versiones de la misma que corresponden a cambios de escala del tiempo. En general, para cambiar la escala del tiempo de una señal x(t), se reemplaza la variable independiente t por at, donde a es un factor que dependiendo de su valor producirá una versión comprimida o expandida de x(t). De esta forma se obtiene una señal y(t) = x(at), donde, para a > 1 resulta una compresión, y para 0 < a < 1 resulta una expansión. En un sentido más riguroso, la función impulso se define, no como una función ordinaria, sino como una función generalizada, donde δ (t) está definida por la siguiente relación: 2.4.3 Inversión en el Tiempo donde x(t) es una función continua en el instante donde existe el impulso, t = T. Esta ecuación significa que el área debajo del producto de una función con un impulso es igual al valor de la función en el instante donde el impulso unitario está localizado. Esta propiedad, tan importante y útil, se conoce como propiedad de muestreo del impulso unitario. Para el cambio de escala en el tiempo, existe un caso especial cuando a = –1, que resulta en una inversión en el tiempo de la señal. Observe la Figura 2.5c. ∞ ∞ −∞ −∞ ∫ x(t )δ (t − T )dt = x(T ) ∫ δ (t − T )dt = x(T ) , (2.7) Note que de la ecuación (2.7), la definición del impulso unitario no dice nada sobre qué es o cómo es, sino que se define en términos del efecto que tiene sobre una función de prueba x(t). La propiedad de muestreo es una consecuencia de la definición clásica de Dirac. 2. Señales y Espectros 23 24 Otra función importante en el estudio de las señales y los sistemas, es la función escalón unitario u(t), definida por la expresión (2.8) y cuya forma de onda se muestra en la Figura 2.7. t≥0 t<0 ⎧1 u (t ) = ⎨ ⎩0 (2.8) Figura 2.7: Función escalón unitario. La función escalón unitario es muy útil cuando se quiere que una señal inicie en t = 0. Para esto sólo se multiplica la señal con u(t). Una señal que no inicia antes de t = 0 se denomina causal, i.e., que una señal x(t) es causal si x(t) = 0, para todo t < 0. La función u(t) se relaciona con δ (t) por medio de: Figura 2.8: Operaciones con señales del Ejemplo 2.2. du (t ) = δ (t ) . dt 2.5 Señales Pulso Importantes Ejemplo 2.2 (Operaciones con señales): Considere una señal x(t) dada por la función 2cos(40πt), que existe sólo en el intervalo de tiempo [0.0,0.1]. Grafique esta señal junto con las señales correspondientes a i) un retraso de 0.05 s, ii) una expansión en un factor de 2, y iii) la inversión en el tiempo. Solución: La señal x(t) se puede expresar como x(t) = 2cos(20πt) [u(t) – u(t – 0.1)] utilizando la función escalón. A continuación se incluye un script en MATLAB que permite obtener las gráficas deseadas. % Operaciones con señales f=20; T=1/f; t=-5*T:T/100:5*T; s sd se si = = = = % frecuencia de la señal % periodo % intervalo de tiempo para graficar 2*cos(2*pi*f*t).*((t>=0)&(t<=0.1)); 2*cos(2*pi*f*(t-0.05)).*((t>=0.05)&(t<=0.15)); 2*cos(2*pi*f*(0.5*t)).*((t>=0)&(t<=0.1*2)); fliplr(s); % Gráficas subplot(4,1,1); subplot(4,1,2); subplot(4,1,3); subplot(4,1,4); plot(t,s);grid; plot(t,sd);grid; plot(t,se);grid; plot(t,si);grid; % % % % ■ (2.9) señal señal señal señal original retrasada 0.05 seg expandida por 2 invertida En esta sección se presentan tres señales (funciones) pulso que son de gran importancia en el estudio de los sistemas de comunicación. 2.5.1 Función Pulso Rectangular Unitario Un pulso rectangular unitario rect(x) se define como un pulso de amplitud unitaria, ancho unitario y centrado en el origen como se indica a continuación y se muestra en la Figura 2.9. ⎧0 ⎪ rect ( x ) = ⎨ 12 ⎪1 ⎩ x> x= x< 1 2 1 2 1 2 (2.10) El pulso rectangular rect(x/τ) que se muestra, también, en la Figura 2.9 es el pulso rectangular expandido por un factor τ. Observe que este factor indica el ancho del pulso. legend(‘x(t)’); legend(‘x(t-0.05)’); legend(‘x(0.5t)’); legend(‘x(-t)’); Figura 2.9: Pulsos rectangulares: rect(x) y rect(x/τ). 2. Señales y Espectros 25 26 2.5.2 Función Triángulo Unitario ∆(x) Una función triángulo unitario ∆(x) se define como un pulso triangular de amplitud unitaria y ancho unitario, centrado en el origen como se indica a continuación y se muestra en la Figura 2.10. ⎧ 0 ∆( x ) = ⎨ ⎩1 − 2 x x> x< 1 2 1 2 (2.11) Como en el caso del pulso rectangular, el pulso triangular se puede expandir por un factor τ, obteniéndose ∆(x/τ), que se muestra, también, en la Figura 2.10. Figura 2.11: Pulso sinc(x). 2.6 Señales - un Enfoque Vectorial Figura 2.10: Pulsos triangulares: ∆(x) y ∆(x/τ). Una realidad muy importante es que las señales son vectores, y por lo tanto, ellas se pueden representar como una suma de sus componentes en diversas formas. 2.5.3 Función de Interpolación sinc(x) 2.6.1 Estudio de Vectores La función sinc(x) es muy importante en el procesamiento de señales, y se conoce también como función de filtrado o de interpolación. Está definida como sinc (x ) = sin (πx ) , πx (2.12) s = cx + e . y se muestra en la Figura 2.11. En la literatura, esta función también se denota como Sa(x), y algunos autores la definen como sinc (x ) = sin (x ) . x Consideremos primero los vectores y sus componentes. Como ya sabemos, un vector se especifica por su magnitud y dirección. Ahora, considere dos vectores s y x, como se muestran en la Figura 2.12, y sea cx la componente de s a lo largo de x. Geométricamente, esta componente es la proyección de s sobre x. La importancia de esto, es que el vector s puede expresarse en términos del vector x como (2.13) En el resto del texto, usaremos la definición dada por la ecuación (2.12). (2.14) Sin embargo, existen infinidad de posibilidades para expresar s en función de x, si consideramos cualquier valor de c, y del otro vector e. Este vector e, se denomina vector de error y está dado por al considerar la aproximación s ≈ cx . e = s − cx , Algunas características de esta función son las siguientes: • sinc(x) es una función par de x. • sinc(x) = 0 cuando sin(x) = 0 excepto en x = 0, donde es indeterminado. Esto significa que la función es igual a cero, sinc(x) = 0, para x = ±1, ±2, ±3, ... como se observa en la Figura 2.11. • sinc(0) se define utilizando la regla de L´Hopital, i.e., sinc(0) = 1. • sinc(x) exhibe oscilaciones sinusoidales de periodo 2π, con amplitud continuamente decreciente como 1/(πx). Figura 2.12: Aproximación de un vector s en términos de otro vector x. (2.15) 2. Señales y Espectros 27 Por conveniencia, se define el producto punto (escalar) entre dos vectores s y x como s ⋅ x = s x cosθ (2.16) 28 Estos resultados se pueden generalizar a funciones complejas de t. De esta forma resultan expresiones muy similares. Considere el mismo problema: aproximar una función s(t) por medio de otra función x(t) sobre un intervalo [t1,t2]. Sean s(t) y x(t) señales complejas tal que en el intervalo [t1,t2]: donde θ es el ángulo entre los dos vectores. Utilizando esta definición, se puede determinar la componente de s a lo largo de x, que es |s|cosθ = c|x|. Multiplicando ambos lados de la expresión anterior por |x|, resulta c= 1 x 2 s⋅x. (2.17) s(t ) ≈ cx(t ) t1 ≤ t ≤ t 2 , entonces, el error de aproximación complejo está dado por e(t ) = s(t ) − cx(t ) De la ecuación (2.16) se puede observar que cuando s y x son perpendiculares, u ortogonales, entonces c = 0, i.e., la proyección de s sobre x es cero! t1 ≤ t ≤ t 2 , y para la mejor aproximación se escoge c tal que t c= 2.6.2 Señales Los mismos conceptos anteriores se pueden aplicar a las señales. Considere ahora el problema de aproximar una señal real s(t) en términos de otra señal real x(t) sobre un intervalo [t1,t2]: s(t ) ≈ cx(t ) 1 2 s (t )x∗ (t )dt E x ∫t1 donde t2 t1 ≤ t ≤ t2 . (2.24) E x = ∫ x(t ) dt . (2.18) 2 t1 En esta aproximación, el error está dado por: t1 ≤ t ≤ t 2 ⎧s(t ) − cx(t ) e(t ) = ⎨ 0 de lo contrario. ⎩ (2.19) De este resultado, ecuación (2.24), se redefine la ortogonalidad. Dos funciones s(t) y x((t) sobre un intervalo [t1,t2] son ortogonales si t2 t2 t2 t1 t1 2 (2.20) Note que Ee depende de c y no de t, y que el mínimo de Ee se logra para un valor dado de c. Una condición necesaria para minimizar Ee es dE e =0 (2.21) dc ∗ (2.22) t 0 +T0 ∗ dt = Tomando la terminología de los vectores, podemos decir que cx(t) es la proyección de s(t) sobre x(t), y que si la componente de una señal s(t) de la forma de x(t) es cero, i.e., c = 0, entonces las señales son ortogonales sobre el intervalo [t1,t2]. Así, se define que las señales reales s(t) y x(t) son ortogonales si t2 t1 t 0 +T0 1 0 = t 0 +T0 ∫ exp[ j (m − k )ω 0 t ]dt = j (m − k )ω exp[ j (m − k )ω 0 t ] 0 t t 0 1 exp[ j (m − k )ω 0 t 0 ]{exp[ j (m − k )2π ] − 1} j (m − k )ω 0 =0 Las expresiones (2.22) y (2.17) muestran claramente la estrecha relación entre las señales y los vectores, y más aún, que el área bajo el producto de dos señales corresponde al producto escalar de dos vectores. ∫ s(t )x(t )dt = 0 . (2.25) Solución: Para cualquier intervalo t0, usando la ecuación (2.25) que define la ortogonalidad, se tiene t0 t 1 2 c= s(t )x(t )dt . E x ∫t1 ∗ t1 Ejemplo 2.3 (señales ortogonales) Muestre que dos señales exponenciales exp(jmω0t) y exp(jkω0t) para cualesquiera m y k enteros, m≠ k, son ortogonales en cualquier intervalo sobre un periodo T0, donde T0 = 2π/ω0. ∫ exp( jmω 0 t ) exp( jkω 0 t ) de lo que resulta ∫ s (t )x(t )dt = 0 ó t1 Así, si queremos la mejor aproximación, es necesario minimizar el error. Ya que la energía de una señal es una medida del tamaño de la señal, entonces minimizar el tamaño del error, implicaría minimizar su energía Ee sobre el intervalo [t1,t2]: E e = ∫ e 2 (t )dt = ∫ [s (t ) − cx(t )] dt . t2 ∫ s(t )x (t )dt = 0 (2.23) ya que exp[j(m – k)2π] = 1 para todos m y k enteros, m≠ k. ■ 2.6.3 Energía de la Suma de Señales Ortogonales Del análisis vectorial, si los vectores x y y son ortogonales y z = x + y, entonces 2 2 z =x +y 2 2. Señales y Espectros 29 30 Así, en forma similar para dos señales complejas (reales) ortogonales x(t) y y(t) en un intervalo [t1,t2], si z(t) = x(t) + y(t), entonces Ez = Ex + E y cn = cosθ = (2.26) Ejemplo 2.4 (ortogonalidad y energía) Considere las siguientes señales x(t) = sinωot y y(t) = cosωot, verifique que son señales ortogonales en el intervalo [τ,τ + To], donde ωo = 2π/To. Además, considere una señal z(t) = x(t) + y(t), verifique la ecuación (2.26), y determine la energía de z(t). τ +To • • • ∫ x(t ) y (t )dt = ∫ (sin ω o t )(cos ω o t )dt τ τ +To = ∫ τ ∞ ∫ s(t )x (t )dt ∗ − 1 ≤ cn ≤ 1 . (2.28) −∞ cn = + 1 para k > 0; cn = – 1 para k < 0; cn = 0 si s(t) y x(t) son ortogonales. 2.7.2 Correlación y Funciones de Correlación De lo anterior, vemos como la correlación de dos señales mide el grado de similitud entre ellas. Comparar señales, y determinar su similitud, es un proceso extremadamente importante y se utiliza ampliamente en aplicaciones de radar, sonar, comunicaciones digitales y muchas otras, ya que permite la detección de una señal conocida en formas de onda desconocidas en presencia de ruido. La energía de la señal z(t) está dada por τ +To 1 Es E x τ 1 τ +To ∫ (sin 2ω o t )dt 2 τ =0 = Ez = ∫ (2.27) De la ecuación (2.28), se tiene que si s(t) = k x(t), entonces τ +To τ − 1 ≤ cn ≤ 1 . Utilizando el mismo argumento para definir un índice de similitud (coeficiente de correlación) para señales, deberíamos considerar las señales sobre el intervalo de tiempo completo, de –∞ a +∞. Además, el coeficiente debe ser independiente de los tamaños (energías) de las señales, por lo que debe normalizarse. Así, resulta el coeficiente de correlación para señales (complejas) cn: cn = Solución: Las señales x(t) y y(t) son señales reales y periódicas, ambas con periodo To. Aplicando la ecuación (2.23) se puede verificar la ortogonalidad, s⋅x sx Utilizar directamente el coeficiente de correlación, ecuación (2.28), en una aplicación real puede resultar en errores, ya que si en un sistema se transmite un pulso, x(t), con ancho T, y éste se recibe en un tiempo distinto t – τ, para τ ≥ T, el coeficiente de correlación de estos pulsos idénticos, pero que ocurren en tiempos diferentes, es cero! Esto se debe justamente a que los pulsos no ocurren al mismo tiempo. τ +To (z (t ))2 dt = ∫ (x(t ) + y (t ))2 dt τ τ +To τ +To τ τ (x(t ))2 dt + 2 ∫ x(t )y (t )dt + ∫ ( y (t ))2 dt Para evitar esta dificultad, se debe comparar el pulso transmitido x(t) con el pulso recibido x(t – τ) considerando un corrimiento de τ seg. De esta forma, si para algún τ existe una fuerte correlación, no sólo se detecta la presencia del pulso, sino que también ¡se detecta el retraso de tiempo relativo de x(t – τ) con respecto a x(t)! = Ex + Ey = To En la segunda línea de la expresión anterior se observa que el primero y el tercer término del lado derecho corresponden a las energías de la señal x(t) y y(t), respectivamente; y que el segundo término es cero ya que las señales x(t) y y(t) son ortogonales. Así, se utiliza la integral modificada Rx(τ), denominada función de autocorrelación dada por ■ ∞ R x (τ ) ≡ ∗ ∫ x(t )x (t − τ )dt −∞ <τ < ∞ (2.29) −∞ 2.7 La Correlación: Comparación de Señales donde x(t – τ) es el pulso x(t) atrasado τ segundos. En los sistemas de comunicación es de gran interés comparar señales y obtener información de este proceso, por lo que en esta sección se discute un índice que indica la similitud entre dos señales. Para este estudio es conveniente iniciar con la comparación de vectores y luego extender los resultados a las señales, como se hizo en la sección anterior. También podemos considerar la correlación de dos funciones distintas, x(t) y y(t), la cual se denomina función de correlación cruzada Rxy(τ), R xy (τ ) ≡ ∞ ∗ ∫ x(t )y (t − τ )dt −∞ <τ < ∞ . (2.30) −∞ 2.7.1 Coeficiente de Correlación Dos vectores s y x son similares si s tiene una componente grande a lo largo de x, por lo que se puede considerar a c, ecuación (2.13), como una medida cuantitativa de la similitud entre s y x. Sin embargo, esta medida presenta algunas deficiencias ya que depende de las longitudes. Así, una mejor medida de la similitud es el ángulo θ entre los vectores. Mientras menor el ángulo, mayor la similitud, y viceversa. De forma tal que la similitud pudiese medirse por el cosθ , dando como resultado el coeficiente de correlación cn: Las funciones de correlación son funciones pares, esto es, Rx (τ ) = Rx (− τ ) R xy (τ ) = R ∗yx (− τ ) (2.31a) (2.31b) 2. Señales y Espectros 31 32 Ejemplo 2.5 (función de correlación) Determine la función de autocorrelación Rx(τ) para la señal real x(t ) = e − at u (t ) a >0. Solución: De la definición de función de autocorrelación dada en la ecuación (2.29), se tiene R x (τ ) = ∞ ∫ x(t )x(t − τ )dt −∞ ∞ = ∫ e − at u (t ) e − a (t −τ )u (t − τ )dt −∞ = e aτ ∞ ∫e − 2 at u (t )u (t − τ )dt −∞ Para τ > 0, u(t)u(t – τ) es 1 para t > τ, y 0 para t < τ, por lo que ∞ R x (τ ) = e aτ ∫ e − 2 at dt = τ 1 − aτ e . 2a Como la función Rx(τ) es una función par, ecuación (2.32a), se tiene que R x (τ ) = Figura 2.14: Aplicación de la función de correlación en la detección de una señal. 1 −a τ e 2a ■ La siguiente figura muestra la señal x(t) = e-2t u(t) y su función de autocorrelación. 2.8 Representación de Señales En este apartado se trata la representación de una señal por medio de un conjunto de señales ortogonales. Para esto, resultan nuevamente útiles los conceptos asociados a los vectores. 2.8.1 Vectores Base Un vector puede representarse como la suma de vectores ortogonales que forman un sistema de coordenadas de un espacio vectorial. Así, por ejemplo, un sistema Cartesiano de tres dimensiones está descrito por tres vectores mutuamente ortogonales x1, x2, x3. Si se representa un vector tridimensional s en términos de solamente dos vectores ortogonales x1 y x2, se tiene un error: para Figura 2.13: Señal x(t) y su función de autocorrelación Rx(τ). ■ s ≈ c1 x1 + c2 x 2 , entonces existe e = s − (c1 x1 + c2 x 2 ) . (2.32) Del análisis geométrico y lo estudiado en la Sección 2.6.1, se sabe que la longitud de e es mínima cuando e es perpendicular al plano x1-x2, y c1x1 y c2x2 son las proyecciones o componentes de s sobre x1 y x2, respectivamente. Ahora, considere una mejor aproximación de s en términos de los tres vectores mutuamente ortogonales x1, x2, x3: El siguiente ejemplo muestra la aplicación de la función de correlación para detectar una señal en presencia de ruido. Ejemplo 2.6 (detección de una señal) En este ejemplo se considera la transmisión de un pulso rectangular x(t) a través de un canal con ruido aditivo blanco Gaussiano (AWGN). La propagación de la señal a través del canal presenta un retraso de 2 segundos. En el receptor, para determinar la presencia del pulso transmitido, se realiza la correlación de la señal recibida r(t) con la señal transmitida (conocida) x(t). En la Figura 2.14 se muestran: la señal transmitida x(t), la señal recibida r(t) = x(t – 2) + n(t), donde n(t) es una señal AWGN, y la función de correlación Rrx(τ), la cual indica claramente que la señal recibida es efectivamente x(t) y que tiene un retraso de 2 s. Note el alto valor de la función Rrx(τ) en τ = 2. s ≈ c1x1 + c2 x 2 + c3x3 . De la Figura 2.15 se puede observar que existe una selección única de c1, c2, c3 tal que la expresión anterior ya no es más una aproximación sino una igualdad: (2.33) s = c1x1 + c2 x 2 + c3x3 , en cuyo caso, c1x1, c2x2 y c3x3 son las proyecciones de s sobre x1, x2, x3, respectivamente. El error en este caso es cero, porque el vector s es tridimensional y los vectores x1, x2, x3 representan un conjunto completo de vectores ortogonales en un espacio tridimensional. El ser completo significa que es imposible hallar en este espacio otro vector x4 , que sea 2. Señales y Espectros 33 ortogonal a los tres vectores x1, x2, x3. Siendo así, cualquier vector en este espacio puede representarse (con cero error) en términos de estos tres vectores. Estos vectores se conocen como vectores base. 34 Se puede verificar que la energía Ee de la señal de error e(t), en la ecuación (2.38), es mínima si se escoge t ∗ ∫t s(t )x n (t )dt 2 cn = 1 t2 ∫t 1 x n2 (t )dt = 1 En t ∗ ∫t s(t )x n (t )dt 2 n = 1, 2, ..., N . (2.39) 1 Más aún, si el conjunto ortogonal es completo, ¡la energía del error tiende a cero!, y la representación en la expresión (2.38) se convierte en una igualdad, s (t ) = c1 x1 (t ) + c 2 x 2 (t ) + L + c n x n (t ) + L s (t ) = ∞ ∑ c n x n (t ) t1 ≤ t ≤ t 2 (2.40) n =1 Figura 2.15: Representación de un vector en un espacio tridimensional. con los coeficientes cn dados por la ecuación (2.39). Ya que la energía del error se aproxima a cero, entonces la energía de s(t) es igual a la suma de las energías de sus componentes ortogonales. La selección de los vectores base no es única. Es más, un conjunto de vectores base corresponde a una selección particular de un sistema de coordenadas. Así, un vector tridimensional puede representarse en múltiples formas, dependiendo del sistema de coordenadas escogido. Un ejemplo de esto, es la representar un mismo vector en los sistemas de coordenadas cartesianas, esféricas y cilíndricas. Resumiendo Si un conjunto de vectores {xi} n-dimensional es mutuamente ortogonal, esto es, si j≠k ⎧⎪ 0 x j ⋅ xk = ⎨ 2 ⎪⎩ x j j=k (2.34) La serie del lado derecho de la ecuación (2.40) se denomina serie generalizada de Fourier de s(t) con respecto al conjunto {xn(t)}. Cuando este conjunto es tal que la energía del error Ee tiende a cero a medida que N tiende a ∞ para cada miembro de alguna clase particular, se dice que el conjunto {xn(t)} es completo en [t1,t2] para esa clase de s(t), y el conjunto {xn(t)} se denomina conjunto de funciones base o señales base. Recuerde que la energía de la suma de señales ortogonales es igual a la suma de sus energías. Por lo tanto, la energía del lado derecho de la ecuación (2.40) es la suma de las energías de las componentes ortogonales individuales. La energía de un componente cn xn(t) es cn2 En . Por lo tanto, la energía calculada para la ecuación (2.40) resulta, Es = c12 E1 + c22 E2 + L Es = ∑ cn2 En y si este conjunto base es completo, un vector s en este espacio se puede expresar como (2.41) n s = c1x1 + c2 x 2 + ... + cn x n (2.35) Este resultado, de gran importancia, se conoce como Teorema de Parseval. donde las constantes ci están dadas por ci = 1 xi 2 s ⋅ xi i = 1,2,..., n. (2.36) El procedimiento de ortogonalización de Gram-Schmidt permite construir un conjunto ortonormal completo de funciones base. Suponga que se tiene un conjunto de M señales de energía denotadas por s1(t), s2(t), ..., sM(t). Comenzando con s1(t) de este conjunto arbitrario, la primera función base se define por 2.8.2 Espacio de Señales Ortogonales Las conclusiones anteriores se pueden extender a las señales. Primero, definamos la ortogonalidad de un conjunto de señales {xn(t)} N-dimensional sobre un intervalo [t1,t2] como: t2 ⎧0 ∫ xm (t )xn (t ) = ⎨ E ∗ ⎩ t1 n m≠n m=n . (2.37) Si las energías son unitarias, i.e., En = 1 para toda n, entonces el conjunto se denomina conjunto ortonormal. Un conjunto ortogonal se puede normalizar dividiendo xn (t) por √(En) para toda n. Ahora, aproximemos una señal s(t) sobre el intervalo [t1,t2] por medio de un conjunto de N señales mutuamente ortogonales: s (t ) ≅ c1 x1 (t ) + c 2 x 2 (t ) + L + c N x N (t ) N s (t ) ≅ ∑ c n x n (t ) n =1 2.8.3 Procedimiento de Ortogonalización de Gram-Schmidt t1 ≤ t ≤ t 2 . φ1 (t ) = (2.42) donde E1 es la energía de la señal s1(t). Así, se tiene, claramente, s1 (t ) = E1 φ1 (t ) = s11φ1 (t ) (2.43) donde el coeficiente s11 = √(E1) y φ1(t) tiene energía unitaria, como se requiere. A continuación, utilizando la señal s2(t), se define el coeficiente s21 como T (2.38) s1 (t ) E1 s 21 = s 2 (t )φ1 (t )dt . ∫ 0 (2.44) 2. Señales y Espectros 35 Sea g2(t) la siguiente función intermedia 2.9 Series Generalizadas de Fourier g 2 (t ) = s2 (t ) − s21φ1 (t ) , (2.45) la cual es ortogonal a φ1(t) sobre el intervalo 0 ≤ t ≤ T por virtud de la ecuación (2.44) y el hecho de que la función base φ1(t) tiene energía unitaria. Ahora, se define la segunda función base como φ 2 (t ) = g 2 (t ) T ∫ 36 φ 2 (t ) = → s 2 (t ) − s 21φ1 (t ) (2.46) 2 E 2 − s 21 g 22 (t )dt La representación de una señal por la serie generalizada de Fourier muestra que las señales son vectores en todos los sentidos. Así como se tienen sistemas coordenados formados por vectores mutuamente ortogonales, así también se tienen sistemas coordenados de señales (señales base) formados por una variedad de conjuntos de señales mutuamente ortogonales. Existe una gran cantidad de conjuntos de señales ortogonales que se pueden utilizar como señales base para las series generalizadas de Fourier. Entre los conjuntos de señales más conocidas están las funciones trigonométricas (sinusoidales), funciones exponenciales, funciones de Walsh, funciones de Bessel, polinomios de Legendre y polinomios de Chebyshev, entre otras. En el estudio de los sistemas de comunicación resultan de gran interés las funciones trigonométricas y las exponenciales. 0 2.9.1 Serie Trigonométrica de Fourier donde E2 es la energía de la señal s2(t). Así, se tiene que T ∫ φ (t )dt = 1 2 2 Sea el siguiente conjunto de señales: T y 0 ∫ φ (t )φ (t )dt = 0 . 1 {1, cos ω0t , cos 2ω0t ,K, cos nω0t ,K, sin ω0t , sin 2ω0t ,K, sin nω0t ,K} 2 0 Continuando de esta forma, se puede definir en general una función gi(t), i −1 g i (t ) = si (t ) − ∑ sij φ j (t ) (2.47) j =1 donde los coeficientes sij están definidos por donde n es un entero y ω0 = 2πf0, es la frecuencia medida en radianes/segundo y f0 es la frecuencia medida en hertz1. Una señal sinusoidal de frecuencia nω0 se denomina el n-ésimo armónico de la sinusoide de frecuencia ω0 [rad/s ] ó f0 [Hz]. La señal sinusoidal de frecuencia ω0 sirve como base de este conjunto, y se denomina fundamental, siendo el resto de los términos, armónicos de esta señal. Este conjunto es ortogonal sobre cualquier intervalo de duración T0 = 1/f0 = 2π/ω0 [s] que corresponde al periodo de la fundamental. Este es el conjunto trigonométrico, que es un conjunto completo. Por lo tanto, cualquier señal s(t) se puede expresar por una serie trigonométrica de Fourier sobre cualquier intervalo de duración T0 segundos como T sij = ∫ si (t )φ j1 (t )dt , i = 1,2,..., N (2.48) x(t ) = a 0 + a1 cos ω 0 t + a 2 cos 2ω 0 t + K + b1 sin ω 0 t + b2 sin 2ω 0 t + K 0 lo que forma un conjunto ortonormal. La dimensión N es menor que o igual al número de señales dadas, M, dependiendo de dos posibilidades: Las señales s1(t), s2(t), ..., sM(t) forman un conjunto linealmente independiente, en cuyo caso N = M. Las señales s1(t), s2(t), ..., sM(t) no son linealmente independientes, en cuyo caso N < M, y la función intermedia gi(t) es cero para i > N. Ejemplo 2.7 (representación vectorial de una señal) Se tiene un código cuaternario, llamado 2B1Q, para representar señales digitales, cuyas señales son versiones de diferente amplitud de un mismo pulso. Sea este pulso básico φ1(t) para 0 ≤ t ≤ T, y las cuatro posibles señales del código: s1(t) = –3φ1(t), s2(t) = –φ1(t), s3(t) = +φ1(t), y s4(t) = +3φ1(t). Note que este conjunto de señales no son linealmente independientes, y por lo tanto, se tiene N = 1, M = 4. Este ejemplo es bastante simple y se puede resolver por inspección. Así, se tiene que φ1(t), el pulso básico, normalizado para tener una energía unitaria, es la única función base del conjunto ortonormal del código; y la representación vectorial del código consiste de cuatro vectores señales s1, s2, s3, s4, los cuales se localizan en el eje-φ1 como se muestra en la Figura 2.16. Esta figura se denomina diagrama de señal-espacio. En este ejemplo en particular, el diagrama de señal-espacio del código 2B1Q es el de una señal de pulso cuaternaria modulada en amplitud, y el mismo corresponde a un diagrama unidimensional (N = 1), con cuatro puntos (M = 4) distribuidos sobre un único eje. t 1 ≤ t ≤ t 1 + T0 (2.50a) o ∞ • • (2.49) x(t ) = a 0 + ∑ (a n cos nω 0 t + bn sin nω 0 t ) n =1 t 1 ≤ t ≤ t 1 + T0 , (2.50b) donde los coeficientes a0, an y bn se calculan a partir de la ecuación (2.32), resultando: a0 = 1 T0 ∫ an = 2 T0 ∫ bn = 2 T0 ∫ t1 +T0 t1 t1 +T0 t1 t1 +T0 t1 x(t )dt (2.51a) x (t ) cos nω 0 tdt n = 1,2,3, K (2.51b) x(t )sin nω 0 tdt n = 1,2,3, K (2.51c) La serie trigonométrica, ecuación (2.50), contiene términos senos y cosenos de la misma frecuencia, por lo que estos términos se pueden combinar utilizando la identidad trigonométrica an cos nω0t + bn sin nω0t = Cn cos(nω0t + θ n ) (2.52) donde Cn = an2 + bn2 Figura 2.16: Diagrama señal-espacio del código 2B1Q. ■ 1 y ⎛ −b ⎞ θ n = tan −1 ⎜⎜ n ⎟⎟ . ⎝ an ⎠ (2.53) Por conveniencia (simplificación de escritura) en la mayoría de las expresiones se usa ω, pero los análisis, gráficas y algunas expresiones finales se dan en función de f. Recuerde que ambas son frecuencias y están relacionadas por ω = 2πf. 2. Señales y Espectros 37 38 x(t ) = Por conveniencia, si denotamos el término a0 por C0, podemos escribir la serie trigonométrica de Fourier en su forma compacta: ∞ x(t ) = C 0 + ∑ C n cos(nω 0 t + θ n ) n =1 (2.54) t 1 ≤ t ≤ t 1 + T0 Es importante notar que una señal arbitraria x(t) puede expresarse como una serie trigonométrica de Fourier sobre cualquier intervalo de T0 segundos. Así, la serie de Fourier es igual a x(t) sobre ese intervalo solamente. Fuera de este intervalo, la serie no es necesariamente igual a x(t). Periodicidad La serie trigonométrica de Fourier es una función periódica de periodo T0 (periodo de la fundamental). Siendo así, si la función s(t) fuese periódica también con periodo T0, entonces una serie de Fourier que represente a x(t) sobre un intervalo T0, representaría también a x(t) para todo t (no sólo en el intervalo T0). Espectro de Fourier La serie trigonométrica compacta de Fourier en la ecuación (2.54) indica que una señal periódica x(t) puede representarse como la suma de funciones sinusoidales de frecuencias 0 (dc), ω0, 2ω0, ... , nω0, ... , cuyas amplitudes son C0, C1, C2, ..., Cn, ... y cuyas fases son 0, θ1, θ2, ..., θn, .... A partir de esto, se puede graficar fácilmente la amplitud Cn vs. f (o ω) (espectro de amplitud) y θn, vs. f (o ω) (espectro de fase). Estas dos gráficas conforman el espectro de frecuencia de x(t). El espectro de frecuencia provee una descripción alternativa en el dominio de la frecuencia de la señal x(t). Por lo tanto, una señal tiene una identidad dual: la identidad en el dominio del tiempo s(t) y una identidad en el dominio de la frecuencia (espectro de Fourier). Las dos identidades se complementan y juntas proveen una mejor comprensión de la señal. Existen dos condiciones básicas para la existencia de la serie de Fourier, las cuales se conocen como condición débil de Dirichlet y las condiciones fuertes de Dirichlet. La primera condición establece que para que la serie exista, los coeficientes a0, an y bn deben ser finitos. Esta condición se garantiza si x(t) es absolutamente integrable sobre un periodo, esto es, ∫T x(t ) dt < ∞ . 1 T0 Si una función x(t) satisface la condición débil de Dirichlet, se garantiza la existencia de una serie de Fourier, pero puede que la serie no converja en todos los puntos. Las condiciones fuertes de Dirichlet requieren que la función x(t) tenga solamente un número finito de máximos y mínimos en un periodo, y pueda tener solamente un número finito de discontinuidades finitas en un periodo. ∫ x(t )exp(− jnω t )dt . 0 T0 Los coeficientes Dn son complejos y, más aún, los coeficientes Dn y D-n son conjugados. Espectro Exponencial de Fourier Los espectros exponenciales de Fourier se obtienen al graficar los coeficientes Dn como funciones de ω (o f). Pero, como los Dn son complejos en general, se requieren dos gráficas: las partes real e imaginaria de Dn, o la magnitud y la fase de Dn. Estas últimas están más relacionadas con los componentes de la serie trigonométrica. Para esto, se requiere expresar los coeficientes Dn en forma polar D n exp( j∠D n ) . Como Dn y D-n son conjugados, entonces sabemos que Dn = D − n y ∠Dn = −∠D− n . Es importante que se entienda que los espectros exponenciales son una representación gráfica de los coeficientes Dn como funciones de f (o ω), y que por lo tanto la existencia del espectro en f = –nf0 (una frecuencia negativa que físicamente no existe), es sólo una indicación del hecho de que una componente exponencial exp(–j2πnf0) existe en la serie. Teorema de Parseval Una señal periódica x(t) es una señal de potencia, y cada término de su serie de Fourier es también una señal de potencia. La potencia Px de x(t) es igual a la potencia de su serie de Fourier, y como la serie consiste de términos mutuamente ortogonales sobre un periodo, entonces la potencia Px es igual a la suma de las potencias de las componentes de Fourier. Esto resulta del teorema de Parseval. Así, se tiene para la serie trigonométrica de Fourier, ecuación (2.54), que la potencia Px de x(t) está dada por Px = C 02 + 1 ∞ 2 ∑ Cn 2 n =1 ∫T 0 ⎧0 ∗ exp( jmω 0 t ) exp( jnω 0 t ) dt = ∫T exp[ j (m − n )ω 0 t ]dt = ⎨ 0 ⎩T0 m≠n m=n . (2.56) Más aún, este conjunto es un conjunto completo. De las ecuaciones (2.40) y (2.39) sigue que una señal x(t) puede expresarse sobre un intervalo de duración T0 segundos como una serie exponencial de Fourier (2.59) y para la serie exponencial de Fourier, ecuación (2.57), Px está dada por Px = ∞ ∑ Dn n = −∞ 2 ∞ = D02 + 2∑ Dn n =1 2.9.2 Serie Exponencial de Fourier Considere un conjunto de exponenciales exp(jnωot) para n = 0, ±1, ±2, .... Este conjunto es ortogonal sobre cualquier intervalo de duración T0 = 1/f0 = 2π/ω0 [segundos], esto es, (2.58) Esta serie es básicamente otra forma de la serie trigonométrica de Fourier, pero con la ventaja de que su forma es más compacta y que la expresión matemática para derivar los coeficientes de la serie también es compacta. La serie exponencial de Fourier es periódica con periodo T0. (2.55) 0 (2.57) donde Dn = donde Cn y θn están dados por la ecuación (2.53). ∞ ∑ Dn exp( jnω0 t ) n = −∞ Ejemplo 2.8 (series de Fourier y espectros) Para la siguiente señal periódica de voltaje, encuentre la serie trigonométrica, la serie trigonométrica compacta y la serie exponencial de Fourier. Grafique sus espectros y verifique el teorema de Parseval. 2 (2.60) 2. Señales y Espectros 39 40 Solución La señal es periódica por lo que se puede tomar cualquier intervalo con T0 = 4 s (periodo) para realizar el análisis, e.g., el intervalo [0,4]. La señal es, además, simétrica, por lo que algunos términos de la serie son cero y el valor promedio de la señal es cero, por consiguiente el término dc en las series es cero. De T0 se sabe que ω0 = 2π/T0 =π/2 (f0 = 0.25 Hz). Figura 2.17: Señal de voltaje x(t). Serie trigonométrica: a0 = 0 an = 0 4 2⎛ 2 1 {1 − 2 cos(nπ ) + cos(2nπ )} = 4 ⎜ sin nω 0 t dt − ∫2 sin nω 0 t dt ⎞⎟ = ⎠ nπ 4 ⎝ ∫0 nπ ∞ ∞ 4 ∴ x(t ) = ∑ bn sin nω 0 t = ∑ sin nω 0 t para n impar n =1 n =1 nπ bn = Figura 2.18: Espectros de amplitud de x(t) de la: a) serie compacta, b) serie exponencial. Forma compacta: C n = a n2 + bn2 = bn ∴ x(t ) = ∞ Es importante notar que los espectros a partir de la serie trigonométrica son unilaterales (f ≥ 0), mientras que a partir de la serie exponencial son bilaterales (⏐f⏐≥ 0). ■ ⎛ − bn ⎞ π ⎟=− ⎟ 2 ⎝ an ⎠ θ n = tan −1 ⎜⎜ y ∞ π⎞ ⎛ 4 ∑ C n cos⎜⎝ nω 0 t − 2 ⎟⎠ = ∑ nπ sin nω 0 t n =1 n impar n =1 2.10 Transformada de Fourier Serie exponencial: 2 4 ⎞ 1⎛ 1 Dn = ⎜ e − jnω0t dt − e − jnω0t dt ⎟ = 1 + e − j 4 nω0 − 2e − j 2 nω0 ; ⎟ j 4nω 0 4 ⎜⎝ 0 2 ⎠ ∫ ( ∫ ) ω0 = π / 2 π −j 1 (1 + cos(2nπ ) − 2 cos(nπ )) = − j 2 = 2 e 2 j 2 nπ nπ nπ Dn = g (t ) = ∞ ∑ Dn e jnω t 0 n = −∞ n impar ∞ 2 jnω0t =−j e n = −∞ nπ ∑ para n impar ∞ 4 x(t ) = sin (nω 0 t ) n =1 nπ ∑ ⇒ para n = 1,3,5,7,... para n impar. En la práctica, toda señal que pueda generarse o capturarse para análisis es de duración finita y por tanto tiene energía finita. Es decir, que toda señal observada en la vida real es una señal de energía. De lo contrario, su potencia, que es su energía promedio (sobre un intervalo infinitamente grande) no se aproximaría a un límite (distinto de cero). Y es que resulta imposible generar o registrar una verdadera señal de potencia en la práctica, porque tal señal tiene una duración infinita y una energía infinita. Por tanto, no se pueden tener señales realmente periódicas, ya que por definición su duración es infinita. Siendo así, es muy importante poder representar una señal no-periódica. Del estudio anterior para señales periódicas, se puede aplicar un proceso de límite de forma que una señal no-periódica pueda expresarse como una suma continua (integral) de exponenciales permanentes. Para una señal cualquiera no-periódica x(t), como la que se muestra en la siguiente figura, sería posible construir una nueva señal periódica xTo(t) a partir de la repetición de x(t) cada T0 segundos. Note que Dn se puede calcular a partir de Cn como π Dn = 1 2 −j2 C n e jθ n = e nπ 2 n = 1, 3, 5, 7, ... π D−n 1 2 j2 = C n e − jθ n = e 2 nπ n = −1, − 3, − 5, − 7, ... Teorema de Parseval 2 Px = C02 + 1 ∞ 2 1 ∞⎛ 4 ⎞ 8 ∞ 1 ∑ Cn = ∑ ⎜ ⎟ = 2 ∑ 2 2 n =1 2 n =1 ⎝ nπ ⎠ π n =1 n n impar Figura 2.19: Construcción de una señal periódica a partir de una señal no-periódica de duración finita. o ∞ Px = D02 + 2 ∑ D n n =1 2 ∞ = 2∑ Espectros de amplitud n =1 2 nπ 2 = 8 π2 ∞ ∑ n =1 1 n2 n impar Si el periodo T0 se hace lo suficientemente grande para evitar la sobreposición de las formas de onda repetidas, la señal periódica xTo(t) puede representarse por una serie exponencial de Fourier como en la Sección 2.8.2. Si hacemos que T0 → ∞, las formas de onda en la señal periódica se repetirán después de un intervalo infinito, y por lo tanto 2. Señales y Espectros 41 lím xT0 (t ) = x(t ) . (2.61) T0 →∞ De esta forma, la serie de Fourier que representa la señal xTo(t) también representará la señal x(t) en el límite T0 → ∞. Ya se sabe que la serie exponencial de Fourier para xTo(t) esta dada por ∞ xT0 (t ) = ∑ Dn exp( jnω 0 t ) (2.62) n = −∞ T0 / 2 ∫ xT (t ) exp(− jnω 0 t )dt −T0 / 2 y 0 2π . ω 0 = 2πf 0 = T0 (2.63) ∞ 1 T0 ∫ x(t ) exp(− Esta integral es básicamente una serie (en el límite) con frecuencia fundamental ∆f → 0. La cantidad del exponencial exp(jn2π∆f t) es X(n2π∆f)∆f, por lo que X(f) dada por la ecuación (2.65) actúa como una función espectral. X(f) se llama transformada directa de Fourier de x(t), y x(t) es la transformada inversa de Fourier de X(f). La relación entre ellas se expresa como jn 2πf 0 t )dt (2.64) −∞ La naturaleza del espectro cambia, y resulta un espectro continuo, donde en el límite a medida que T0 → ∞ , f0 → 0 y Dn → 0. Esto significa que el espectro resultante es tan denso que las componentes están espaciadas a un intervalo cero (infinitesimal), al tiempo que la amplitud de cada componente es cero (infinitesimal). Esto resulta un poco extraño como se indica en [Lat98], es como tener nada de todo, y sin embargo tener algo! Para aclarar esto, se puede definir una función X(f) como una función continua de f, tal que ∞ X ( f ) = ∫ x(t ) exp(− j 2πft )dt , x(t ) = ↔ ∞ ∫ X ( f )exp( j 2πft )df ↔ X ( f ) = F[x(t )] X(f )= −∞ Note que xTo(t) sobre el intervalo (–½T0, ½T0) es lo mismo que la integral de x(t) sobre ( –∞, ∞), por lo que la ecuación (2.63) puede expresarse como Dn = En la ecuación (2.70) o en la (2.71), la integral de la derecha se denomina integral de Fourier. De esta forma es posible representar una señal no-periódica x(t) por una integral de Fourier (en lugar de una serie de Fourier). x(t ) = F −1 [X ( f )] donde 1 Dn = T0 42 (2.65) −∞ ∞ ∫ x(t )exp(− j 2πft )dt (2.72) −∞ Se puede graficar el espectro X(f) como una función de f. Ya que X(f) es complejo, se tienen los espectros de amplitud y de fase directamente de X(f), X ( f ) = X ( f ) exp( jθ ( f )) . (2.73) La transformada de Fourier X(f) es la especificación en el dominio de la frecuencia de x(t), y la existencia de la transformada de Fourier se asegura para cualquier señal x(t) que satisfaga las condiciones de Dirichlet mencionadas en la Sección 2.9.1. Adicionalmente, se puede indicar que si una señal x(t) es una función real de t, de la ecuación (2.65) se puede ver que para –f, se tiene que X (− f ) = ∞ ∫ x(t )exp( j 2πft )dt , (2.74) −∞ y considerando esta expresión y la ecuación (2.65), resulta entonces que X(f) y X(–f) son complejos conjugados, esto es, (2.75) X (− f ) = X ∗ ( f ) , de lo que resulta Dn = De la ecuación (2.62), ∞ xT0 (t ) = ∑ n = −∞ 1 X (nf 0 ) . T0 X (nf 0 ) exp( jn 2πf 0 t ) T0 (2.66) Para concluir, es importante notar que el espectro de Fourier de una señal periódica tiene amplitudes y fases finitas y existe en frecuencias discretas (f0 y sus múltiplos); mientras que el espectro de Fourier de una señal no-periódica es continuo y existe en todas las frecuencias. (2.67) y considerando que cuando T0 → ∞ , f0 → 0, y sustituyendo f0 por ∆f = 1/T0, se tiene que xT0 (t ) = ∞ ∑ X (n∆f )∆f exp( jn2π∆ft ) de lo cual resulta que el espectro de amplitud tiene simetría par y el de fase tiene simetría impar. (2.68) Ejemplo 2.9 (transformada de Fourier y espectros) Para las siguientes señales x(t) y xp(t), donde x(t) = rect(2t) y xp(t) corresponde a la repetición periódica de x(t), con periodo T0 = 1 s, determine y grafique los espectros de amplitud de ambas señales. n = −∞ y si tomamos el límite para obtener x(t), entonces, x(t ) = lim xT0 (t ) = lim T0 →∞ ∆f →0 ∞ ∑ X (n∆f ) exp( jn2π∆ft )∆f (2.69) n = −∞ resultando x(t ) = ∞ ∫ X ( f )exp( j 2πft )df , (2.70) −∞ o en términos de ω, x(t ) = 1 2π ∞ ∫ X (ω ) exp( jωt )dω. (2.71) −∞ Figura 2.20: Señales x(t) y xp(t). 2. Señales y Espectros 43 44 Solución: La señal x(t) tiene un ancho de 0.5 s (T0/2). Para hallar el espectro del pulso rectangular x(t), que es una función noperiódica, se calcula la transformada de Fourier, mientras que para el tren de pulsos rectangulares xp(t), que es una función periódica, se calculan los coeficientes de la serie exponencial de Fourier. Transformada de Fourier: X(f )= +T / 4 ∫e − j 2πft dt = −T / 4 = 1 − j 2πf T ⎛ − j 2πf T4 + j 2πf 4 ⎜e −e ⎜ ⎝ ⎞ 1 ⎛π ⎞ ⎟= sin⎜ f ⎟ ⎟ πf ⎝2 ⎠ ⎠ Figura 2.22: Relación entre las transformadas directa e inversa de Fourier. 1 ⎛ f ⎞ sinc ⎜ ⎟ 2 ⎝2⎠ Observe que sólo hay una diferencia menor en estas operaciones: el signo de los índices exponenciales. Esta observación conduce al principio de dualidad, obtenido al intercambiar los roles de x(t) y X(f) en el resultado original (con la modificación del signo). Coeficientes de la serie exponencial de Fourier: Dn = 1 +T / 4 − jn 2πft 1 e dt = T −T∫/ 4 − jn 2πf = 1 sinc 2 T ⎛ − jn 2πf T4 + jn 2πf ⎞ 1 ⎛ π⎞ 4 ⎟ ⎜e sin⎜ n ⎟ = −e ⎜ ⎟ nπ ⎝ 2⎠ ⎝ ⎠ A continuación se indican algunas propiedades importantes, sin incluir las pruebas, y se aplica el principio de dualidad como ejemplo al caso de la propiedad de corrimiento en el tiempo. ⎛n⎞ ⎜ ⎟ ⎝2⎠ Propiedad de Linealidad (superposición) La transformada de Fourier es lineal, esto es, si x1 (t ) ↔ X 1 ( f ) y x2 (t ) ↔ X 2 ( f ) entonces, a1 x1 (t ) + a 2 x 2 (t ) Espectros de magnitud a1 X 1 ( f ) + a 2 X 2 ( f ) ↔ (2.76) Propiedad de Escalamiento Si x(t) ↔ X(f) entonces, para cualquier constante real a, x(at ) ↔ 1 ⎛f⎞ X⎜ ⎟ . a ⎝a⎠ (2.77) Esta propiedad establece que la compresión de una señal en el tiempo resulta en su expansión espectral, y viceversa. Esto implica que si x(t) es ancha, su espectro será angosto, y viceversa. Esto sugiere que el ancho de banda de una señal es inversamente proporcional a la duración o ancho (en segundos) de la señal (ver Sección 2.10 Ancho de banda de rect(x/τ)). Propiedad de Conjugación Si x(t) ↔ X(f) entonces, para una función x(t) compleja, Figura 2.21: Espectros de magnitud de las señales x(t) y xp(t). x ∗ (t ) Observe el espectro continuo del pulso, y el espectro discreto del tren de pulsos. ■ y x (− t ) ∗ Al igual que para la serie de Fourier, para que exista la transformada de Fourier de una señal x(t) es suficiente, pero no necesario, que x(t) satisfaga las condiciones de Dirichlet. Cuando una función de tiempo x(t) corresponde a una descripción específica precisa de una señal realizable físicamente (e.g., señal de voz, señal de video), podemos ignorar la pregunta de la existencia de la transformada de Fourier, porque el hecho de que la función sea físicamente realizable es una condición suficiente para la existencia de la transformada de Fourier. Por lo tanto, todas las señales de energía tienen transformada de Fourier. X ∗ (− f ) ↔ X ∗ (f ), (2.78) (2.79) donde * denota el complejo conjugado. Área bajo x(t) Si x(t) ↔ X(f), entonces +∞ ∫ x(t )dt = X (0) = X ( f ) −∞ 2.10.1 Propiedades de la Transformada de Fourier Ahora consideremos algunas de las propiedades más importantes de la transformada de Fourier y sus implicaciones, así como sus aplicaciones. Es importante en este punto resaltar un aspecto omnipresente de la transformada de Fourier: la dualidad tiempo-frecuencia. En la ilustración de la Figura 2.22 resalta el hecho de que las transformadas, directa e inversa, de Fourier son significativamente similares. ↔ f =0 (2.80) Área bajo X(f) Si x(t) ↔ X(f), entonces x(t ) t =0 = x(0) = +∞ ∫ X ( f )df −∞ (2.81) 2. Señales y Espectros 45 Propiedad de Simetría o Dualidad Si x(t) ↔ X(f), entonces X (t ) x(− f ) ↔ (2.82) Propiedad de Corrimiento en el Tiempo Si x(t) ↔ X(f), entonces x(t − t 0 ) X ( f ) exp(− j 2πft 0 ) ↔ 46 Una propiedad relacionada a éstas es la propiedad del ancho de la Convolución. Esta propiedad establece que el ancho de s∗ x es la suma de los anchos de s y x. En consecuencia, si aplicamos esta propiedad a la ecuación (2.90) resulta que si el ancho de banda de una señal x(t) es B Hz, entonces el ancho de x2(t) es 2B Hz, y el ancho de banda de xn(t) es nB Hz, y en general, si las señales x1(t) y x2(t) tienen anchos de banda B1 y B2 Hz, respectivamente, entonces el ancho de banda de x1(t) x2(t) es (B1 + B2) Hz. Propiedad de la Correlación Si x1(t) ↔ X1(f), y x2(t) ↔ X2(f), entonces (2.83) +∞ ∫ x (t )x (t − τ )dt ∗ 2 1 donde t0 es una constante real de tiempo. ↔ X 1 ( f )X 2∗ ( f ) . (2.91) −∞ Si aplicamos a esta ecuación el principio de dualidad, se puede obtener directamente la propiedad de corrimiento en la frecuencia: x(t ) exp( j 2πf 0 t ) ↔ X ( f − f0 ) (2.84) donde X*2(f) es el complejo conjugado de X2(f), y τ es la variable de tiempo involucrada en la definición de la transformada inversa de Fourier del producto X1(f) X*2(f). La integral del lado izquierdo de la ecuación (2.91) es la función de correlación cruzada (ver expresión (2.31)). Teorema de Energía de Rayleigh Si x(t) ↔ X(f), entonces donde f0 es una constante real de frecuencia. Un retraso en el tiempo en una señal, produce un cambio de fase lineal en su espectro. Por lo tanto, un retraso de tiempo t0 en una señal sinusoidal de frecuencia f se manifiesta como un retraso de fase de 2πf t0, lo cual es una función lineal de f. +∞ ∫ x(t ) 2 dt = −∞ +∞ ∫ X(f ) 2 df = E x , (2.92) −∞ donde Ex es la energía total de la señal x(t). Diferenciación en el Tiempo Si x(t) ↔ X(f), entonces, d x(t ) dt j 2πf X ( f ) ↔ (2.85) Ejemplo 2.10 (propiedades de la transformada de Fourier) Determine la energía del pulso x(t) dado por x(t ) = A sinc(t / τ ) . y en general, n d x(t ) dt n ( j 2πf )n X ( f ) ↔ (2.86) Solución: La energía del pulso está dada por ∞ Ex = Integración en el Tiempo Si x(t) ↔ X(f), entonces, ∫A 2 sinc 2 (t / τ )dt −∞ t ∫ x(τ )dτ ↔ −∞ 1 1 X ( f ) + X (0)δ ( f ) j 2πf 2 (2.87) Propiedad de la Convolución en el Tiempo La convolución de dos señales x1(t) y x2(t), denotada por x1(t) ∗ x2(t), está definida por Pero, la integral de esta ecuación es algo difícil de evaluar. Sin embargo, del Ejemplo 2.9 se observa que el pulso rectangular y el pulso sinc forman un par de transformadas de Fourier, por lo que usando el resultado de ese ejemplo y aplicando las propiedades de simetría y escalamiento, y observando que la función rectangular es una función par del tiempo, se tiene lo siguiente: Para x(t ) = rect (t / T ) ↔ X ( f ) = T sinc(Tf ) ∞ x1 (t ) ∗ x2 (t ) ≡ ∫ x1 (τ )x2 (t − τ )dτ . (2.88) −∞ La propiedad de la convolución en el tiempo establece que si x1(t) ↔ X1(f), y x2(t) ↔ X2(f), entonces x1 (t ) ∗ x 2 (t ) ↔ ↔ A sinc(t / τ ) ↔ Aτ rect (τ f ) Ahora, aplicando el teorema de Rayleigh, se tiene que la energía del pulso sinc es X 1 ( f )X 2 ( f ) . (2.89) X1( f )∗ X 2 ( f ) Ex = +1 / (2τ ) ∫ ( Aτ ) −1 / (2τ ) 2 rect 2 (τ f ) df = A 2τ ■ Aplicando el principio de dualidad, se tiene la Propiedad de la Convolución en la Frecuencia: x1 (t )x 2 (t ) entonces (2.90) La Tabla 2.1 contiene algunas transformadas de Fourier para las señales que comúnmente se utilizan en el estudio de los sistemas de comunicación. 2. Señales y Espectros 47 Relación entre la Convolución y la Correlación Si comparamos las definiciones de la convolución y la correlación, y también, las propiedades de la transformada de Fourier de la convolución en el tiempo y de la correlación, se observa que existe una relación estrecha entre ambas operaciones. Considere la convolución en el tiempo de dos señales reales x(t) y y(t); de la ecuación (2.88), se tiene que Tabla 2.1: Algunas transformadas de Fourier útiles. x(t ) X(f ) 1 δ(f ) ∞ x(t ) ∗ y(t ) = ∫ x(τ ) y(t − τ )dτ . δ (t ) 1 δ (t − t 0 ) exp(− j 2πft 0 ) exp( j 2πf 0 t ) δ ( f − f0 ) exp(− at ) u (t ) 1 a + j 2πf ⎡ ⎛ t ⎞2 ⎤ exp ⎢− π ⎜ ⎟ ⎥ ⎣⎢ ⎝ T ⎠ ⎦⎥ −∞ Si se intercambian las variables t y τ en la expresión anterior, se obtiene a 2 + (2πf ) a>0 2 ( T exp − π ( fT ) 2 (a + 1 j 2πf ) 2 1 1 δ(f )+ 2 j 2πf cos(2πf 0 t ) 1 [δ ( f − f 0 ) + δ ( f + f 0 )] 2 sin (2πf 0 t ) 1 [δ ( f − f 0 ) − δ ( f + f 0 )] 2j ⎛t ⎞ rect ⎜ ⎟ ⎝T ⎠ T sinc( fT ) sinc(2Wt ) 1 ⎛ f ⎞ rect ⎜ ⎟ 2W ⎝ 2W ⎠ ⎛t⎞ cos(2πf 0 t ) rect ⎜ ⎟ ⎝T ⎠ T [sinc( f − f 0 )T + sinc( f + f 0 )T ] 2 ⎛t ⎞ ∆⎜ ⎟ ⎝T ⎠ T sinc 2 ( fT ) ∑ δ (t − mT0 ) 1 T0 x(τ ) ∗ y(− τ ) = ∞ ∫ x(t )y(t − τ )dt . −∞ R xy (τ ) = x (τ ) ∗ y (− τ ) . a>0 2.10.2 Transformadas de Fourier de Señales Periódicas Del estudio anterior, sabemos que las señales periódicas se pueden representar por las series de Fourier como una suma de exponenciales complejas, y también, que las exponenciales complejas se pueden representar a su vez por medio de transformadas de Fourier (ver Tabla 2.1). Por lo tanto, parece razonable representar una señal periódica en términos de una transformada de Fourier, condicionado a que dicha transformada pueda incluir funciones delta. Sea xTo(t) una señal periódica con period To. Esta señal se puede representar en términos de una serie exponencial compleja de Fourier dada por la ecuación (2.57) y que se vuelve a repetir por conveniencia: xT0 (t ) = 1 − j sgn ( f ) ∞ ∑ Dn exp( j 2π nf 0 t ) (2.94) n = −∞ donde ⎛ n ⎞ ∑ δ ⎜⎜ f − T ⎟⎟ n = −∞ ⎝ 0 ⎠ 1 jπf (2.93) Esta relación de gran interés cuando se dispone de alguna forma para calcular la convolución de dos secuencias, y que ahora sabemos, también se puede usarse para calcular la correlación entre las secuencias, calculando la convolución de la primera señal con, simplemente, la versión invertida de la segunda señal. ∞ sgn (t ) πt Si ahora, se invierte la segunda señal, resulta ) u (t ) m = −∞ ∫ x(t )y(τ − t )dt . −∞ Comparando esta última expresión con la ecuación (2.30), se tiene que t exp(− at ) u (t ) ∞ ∞ x(τ ) ∗ y(τ ) = a>0 2a exp(− a t ) 48 Dn = 1 T0 ∫T 0 ( ) xT0 (t ) exp − j 2π nf 0t dt . (2.95) y f0 = 1/T0 es la frecuencia fundamental. Sea x(t) una función pulso, igual a xTo(t) sobre un periodo y cero en todos los otros lados, i.e., T T ⎧ ⎪ x (t ), − 0 ≤t≤ 0 x(t ) = ⎨ T0 2 2 ⎪⎩ 0, cualquier otro lado Además, la señal periódica xTo(t) se puede expresar en términos de x(t) como una sumatoria infinita (2.96) 2. Señales y Espectros 49 xT0 (t ) = ∞ ∑ x(t − mT0 ) . (2.97) m = −∞ Basados en esta representación, x(t) se puede ver como una función generadora. Además, esta señal tiene energía finita y por lo tanto tiene una transformada de Fourier, por lo que los coeficientes complejos Dn de la serie de Fourier se pueden expresar como ∞ ( ) Dn = f 0 ∫ x(t )exp − j 2π nf 0 t dt −∞ = f 0 X (nf 0 ) . ∞ ∞ m = −∞ n = −∞ ∑ x(t − mT0 ) = f 0 ∑ X (nf 0 )exp( j 2πnf 0t ) . (2.99) Usando la expresión de la transformada de Fourier de la función exponencial compleja (ver Tabla 2.1), se encuentra la transformada de Fourier para la señal periódica xTo(t), xT0 (t ) = ∞ ∑ x(t − mT0 ) m = −∞ ↔ ∞ f0 ∑ X (nf 0 )δ ( f n = −∞ 2.11.1 Ancho de Banda El ancho de banda de una señal provee una medida de la extensión del contenido espectral significativo de la señal para frecuencias positivas. Así, se puede definir el ancho de banda de una señal como la diferencia entre la frecuencia más alta (significativa) y la frecuencia más baja (significativa) en el espectro (positivo) de la señal. Cuando una señal es de banda estrictamente limitada, el ancho de banda queda bien definido, pero cuando la señal no tiene una banda estrictamente limitada, como ocurre generalmente, es necesario considerar algún tipo de definición de ancho de banda. En la Sección 2.16 se discuten varias definiciones prácticas de ancho de banda. (2.98) donde X(nf0) es la transformada de Fourier de x(t), evaluada en la frecuencia f = nf0. Así, la señal periódica se puede expresar como xT0 (t ) = 50 − nf 0 ) . Ejemplo 2.11 (ancho de banda de rect(t/τ) Ya vimos que la trasformada de Fourier de una señal x(t) = rect(t/τ) corresponde a X(f) = τ sinc(f τ). Note que x(t) es una señal estrictamente limitada en el tiempo, pero su espectro se extiende de forma infinita. El espectro X(f) tiene su máximo en f = 0 y decae a frecuencias mayores; por lo tanto, rect(x/τ) es una señal pasa-bajas con casi toda su energía en las componentes de baja frecuencia. Estrictamente, el espectro de rect(x/τ) se extiende de 0 a ∞, por lo que el ancho de banda es, en este caso, ∞. Sin embargo, la mayor parte de la energía está concentrada dentro del primer lóbulo (de f = 0 a f = 1/τ), y se podría considerar f = 1/τ la frecuencia mayor significativa en el espectro, resultando un ancho de banda aproximado de 1/τ [Hz]. Observe la relación recíproca entre el ancho del pulso rectangular y su ancho de banda aproximado. ■ (2.100) 2.11.2 Producto Tiempo-Ancho de Banda La ecuación (2.100) indica que la transformada de Fourier de una señal periódica consiste de funciones delta que ocurren en múltiplos enteros de la frecuencia fundamental f0 = 1/T0, incluyendo el origen, y que cada función delta está ponderada por un factor igual al valor correspondiente de X(nf0). Para cualquier familia de señales pulso que difieran por un factor de escala en el tiempo, el producto de la duración de la señal y su ancho de banda es siempre una constante, i.e., 2.11 Relación Inversa entre Tiempo y Frecuencia Este producto se llama producto tiempo-ancho de banda o producto ancho de banda-duración; y es otra manifestación de la relación inversa entre las descripciones en el dominio del tiempo y el dominio de la frecuencia de una señal. En particular, se puede observar de la relación del producto, que si la duración de una señal se aumenta o se reduce por un factor a (expansión o compresión, respectivamente); entonces, la escala de frecuencia del espectro de la señal, y por consiguiente, su ancho de banda, se reducirá o aumentará, respectivamente, por el mismo factor a; de forma que el producto tiempo-ancho de banda permanece constante. Esto se ilustra en el problema 17 de la Sección 2.18. (duración) × (ancho de banda) = constante. La definición de la transformada de Fourier y su inversa, así como las propiedades de la transformada de Fourier discutidas en la sección anterior muestran claramente que existe una íntima relación entre las descripciones en el dominio del tiempo y en el dominio de la frecuencia de una señal, y que la misma es una relación inversa. En particular se tiene que: i) Si la descripción en el dominio del tiempo de una señal se cambia, entonces la descripción de la señal en el dominio de la frecuencia se cambia de una manera inversa, y viceversa. Esta relación inversa previene especificaciones arbitrarias de una señal en ambos dominios. Es decir, que sólo se puede especificar una función arbitraria del tiempo o un espectro arbitrario, pero no ambos a la vez, ya que uno y otro están íntimamente relacionados, y al especificar uno de ellos, el otro queda determinado automáticamente. ii) Si una señal es estrictamente limitada en frecuencia, la descripción en el dominio del tiempo de la señal será infinita, aún cuando su amplitud pueda tomar valores progresivamente cada vez más pequeños. Una señal se dice que es estrictamente limitada en frecuencia o estrictamente de banda limitada si su transformada de Fourier es exactamente cero fuera de una banda finita de frecuencias. Un ejemplo claro de este tipo de señal es el pulso sinc (en el tiempo) cuya transformada de Fourier es la función rect. Note que el pulso sinc es sólo asintóticamente limitado en el tiempo. De forma inversa, si una señal es estrictamente limitada en el tiempo, es decir, que es exactamente cero fuera de un intervalo finito de tiempo, entonces su espectro se extenderá al infinito, aún cuando el espectro de amplitud tome valores progresivamente pequeños. Este caso queda ejemplificado por una señal rect (en el tiempo) cuya transformada de Fourier es la función sinc. De esto se concluye que una señal no puede ser estrictamente limitada tanto en tiempo como en frecuencia, simultáneamente. 2.12 Densidad Espectral La densidad espectral de una señal caracteriza la distribución de la energía o la potencia de una señal en el dominio de la frecuencia. Este concepto es particularmente importante cuando se considera el proceso de filtrado en los sistemas de comunicación. Para el análisis de los sistemas de comunicación debe ser posible evaluar la señal y el ruido en la salida de un filtro, para lo cual se utiliza la densidad espectral de energía (ESD – energy spectral density) o la densidad espectral de potencia (PSD – power spectral density). La densidad espectral, ESD o PSD, es una función real positiva de una variable de frecuencia asociada con un proceso estocástico estacionario, o una función determinística del tiempo, que tiene dimensiones de energía por Hz, o de potencia por Hz. Se denomina simplemente espectro de la señal o densidad espectral, y básicamente captura el contenido de un proceso estocástico y ayuda a identificar periodicidades. La PSD se expresa comúnmente en watts por hertz [W/Hz] o en dBm/Hz. Para señales de voltaje, es común usar unidades de V2/Hz para la PSD, y V2s/Hz para la ESD o dBµV/Hz. 2. Señales y Espectros 51 2.12.1 Densidad Espectral de Energía La ESD describe como la energía (o varianza) de una señal o de una serie en el tiempo se distribuye con la frecuencia. La energía total de una señal de energía x(t) de valor real, definida sobre el intervalo (–∞, ∞), se describe por la ecuación (2.1), y usando el teorema de energía de Rayleigh, se puede relacionar la energía de dicha señal expresada en el dominio del tiempo a la energía expresada en el dominio de la frecuencia ∞ Ex = ∞ ∫ x (t )dt = ∫ X ( f ) 2 −∞ 2 df . (2.101) −∞ donde X(f) es la transformada continua de Fourier de la señal no periódica x(t). Sea Sx(f) el cuadrado del espectro de magnitud, definido como, Sx ( f ) = X ( f ) . 2 52 La ecuación (2.106) define la PSD de una señal periódica como una sucesión de funciones delta ponderadas. Por lo tanto, la PSD de una señal periódica es una función discreta de la frecuencia. Utilizando la definición en la ecuación (2.80), la potencia normalizada promedio de una señal de valor real se puede escribir como ∞ ∞ −∞ 0 Px = ∫ S x ( f )df =2 ∫ S x ( f )df . La ecuación (2.106) describe la PSD de señales periódicas (de potencia) solamente. Si x(t) es una señal no-periódica, la misma no se expresa como una serie de Fourier, y si es una señal no-periódica de potencia (tiene energía infinita) puede que no tenga una transformada de Fourier. Sin embargo, la PSD de dichas señales se puede expresar en un sentido de límite. Si se forma una versión truncada xT(t) de una señal de potencia no-periódica x(t) observando solamente la señal en el intervalo (–T/2, T/2), entonces xT(t) tiene energía finita y tiene una transformada apropiada de Fourier XT(f). Así, se puede definir entonces la PSD de una señal no-peródica x(t) en el límite como (2.102) S x ( f ) = lim T →∞ La cantidad Sx(f) es la densidad espectral de energía de la señal x(t). Por lo tanto, de la ecuación (2.101), la energía total de x(t) se puede expresar como, ∞ E s = ∫ S x ( f )df . (2.103) −∞ (2.107) 1 2 XT ( f ) . T (2.108) Por otro lado, como una señal con potencia promedio distinta de cero no es cuadrado-integrable, la transformada de Fourier no existe; pero el teorema de Wiener-Khinchin provee una alternativa: la PSD es la transformada de Fourier de la función de autocorrelación de la señal si la señal se puede tratar como un proceso aleatorio estacionario en sentido amplio. La ESD es simétrica en la frecuencia alrededor del origen, por lo que 2.13 Autocorrelación de Señales de Energía y de Potencia ∞ E x = 2 ∫ S x ( f )df . (2.104) 0 2.12.2 Densidad Espectral de Potencia Las definiciones anteriores de ESD requieren que existan las transformadas de Fourier de las señales, esto es, que las señales sean cuadrado-integrables. Por eso, una alternativa más útil es la densidad espectral de potencia, la cual describe como la potencia de una señal o de una serie en el tiempo se distribuye con la frecuencia. El término potencia se refiere a potencia física real, o la mayoría de las veces, puede definirse como el cuadrado del valor de la señal, como el valor de potencia real si la señal fuese un voltaje aplicado a una carga de 1-ohmio. La potencia promedio Px de una señal de potencia de valor real s(t) se define por la ecuación (2.2). Si x(t) es una señal periódica con periodo T0, ésta se clasifica como una señal de potencia. Aplicando el teorema de Parseval a una señal periódica de valor real, la potencia promedio de la señal x(t) está dada por Px = 1 T0 T0 ∞ 2 2 ∫ x (t )dt = ∑ c n 2 . (2.105) n = −∞ −T0 2 Como se indicó en la Sección 2.6, la autocorrelación es un proceso de búsqueda de coincidencia, y se refiere a la coincidencia de una señal con una versión retrasada de sí misma. Para señales de energía x(t) de valor real, la autocorrelación está dada por la ecuación (2.29), que se vuelve a repetir a continuación por conveniencia. R x (τ ) ≡ Sx ( f )= ∞ ∑c 2 n δ ( f − nf 0 ) . (2.106) ∫ x(t )x(t + τ )dt −∞ <τ < ∞ . (2.109) La función de autocorrelación Rx(τ) provee una medida de que tanto la señal coincide con una copia de sí misma que está desplazada τ unidades de tiempo. Note que Rx(τ) no es una función del tiempo, es solamente una función de la diferencia de tiempo τ entre la forma de onda y su copia retrasada. La función de autocorrelación Rx(τ) de una señal de energía de valor real tiene las siguientes propiedades: i. ii. iii. iv. donde los términos |cn| son los coeficientes complejos de la serie de Fourier de la señal periódica. La función de densidad espectral de potencia (PSD – power spectral density) medida en [W/Hz] de una señal periódica x(t) es una función real, par y no-negativa de la frecuencia que indica la distribución de la potencia de x(t) en el dominio de la frecuencia, y esta definida como ∞ −∞ Rx(τ) = Rx(-τ) Rx(τ) ≤ Rx(0) ∀ τ Rx(τ) ↔ Sx(f) R x (0 ) = ∫ x 2 (t )dt ∞ −∞ es simétrica en τ alrededor de cero el máximo valor ocurre en el origen la autocorrelación y la ESD forman un par de transformadas de Fourier. el valor en el origen es igual a la energía de la señal Si las propiedades de i, ii y iii se satisfacen, Rx(τ) satisface las propiedades de una función de autocorrelación. La propiedad iv se puede derivar de la propiedad iii y no es necesario incluirla en una prueba básica para verificar si una función puede o no, ser una función de autocorrelación. La función de autocorrelación de una señal de potencia x(t) de valor real está definida como n = −∞ IMPORTANTE: Se ha utilizado el mismo símbolo Sx(f) para la PSD y la ESD ya que ambas son densidades y sus definiciones son similares, diferenciándose en base a la naturaleza de la señal, si esta es de potencia o de energía, lo que debe estar claro en el contexto o situación particular en que se usen. R x (τ ) = lim T0 →∞ 1 T0 T0 2 ∫ x(t )x(t + τ )dt − T0 − ∞ <τ < ∞ . (2.110) 2 Cuando la señal de potencia x(t) es periódica con periodo T0, el promedio en el tiempo en la ecuación (2.108) se puede tomar sobre un único periodo T0, y la función de autocorrelación se puede expresar como 2. Señales y Espectros 53 1 R x (τ ) = T0 T0 La señal x(t) es una señal de energía, cuya energía promedio, se puede determinar a partir de la función de autocorrelación, 2 ∫ x(t )x(t + τ )dt − T0 54 − ∞ <τ < ∞ . (2.111) Rx(0) = 1. 2 ■ La función de autocorrelación Rx(τ) de una señal periódica de valor real tiene las siguientes propiedades, similares a las de una señal de energía: i. ii. iii. iv. Rx(τ) = Rx(-τ) Rx(τ) ≤ Rx(0) ∀ τ Rx(τ) ↔ Sx(f) R x (0) = 1 T0 T0 es simétrica en τ alrededor de cero el máximo valor ocurre en el origen la autocorrelación y la PSD forman un par de transformadas de Fourier. 2.14 Señal Modulada Considere la propiedad de corrimiento en la frecuencia, x(t ) exp( j 2πf 0 t ) 2 2 ∫ x (t )dt el valor en el origen es igual a la potencia promedio de la señal −T0 2 ↔ X ( f − f0 ) . Esta propiedad indica que la multiplicación de una señal por un factor exp(j2πf0t) produce el corrimiento del espectro de la señal por f = f0. Si cambia f0 por –f0 en la ecuación anterior se obtiene, Ejemplo 2.12 (propiedades de la función de autocorrelación) Dada la siguiente función x(τ), determine si tiene las propiedades de una función de autocorrelación. Si x(τ) resulta ser una función de autocorrelación, entonces, determine la señal x(t), si la misma es de energía o de potencia, y calcule su energía o potencia promedio. x(τ) = 1 – |τ| para –1 ≤ τ ≤ +1, 0 de lo contrario. x(t ) exp(− j 2πf 0 t ) X ( f + f0 ). En la práctica, no se puede generar la función exp(j2πf0t) (no es una función real), por lo que el corrimiento de frecuencia se logra multiplicando la señal x(t) por una señal sinusoidal. Considere el producto de una señal x(t) y una señal cosω0t. Aplicando la identidad de Euler se puede verificar que, Solución: La siguiente figura muestra la señal x(τ). x (t ) cos (2πf 0 t ) = 1 1 [x(t ) exp ( j 2πf 0 t ) + x(t ) exp (− j 2πf 0 t )] 2 (2.112) y aplicando la propiedad de corrimiento en la frecuencia se obtiene, 0.8 x (t ) cos (2πf 0 t ) 0.6 ↔ 1 [X ( f − f 0 ) + X ( f + f 0 )] . 2 (2.113) Esto muestra claramente que la multiplicación de una señal x(t) por una señal sinusoidal de frecuencia f0 desplaza el espectro X(f) por ±f0. 0.4 0.2 0 -2 ↔ -1.5 -1 -0.5 0 0.5 1 1.5 2 Figura 2.22: Función x(τ) del Ejemplo 2.11. De la figura se puede verificar que la función x(τ) es simétrica en τ alrededor de cero, x(τ) = x(-τ), y que el máximo valor ocurre en el origen, x(τ) ≤ x(0) ∀ τ. La transformada de Fourier de x(τ) está dada por x(τ ) = ∆(τ / 2 ) Si se utiliza una portadora cos(ω0 t + θ0) en lugar de cosω0t, se puede cambiar la fase de cada componente espectral de una señal modulada por la cantidad constante θ0. La modulación resulta muy importante porque permite mover el espectro de una señal. Esto puede ser necesario: • 2 sinc 2 (2 f ) , la cual es una función no-negativa. ↔ La multiplicación de un cosω0t por x(t) resulta en la modulación de la amplitud de la señal sinusoidal. Este tipo de modulación se denomina modulación de amplitud y se estudiará en detalle en el Capítulo 4. La señal sinusoidal cosω0t se llama portadora, la señal x(t) es la señal moduladora, y la señal x(t) cosω0t es la señal modulada. De lo anterior, queda verificado que la función x(τ) satisface las propiedades de una función de autocorrelación. Así, tenemos que x(τ) = Rx(τ). • si varias señales, que ocupan la misma banda de frecuencia, se quieren transmitir simultáneamente sobre el mismo medio de transmisión. para la radiación efectiva de señales de audio (baja frecuencia – gran longitud de onda) por medio de un enlace de radio. Recuerde que el tamaño de la antena debe estar en el orden de la longitud de onda de la señal radiada, por lo que es conveniente cambiar el espectro de la señal original a una alta frecuencia (pequeña longitud de onda). A partir de la transformada de Rx(τ) que ahora sabemos que corresponde a la densidad espectral de una señal x(t), se puede determinar la señal por medio de la transformada inversa de Fourier, 2sinc (2 f ) = X ( f ) 2 2 → X ( f ) = 2 sinc(2 f ) ↔ x(t ) = ⎛t⎞ rect ⎜ ⎟ . ⎝2⎠ 2 1 Ejemplo 2.13 (modulación de amplitud) Considere la modulación de amplitud de una portadora c(t) con amplitud 1 y frecuencia 10 Hz, por un pulso rectangular m(t) de amplitud 1 y duración 0.5 segundos. Determine las expresiones en el dominio del tiempo y de la frecuencia de la señal modulada, y grafique todas las señales y sus espectros. 2. Señales y Espectros 55 El espectro de esta señal resultante está centrado en ±f0 y tiene un ancho de banda de 2B Hz. Es muy importante que note que a pesar de que los espectros de magnitud de ambas componentes xc(t) cos(ω0 t) y xs(t) sin(ω0 t) son simétricos alrededor de ±f0, el espectro de magnitud de su suma, x(t), no es necesariamente simétrico alrededor de ±f0. Esto se debe a que las amplitudes de las dos señales no se suman directamente debido a sus fases, i.e., Solución: A continuación se indican las señales involucradas en el proceso de modulación y sus transformadas de Fourier, c(t ) = cos(20πt ) Señal portadora ↔ C( f ) = 56 1 [δ ( f − 10) + δ ( f + 10)] , 2 a1e jθ + a2 e jθ ≠ (a1 + a2 )e j (θ +θ ) . 1 Señal moduladora Señal modulada 1 ⎛ f ⎞ m(t ) = rect (2t ) ↔ M ( f ) = sinc⎜ ⎟ , 2 ⎝2⎠ 1 s (t ) = m(t )c(t ) = rect (2t ) cos(20πt ) ↔ S ( f ) = {sinc[ 21 ( f − 10 )] + sinc[ 12 ( f + 10 )]}, 4 2 1 2 La señal pasa-banda x(t), también se puede expresar (aplicando una identidad trigonométrica) como x (t ) = E (t ) cos [ω0t + ϕ (t )] , (2.115) donde E (t ) = x c2 (t ) + x s2 (t ) Señales y sus espectros de amplitud ⎡ x s (t ) ⎤ . ⎥ ⎣ x c (t ) ⎦ ϕ (t ) = tan −1 ⎢ (2.116) Observe que tanto E(t) como ϕ(t) son señales pasa-bajas, ya que xc(t) y xs(t) son señales pasa-bajas, y que la señal pasa-banda x(t) aparece como una señal sinusoidal cuya amplitud varía lentamente en el tiempo y cuya frecuencia oscila lentamente con el tiempo alrededor de f0. La siguiente figura ilustra las definiciones de anchos de banda de una señal o un sistema: (a) pasa-bajas o banda-base con ancho de banda de B Hz, y (b) pasa-banda con ancho de banda 2B Hz. Señal Pasa-Bajas Equivalente de una Señal Pasa-Banda Con respecto a una señal pasa-banda cualquiera x(t) podemos definir la señal analítica z(t), cuya representación en el dominio del tiempo y de la frecuencia está dada por z (t ) = x(t ) + jx h (t ) ↔ Z ( f ) = 2 X ( f )u ( f ) (2.117) donde xh(t) denota la transformada de Hilbert de x(t) definida, en el dominio del tiempo y de la frecuencia, como x h (t ) = x(t ) ∗ 1 πt ↔ X h ( f ) = − jX ( f ) sgn ( f ) . (2.118) La señal pasa-bajas equivalente de la señal x(t), denotada xLP(t), se expresa en términos de z(t) como Figura 2.23: Modulación de amplitud, señales y espectros. Observe que el espectro de la señal original m(t), señal pasa-bajas (espectro a bajas frecuencias), se trasladó a la frecuencia de la portadora, resultando una señal pasa-banda con un ancho de banda que es el doble del ancho de banda de la señal moduladora. xLP (t ) = z (t )exp(− j 2πf 0t ) . (2.119) ⎧ x(t ) = Re{x LP (t ) exp(2πf 0 t )} ⎨ ⎩ x h (t ) = Im{x LP (t ) exp(2πf 0 t )} (2.120) De esta relación se tiene ■ En el dominio de la frecuencia, tenemos 2.15 Señales Pasa-banda Las fuentes de información generalmente producen señales (voz, audio, datos, etc.) pasa-bajas (llamadas banda-base), por lo que se pueden tener dos señales pasa-bajas que ocupen la misma banda. En este sentido, sean las señales pasabajas xc(t) y xs(t), ambas con ancho de banda B Hz. Ahora, considere que estas señales se multiplican por cos(ω0 t) y sin(ω0 t), respectivamente. Note que las señales resultantes xc(t) cos(ω0 t) y xs(t) sin(ω0 t) serán ambas, señales pasabanda, ocuparán la misma banda, y tendrán también igual ancho de banda, 2B Hz (ver Ejemplo 2.12). Si aplicamos el principio de linealidad se obtiene una señal pasa-banda general x(t), x(t ) = x c (t ) cos ω 0 t − x s (t ) sin ω 0 t . (2.114) X LP ( f ) = Z ( f + f 0 ) = 2 X ( f + f 0 )u ( f + f 0 ) = X ( f − f 0 ) + X ∗ (− f − f 0 ) (2.121) 2. Señales y Espectros 57 58 Ejemplo 2.14 (señal pasa-bajas equivalente de una señal pasa-banda) Sea x(t) una señal pasa-banda dada por x(t ) = rect (10t ) cos(400πt ) . a. b. c. d. Grafique la señal y su espectro. Determine la señal pasa-bajas equivalente y grafique su espectro de magnitud. Grafique las componentes en-fase y en-cuadratura de la señal. Grafique la envolvente de la señal. Solución: Las gráficas se obtendrán usando MATLAB. a. Espectro de la señal: aplicando la transformada de Fourier (Tabla 2.1) se tiene x(t ) = rect (10t ) cos(400πt ) b. S( f ) = ↔ 1 {sinc[12 ( f − 200)] + sinc[12 ( f + 200)]} 20 Para determinar la señal pasa-bajas equivalente se necesita la transformada de Hilbert de la señal x(t), la cual está dada por (ver Tabla A1.5), x h (t ) = rect (10t )sin (2πf c t ) . Ahora se puede calcular la envolvente y la fase de la señal pasa-bajas equivalente, ecuación (2.123), E (t ) = rect 2 (10t ) cos 2 (400πt ) + rect 2 (10t )sin 2 (400πt ) = rect (10t ) Figura 2.24: Señal o sistema (a) pasa-bajas, y (b) pasa-banda. ⎡ rect (10t ) sin (400πt ) ⎤ ⎥ − 400πt = 0 ⎣ rect (10t ) cos(400πt ) ⎦ ϕ (t ) = tan −1 ⎢ La señal pasa-bajas equivalente de una señal pasa-banda real es, en general, una señal compleja. Su parte real, denotada por xc(t), es llamada componente en-fase de x(t), y su parte imaginaria denotada por xs(t), es llamada componente en-cuadratura de x(t) – ver ecuación (2.114). Así, la señal pasa-bajas equivalente se puede expresar, en función de las componentes en-fase y en-cuadratura, como x LP (t ) = x c (t ) + jx s (t ) , de lo que se tiene que la señal pasa-bajas equivalente es x LP (t ) = rect (10t ) . (2.122) c. Las componentes en fase y en cuadratura de la señal pasa-bajas equivalente están dadas por, y las señales pasa-banda y su transformada de Hilbert, como ⎧ x(t ) = x c (t ) cos(2πf 0 t ) − x s (t ) sin (2πf 0 t ) ⎨ ⎩ x h (t ) = x s (t ) cos(2πf 0 t ) + x c (t ) sin (2πf 0 t ) En MATLAB se dispone de la función hilbert.m, la cual genera la señal analítica z(t), cuya parte real es x(t) y cuya parte imaginaria es la transformada de Hilbert de x(t). A continuación, se muestra un script en MATLAB para graficar las señales deseadas, las cuales se muestran en la Figura 2.25. La señal pasa-bajas equivalente, en forma polar, se expresa como x LP (t ) = E (t ) exp( jϕ (t )) , (2.122) donde E(t) y ϕ(t) son la envolvente y la fase, respectivamente, de la señal x(t) – ecuación (2.115). La envolvente y la fase se pueden expresar como en la ecuación (2.116), o en forma equivalente, como E (t ) = x (t ) + x (t ) 2 2 h . ⎡ x h (t ) ⎤ ⎥ − 2πf 0 t ⎣⎢ x (t ) ⎦⎥ ϕ (t ) = tan −1 ⎢ La envolvente es independiente del valor de f0, mientras que la fase sí depende de f0. ⎧ x c (t ) = rec(10t ) ⎨ ⎩ x s (t ) = 0 (2.123) (2.123) NOTA: los espectros se obtiene usando la Transformada rápida de Fourier con la función fft, la cual se explica en la Sección 2.17.3 y en el Anexo D. % Señal banda-base equivalente de una señal pasa-banda clear;clc; tf = 0.15; dt=0.0001; fc=200; Fs=1/dt; t=-tf:dt:tf; x=((-0.05 < t) & (t < 0.05)).*cos(2*pi*fc*t); z=hilbert(x); xLP=z.*exp(-j*2*pi*fc.*t); %señal pasa-banda % señal analítica %señal pasa-bajas equivalente 2. Señales y Espectros 59 xc=real(xLP); xs=imag(xLP); env=abs(xLP); fase=unwrap(angle(xLP)); %componente en-fase %componentes en-cuadratura %envolvente %fase 60 Componente en-fase Componente en-cuadratura 1 0.8 0.6 0.8 %espectros N = round(tf/dt); NFFT=2^(ceil(log2(N))); f=(Fs/2)*linspace(-1,1,NFFT); X=fft(x,NFFT)/NFFT; XLP=fft(xLP,NFFT)/NFFT; 0.4 % % % % Número de puntos para la FFT Vector de frecuencias en Hz Señal pasa-banda Señal banda-base equivalente 0.6 0.2 0.4 -0.2 0 -0.4 %gráficas figure(1) subplot(1,2,1);plot(t,x);grid;axis([-tf tf min(x) max(x)]);xlabel('t [seg]'); subplot(1,2,2);plot(f,fftshift(abs(X)));grid;axis([-350 350 0 max(abs(X))]); xlabel('f [Hz]'); 0.2 -0.6 -0.8 0 -0.1 figure(4) subplot(1,2,1);plot(t,env);grid;axis([-tf tf min(env) max(env)]);xlabel('t [seg]'); subplot(1,2,2);plot(t,fase);grid;axis([-tf tf min(fase) max(fase)]);xlabel('t [seg]'); 0 0.05 0.1 0.15 -0.1 -0.05 0 t [seg] figure(2) subplot(1,2,1);plot(t,xLP);grid;axis([-tf tf min(xLP) max(xLP)]);xlabel('t [seg]'); subplot(1,2,2);plot(f,fftshift(abs(XLP)));grid;axis([-350 350 0 max(abs(XLP))]);xlabel('f [Hz]'); figure(3) subplot(1,2,1);plot(t,xc);grid;axis([-tf tf min(xc) max(xc)]);xlabel('t [seg]'); subplot(1,2,2);plot(t,xs);grid;axis([-tf tf min(xs) max(xs)]);xlabel('t [seg]'); -0.05 0.05 0.1 0.15 t [seg] Envolvente Fase 1.2 3500 1 3000 2500 0.8 2000 0.6 Señal pasa banda x(t) 1500 Espectro de amplitud X(f) 0.4 1 1000 0.2 0.2 500 0.5 -0.1 0.15 -0.05 0 0.05 0.1 t [seg] 0.15 -0.1 -0.05 0 0.05 0.1 0.15 t [seg] 0 Figura 2.25: Señal pasa-banda x(t), señal pasa-bajas equivalente xLP(t), componentes en-fase xc(t) y en-cuadratura xs(t), envolvente E(t) y fase ϕ(t). 0.1 -0.5 -1 ■ 0.05 -0.1 -0.05 0 0.05 0.1 0.15 0 -300 -200 -100 t [seg] 0 100 200 300 f [Hz] El ancho de banda de una señal es un concepto de gran importancia en los sistemas de comunicación. El término se refiere al ancho espectral de una señal medido en hertz, es decir, a la diferencia numérica entre las frecuencias superior f2 e inferior f1 de una banda de radiación electromagnética en el que está contenido el espectro de la señal, i.e., f2 – f1, donde f2 > f1 ≥ 0. Espectro de Amplitud |XLP(f)| Señal pasa bajas equivalente xLP(t) 0.8 0.4 0.6 0.3 0.4 0.2 0.2 0.1 0 0 2.16 Ancho de Banda de Señales Existen varias definiciones en ingeniería de comunicaciones para ancho de banda, y cuando se trabaja con varias señales y ruido, es importante utilizar la misma definición para todas las señales de forma que se puedan comparar efectivamente sus anchos espectrales. La definición general dada anteriormente corresponde a señales reales, es decir, se mide para frecuencias positivas. A continuación se indican algunas de las definiciones más utilizadas de ancho de banda. -0.1 -0.05 0 t [seg] 0.05 0.1 0.15 Ancho de banda absoluto: corresponde al tamaño del intervalo de frecuencias f1 < f < f2 que contiene todo el espectro de la señal, es decir, f2 – f1, donde el espectro es cero fuera del intervalo f1 < f < f2. -300 -200 -100 0 f [Hz] 100 200 300 Ancho de banda esencial: es el ancho del intervalo de frecuencias f1 < f < f2 que contiene el 95% de la energía de la señal. 2. Señales y Espectros 61 Ancho de banda de media potencia o 3 dB: es el ancho del intervalo de frecuencias f1 < f < f2, donde el espectro de magnitud |H(f)| es mayor o igual a 1/√2 del valor máximo de |H(f)| que ocurre a una frecuencia dentro de la banda considerada. Ancho de banda de ruido equivalente: es el ancho de un espectro rectangular con ancho y amplitud tales que la potencia en esa banda rectangular es igual a la potencia asociada con el espectro real de la señal (a frecuencias positivas). Para esto, se considera la densidad espectral de potencia que es proporcional al cuadrado de la magnitud del espectro. Sea f0 la frecuencia a la que el espectro de magnitud |H(f)| de la señal es máximo, entonces la potencia de una banda rectangular con ancho Beq sería proporcional a Peq = Beq H ( f 0 ) 2 62 de 99% de potencia (sugerencia: utilice métodos numéricos), ancho de banda más allá del cual la atenuación es 35 dB. Solución: a. Espectro de la señal ⎛t ⎞ rect ⎜ ⎟ exp( j2πf c t ) ⎝T ⎠ ( ⎛ t ⎞ rect ⎜ − 4 ⎟ exp j2πf10 6 t ⎝ 10 ⎠ Tsinc[T ( f − f c )] ↔ ) [ ( )] ⎧ sin π × 10 − 4 f − 10 6 ⎫ 10 -4 ⎨ ⎬ −4 6 ⎩ π × 10 f − 10 ⎭ ↔ ( ) (2.124) b. Gráficas de la señal x(t) y su espectro de magnitud normalizado. mientras que la potencia real de la señal considerando las frecuencias positivas es proporcional a ∞ Preal = ∫ H ( f ) df 2 (2.125) 0 por lo que igualando ambas ecuaciones resulta que el ancho de banda de ruido equivalente Beq está dado por Beq = ∞ 1 H ( f0 ) 2 ∫ H(f ) 2 (3.126) df 0 Ancho de banda nulo a nulo, también llamado ancho de banda de cruce por cero: cuando el espectro de una señal es simétrico con un lóbulo principal (e.g., función sinc) determinado claramente por nulos (i.e., frecuencias a las cuales el espectro es cero), se utiliza el ancho del lóbulo principal como el ancho de banda de la señal. Esto es así, porque el lóbulo principal contiene una porción significativa de la energía de la señal. Para señales banda-base, el ancho de banda se define como la mitad del ancho total del lóbulo principal (ya que sólo la mitad del lóbulo yace en las frecuencias positivas). En sistemas pasa-banda, donde lóbulo principal está centrado alrededor de f0, y los nulos ocurren en f1 y f2, para f1 < f0 < f2, el ancho de banda corresponde al tamaño del intervalo definido por f2 – f1. Ancho de banda del espectro acotado: corresponde al tamaño f2 – f1, de un intervalo de frecuencias f1 < f < f2, donde fuera de esa banda de frecuencias, la densidad espectral de potencia, que es proporcional a |H(f)|2, se reduce por lo menos una cantidad, digamos 50dB (60dB, 70dB, ...), por debajo de su valor máximo. Ancho de banda de potencia: corresponde al tamaño f2 – f1, del intervalo de frecuencias f1 < f < f2, en el cual reside el 99% (95%, 90%, …) de la potencia total de la señal. El término ancho de banda tiene otro significado asociado en computación o transmisión de datos, en el cual el término se refiere a la razón de transferencia de datos, o razón de bit, y está medido en bits por segundo (bps). La relación del término existe porque para aumentar la velocidad de transmisión de un sistema que utiliza señales de pulso (para representar bits), se debe reducir la duración T de los mismos y por consiguiente, se aumenta o expande su correspondiente espectro (ver Sección 2.11). Por lo tanto, la velocidad, que es función del inverso de la duración T de los pulsos, está asociada al ancho de banda espectral. Ejemplo 2.15 (anchos de banda) Sea la señal x(t), ( ) ⎛ t ⎞ x(t ) = rect ⎜ − 4 ⎟ exp j 2π 10 6 t . ⎝ 10 ⎠ a. b. c. Determine el espectro X(f). Grafique la señal x(t) y su espectro de magnitud. Determine el ancho de banda de la señal usando las siguientes definiciones: ancho de banda absoluto, ancho de banda de 3 dB, ancho de banda de ruido equivalente, ancho de banda de nulo a nulo, ancho de banda Figura 2.26: Señal x(t) y su espectro de magnitud normalizado. c. Anchos de banda de la señal x(t): i) Ancho de banda absoluto: para cualquier valor finito de prueba f, el espectro X(f) tiene un valor más allá de este, por lo que el ancho de banda absoluto es infinito. Note que la señal x(t) es una señal absolutamente limitada en el tiempo, por lo que resulta ser infinita en la frecuencia. ii) Ancho de banda de 3 dB o de media potencia: para señales pasa-banda el mismo corresponde a 2f3dB donde f3dB es la frecuencia a la cual la magnitud del espectro es igual a 1/√2 del valor máximo, o la densidad espectral de potencia normalizada de la señal es igual a 1/2 1 X ( f 3dB ) = 2 ( ) sin π × 10 −4 f 3dB 1 = π × 10 −4 f 3dB 2 → Entonces, el ancho de banda de 3dB es 8.92 kHz. f 3dB = 4.46 kHz 2. Señales y Espectros 63 64 1 iii) Ancho de banda de ruido equivalente: de la definición, ecuación (3.31), se tiene, ( ) 2 ⎡ sin π × 10 f ⎤ Beq = 2 ∫ ⎢ ⎥ df π × 10 −4 f ⎦ 0⎣ ∞ = = −4 ( (π × 10 ) −4 2 2 (π × 10 ) −4 2 ) ∫ ⎜⎜ ( ⎛ π π × 10 − 4 ⎜⎜ 2 ⎝ ) 10 3.5 k ≥ 17.4 2 ⎛ sin π × 10 − 4 f ⎞ ⎟⎟ df f 0⎝ ⎠ ∞ 2 ⎞ ⎟⎟ ⎠ Entonces se tiene que k = 18, es decir que el lóbulo lateral 18 satisface el criterio de atenuación de 35dB, y el punto de 35dB estará en la lado decreciente del lóbulo 17. Así, el ancho de banda de 35 dB es 2f0, donde f0 es la frecuencia mínima para la cual se cumple = 10 kHz π × 10 -4 f 0 > iv) Ancho de banda de nulo a nulo: corresponde a 2f0 donde f0 es la frecuencia donde el espectro se hace cero, sin π × 10 −4 f 0 = 0 → π × 10 − 4 f 0 = π π × 10 − 4 f 0 ( ) f 0 = 10 kHz Así, el ancho de banda de nulo a nulo es 20 kHz. De la Figura 2.25 se puede determinar este ancho de banda directamente. v) ancho de banda de 99% de potencia: corresponde a 2f0 donde f0 es la frecuencia donde la densidad de potencia normalizada es 0.995, ( ) ( ) 2 ⎡ sin π × 10 −4 f ⎤ ⎥ df −4 f ⎦ 0 ⎣ π × 10 = 0.995 2 ∞ −4 ⎡ sin π × 10 f ⎤ ∫ ⎢ π × 10 −4 f ⎥ df 0⎣ ⎦ f0 ∫⎢ ≤ 10 −3.5 [(π / 2)(2k + 1)]2 (π / 2)(2k + 1) ≥ Rutina en MATLAB para encontrar f0. S = @(f) (sinc(1e-4*f)).^2; Q = quadl(S,0,300e3); for i=100e3:1e3:300e3 Q99=quadl(F,0,i); if Q99 >= 0.995*Q break end end disp('Ancho de banda de 99% [Hz]') disp(2*i); >> Ancho de banda de 99% [Hz] 246000 >> El ancho de banda de 99% se aproxima a 246 kHz. vi) ancho de banda de 35dB: ya que sin2x es unitario para x = (π/2)(2k + 1), para k = 0, 1, …, el lóbulo más allá del cual el criterio de atenuación se satisface es el mínimo k para el cual π 2 (35) y ( ) 2 ⎡ sin π × 10 -4 f 0 ⎤ − 3 .5 ⎥ = 10 ⎢ -4 ⎣ π × 10 f 0 ⎦ Resolviendo la primera expresión se tiene f0 = 175×103. Partiendo de este valor en la segunda expresión, se encuentra, en forma iterativa, que f0 ≈ 175615 Hz. Así, el ancho de banda de 35dB es 351.23 kHz. ■ 2.17 Señales Discretas En las últimas décadas el campo del procesamiento de señales digitales (DSP – digital signal processing) ha crecido en importancia tanto teórica como tecnológica, y una de las principales razones de su éxito en la industria se debe al desarrollo y uso de software y hardware de alto rendimiento y bajo costo. Las nuevas tecnologías y aplicaciones toman ventaja de los algoritmos DSP, y casi todos los sistemas actuales utilizan procesamiento de señales digitales. Esto también se observa en la academia y la investigación, donde el uso de software interactivo, como MATLAB, posibilita hacer énfasis en el aprendizaje de conceptos nuevos y más complejos, en lugar de concentrarse en la programación de algoritmos. Aún cuando en la práctica, la mayoría de las señales son analógicas y continuas, las mismas se procesan usando hardware digital como microprocesadores, por su velocidad, capacidad de procesamiento y flexibilidad. Estos sistemas requieren del uso de señales digitales y discretas que representan a las señales continuas externas. Por esto, es de gran interés una discusión de los aspectos básicos sobre señales discretas. 2.17.1 Señales Discretas – Tipos, Representación y Operaciones Las señales se pueden clasificar en continuas y discretas en función de si la variable independiente tiempo es continua o discreta. Para las señales discretas, la variable tiempo toma solamente un conjunto discreto de valores. Para distinguir entre las señales continuas y las discretas usaremos el símbolo t para denotar la variable independiente, como se ha hecho hasta ahora, y n para indicar la variable independiente discreta. Además, para las señales continuas se encierra la variable independiente entre paréntesis (⋅), mientras que para señales discretas la encerraremos entre corchetes [⋅]. Con frecuencia también habrá ocasiones en que será útil representar la señal gráficamente, como aparece en la Figura 2.27, y es importante notar, que la señal discreta x[n] está definida sólo para valores enteros de la variable independiente, y por lo tanto, nos referimos a x[n] como una secuencia discreta. Una clase muy importante de señales discretas surge del muestreo de señales continuas. En este caso, la señal discreta x[n] representa muestras sucesivas de un fenómeno subyacente para el cual la variable independiente es continua. Sin importar el origen de los datos, la señal x[n] está definida solamente para valores enteros de n. Representación Las señales discretas x[n] se denotan de la siguiente forma: { } x[n] = {x[n]} = L , x[− 1], x[0], x[1], L donde el subrayado indica la muestra en n = 0. (2.127) 2. Señales y Espectros 65 66 Ejemplo 2.16 (señales discretas) Sea la señal continua x(t) = 2 sin(20π t) en el intervalo[-0.3,0.3]. Esta señal se muestrea a intervalos regulares de 0.02 segundos. Escriba la secuencia x[n] en el intervalo [0.0,0.1] y su correspondiente soporte. Grafique la señal continua, la señal muestreada y la señal discreta. Además, determine la energía total y la potencia promedio de la señal discreta. Solución: A continuación se muestra un script en MATLAB para solucionar el problema propuesto, pero se sugiere al lector que desarrolle la solución en forma analítica para comparar los resultados. f = 10; T = 1/f; dt=T/100; t=-3*T:dt:3*T; Ts = 0.02; % % % % % frecuencia en Hz periodo en segundos intervalo entre muestras para simular tiempo continuo vector de tiempo en el intervalo [-0.3,0.3]; periodo de muestreo x =2*sin(2*f*pi*t); xn=x(1:Ts/dt:end); tn=t(1:Ts/dt:end); n =t(1)/Ts:t(end)/Ts; En MATLAB sólo se pueden representar secuencias finitas. Esto se puede hacer por medio de un vector fila de valores apropiados. Sin embargo, dicho vector no tiene información sobre la posición n de la muestra. Por lo tanto, una representación de x[n] requiere dos vectores, uno para los valores de las muestras x[n] y otro para las posiciones n de las muestras. El vector de n se denomina soporte de x[n]. A continuación se tratan varios de los conceptos discutidos a lo largo de este capítulo pero ahora, con relación a señales discretas. Señales de Energía y de Potencia De manera similar a las expresiones de energía y potencia promedio normalizadas dadas por las ecuaciones (2.1) y (2.2) para señales continuas, se tiene que la energía total y la potencia total promedio de una señal discreta x[n] en el intervalo de tiempo infinito están dadas, respectivamente, por +N N →∞ ∑ x[n] 2 señal continua (simulada / alta frecuencia de muestreo) señal muestreada cada Ts segundos vector tiempo discreto vector n %%%%% Graficas %%%%% subplot(3,1,1) plot(t,x);grid;legend('x(t)'); subplot(3,1,2) stem(tn,xn);grid;legend('x(nTs)'); subplot(3,1,3) stem(n,xn);grid;legend('x[n]'); Figura 2.27: Representación gráfica de a) una señal continua y b) una señal discreta. E x = lim % % % % (2.128) % señal continua % señal muestreada % señal discreta %%%%% señal discreta y soporte en el intervalo [0.0,0.1] i1 = find(tn==0); % índice correspondiente a tn = 0.0 i2 = find((0.1-dt)< tn & tn <(0.1+dt)); % índice correspondiente a tn = 0.1 xni = xn(i1:i2); % secuencia discreta ni = n(i1:i2); % soporte correspondiente disp(' ') disp('Secuencia discreta x[n] y vector soporte n correspondientes al intervalo [0.0,0.1]'); disp(' '); disp([xni;ni]) %%%%% Energia y Potencia promedio %%%%% Ex = sum(abs(xn).^2); N = n(end)-n(1)+1; Px = Ex/N; fprintf('\nEnergía total fprintf('\nPotencia promedio %.2f\n',Ex); %.2f\n',Px); n =− N >> Secuencia discreta x[n] y vector soporte n correspondientes al intervalo [0.0,0.1] y +N 1 2 ∑ x[n] N →∞ 2 N + 1 n=− N Px = lim 0 0 (2.129) Para el caso de señales discretas definidas en un intervalo de tiempo finito, n1 ≤ n ≤ n2 , la energía total y la potencia total promedio de la señal discreta x[n] se definen, respectivamente como Ex = n2 ∑ x[n] 2 1.9021 1.0000 Energía total Potencia promedio 1.1756 2.0000 -1.1756 3.0000 -1.9021 4.0000 0.0000 5.0000 60.00 1.94 La energía normalizada de la señal continua original está dada por el producto de la energía total de la señal discreta y el periodo de muestreo, esto es, E x = (Ts )(E x[n ] ) = (0.02 )(60.00 ) = 1.2 (2.130) n = n1 y 1 Px = N donde se usa la notación Ex para la energía normalizada de la señal continua y Ex[n] para la energía de la señal discreta. Calculando la energía de la señal continua directamente de la función x(t) se tiene n2 ∑ x[n] n = n1 donde N es el número de puntos en el intervalo, N = n2 – n1 + 1. 2 (2.131) Ex = 0.3 ∫ (2 sin 20πt ) − 0.3 2 dt = 4 ∫ (sin 3T −3T 2 ) 20πt dt = (4)(6) (0.1) = 1.2 2 2. Señales y Espectros 67 68 Señales par e impar Una señal x[n] es par si y se considera impar si x[− n] = x[n] (2.133) x[− n] = − x[n] (2.134) Una señal impar debe ser necesariamente 0 en n = 0. Señales discretas exponencial compleja y sinusoidal La señal discreta o secuencia exponencial compleja está definida por x[n] = Cα n (2.135) donde C y α son, en general, números complejos. Esto puede expresarse de forma alterna como x[n] = C exp(βn ) (2.136) donde α = exp(β). Si C y α son reales, se tendrán señales exponenciales reales. Considere la ecuación (2.126), si forzamos a que β sea puramente imaginaria (de manera que ⏐α⏐ = 1), para C = 1, se tiene x[n] = exp jω0 n (2.137) ( ) Figura 2.28: Señal continua, muestreada y discreta del Ejemplo 2.13 ■ Operaciones Las transformaciones de una señal por medio de la operaciones de desplazamiento en el tiempo, cambio de escala del tiempo, e inversión en el tiempo son muy importantes. Para una señal discreta x[n], éstas corresponden a: Desplazamiento en el tiempo: A partir de x[n] se tiene que la señal x[n – n0] corresponde a la señal original desplazada n0 posiciones. Si n0 es positivo, el desplazamiento corresponde a un retraso de la señal; y si es negativo, a un adelanto de la señal. Cambio de escala en el tiempo: Al igual que para señales continuas, se puede utilizar un factor a para cambiar la escala en tiempo de la secuencia original x[n]. Cuando a > 1, se tiene x[an], una versión comprimida de la señal original, y cuando 0 < a < 1, se tiene una versión expandida de la señal original. Es importante, en ambos casos, notar que habrá valores de n desaparecen o no se consideran en la señal final debido a que n tiene que ser un entero. Así, por ejemplo, si se usa un factor a = 0.5, entonces sólo aquellos valores an que resulten enteros se considerarán en la secuencia final. Inversión en el tiempo: Sea x[n] una secuencia discreta, entonces x[–n] corresponde a la secuencia original invertida, que se obtiene a partir de x[n] mediante un reflejo respecto a n = 0. Señales Periódicas Una señal discreta x[n] es periódica con periodo N, donde N es un entero positivo, si no cambia con un corrimiento de tiempo de N, esto es, x[n] = x[n + N ] (2.132) para todos los valores de n. El periodo fundamental N0 es el valor positivo más pequeño de N para el cual la ecuación (2.132) se satisface. Aplicando la relación de Euler, se tiene ( ) ( ) ( ) x[n] = exp jω0 n = cos ω0 n + j sin ω0 n , y ( ) A cos ω0 n + φ = (2.138) A [exp( jφ )exp( jω0 n ) + exp(− jφ )exp(− jω0 n )] . 2 (2.139) Las señales de las ecuaciones (2.137) y (2.139) son ejemplos de señales discretas con energía total infinita pero potencia promedio finita. La secuencia exponencial compleja general está dada por x[n] = Cα n = C α cos(ω 0 n + θ ) + j C α sin (ω 0 n + θ ) . n n (2.140) Periodicidad de exponenciales discretas Considere la exponencial compleja discreta con frecuencia ω0 + 2π, [( )] ( ) ( ) exp j ω 0 + 2π n = exp( j 2πn ) exp jω 0 n = exp jω 0 n . (2.141) De esta ecuación vemos que la exponencial con frecuencia ω0 + 2π es la misma que aquella con frecuencia ω0. De esta manera, se tiene una situación muy diferente al caso continuo, en el que las señales exp(jω0t) son todas distintas para distintos valores de ω0. En el caso discreto, estas señales no son todas diferentes, ya que la señal con frecuencia ω0 es idéntica a las señales con frecuencias ω0 ± 2π, ω0 ± 4π, … Por lo tanto, al considerar las exponenciales complejas, necesitamos tomar en cuenta solamente un intervalo de frecuencia de longitud 2π dentro del cual se escoge ω0. En la práctica, se usa el intervalo 0 ≤ ω0 < 2π, o el intervalo –π ≤ ω0 < π. Debido a la periodicidad que implica la ecuación (2.141) la señal exp(jω0n) no tiene un incremento continuo en la velocidad de oscilación conforme ω0 se incremente en magnitud. A medida que ω0 se incrementa a partir de 0, se obtienen señales que oscilan cada vez más rápido hasta alcanzar ω0 = π. Si se sigue incrementando ω0 , la velocidad de oscilación disminuye hasta alcanzar ω0 = 2π, y así sucesivamente. 2. Señales y Espectros 69 Ahora, considere la señal periódica exp(jω0n) con periodo N > 0, [ ] ( ) ( Y al igual que en el caso continuo, se tiene ) ( ) exp jω0 (n + N ) = exp jω0 n exp jω0 N = exp jω0 n . de lo que se tiene que 70 exp(jω0N) = 1. (2.143) Para que se cumpla la ecuación (2.143), ω0N debe ser múltiplo de 2π. Esto es, debe haber un entero m tal que ω0N = 2πm, (2.144) ω0 m = . 2π N (2.145) o, en forma equivalente, De acuerdo a la ecuación (2.145), la señal exp(jω0n) es periódica si ω0/2π es un número racional y es no periódica en otras circunstancias. Estas mismas observaciones también son válidas para señales sinusoidales discretas. Función impulso unitario La señal impulso unitario o muestra unitaria está definida como ⎧1, n = 0 ⎩0 n ≠ 0 δ [n] = ⎨ Rxy [n] = x[n] ∗ y[− n] (2.142) (2.146) 2.17.3 Transformada Discreta de Fourier Con todo lo estudiado en el Capítulo 2 sobre espectros de señales, queda claro la importancia de la transformada de Fourier como herramienta teórica para representar señales determinísticas. Más aún, la existencia de una clase de algoritmos llamados algoritmos de la transformada rápida de Fourier que permiten el cálculo numérico eficiente de la transformada de Fourier, resalta la importancia de la misma. El algoritmo de la transformada rápida de Fourier se deriva de la transformada discreta de Fourier, que como su nombre implica, considera una representación discreta tanto del tiempo como de la frecuencia. Esta transformada discreta provee una aproximación a la transformada de Fourier. Para representar apropiadamente el contenido de información de una señal, se debe poner especial atención a las operaciones de muestreo involucradas en la transformación discreta de Fourier. Como se verá en Capítulo 3, en la Sección 3.4, para una señal de banda limitada (ver Sección 2.11), la razón de muestreo debe ser mayor que dos veces la máxima frecuencia de la señal para poder recuperar la señal original a partir de sus muestras. Si las muestras de la señal están espaciadas uniformemente por Ts segundos, entonces el espectro de la señal será periódico y se repetirá cada fs = 1/Ts Hz. Ahora, sea N el número de muestras de frecuencia contenidas en un intervalo fs. Entonces, la resolución de frecuencia ∆f para el cálculo numérico de la transformada de Fourier se define por Función escalón unitario La señal escalón unitario discreto está definida como ⎧1, n ≥ 0 u[n] = ⎨ ⎩0 n < 0 ∆f = (2.147) x[n] = x(nTs ) (2.149) y la misma se puede representar por medio de una secuencia finita de datos k =0 x[n] = {x[0], x[1], K , x[N − 1]} . Entonces, se define la transformada discreta de Fourier (DFT – Discrete Fourier Transform) de la secuencia x[n] como N −1 2π ⎞ ⎛ (2.155) X [k ] = ∑ x[n]exp⎜ − j kn ⎟, k = 0,1, K , N − 1 . N ⎝ ⎠ n =0 2.17.2 Funciones Discretas de Correlación y Operación de Convolución Sea x[n] una señal real discreta. La función de autocorrelación está dada por Rx [n] = +∞ ∑ x[k ]x[k − n] (2.150) k = −∞ La secuencia Ahora, considere otra señal s[n] también real discreta. La función de correlación cruzada está dada por Rxy [n] = +∞ ∑ x[k ]y[k − n] (2.154) Ahora, considere una señal analógica x(t) que se muestrea uniformemente con un intervalo Ts en los instantes t = 0, Ts, ..., (N – 1) Ts. La señal muestreada resultante x[n] de tiempo discreto corresponde a o, la sumatoria de la muestra unitaria u[n] = ∑ δ [n − k ] fs 1 1 = = N NTs T donde T = N Ts es la duración total de la señal. La relación entre el impulso unitario y el escalón unitario discreto es la primera diferencia del escalón discreto, esto es, δ [n] = u[n] − u[n − 1] (2.148) ∞ (2.153) X [k ] = {X [0], X [1],K, X [N − 1]} se denomina secuencia de la transformada, donde el índice k es el índice de frecuencia. (2.151) k = −∞ De forma similar, se define la transformada discreta inversa de Fourier (IDFT – Inverse Discrete Fourier Transform) de X[k] como La convolución de dos señales discretas está dada por x[n] ∗ y[n] = +∞ ∑ x[k ]y[n − k ] k = −∞ (2.152) x[n] = N −1 ⎛ 2π ⎞ kn ⎟, N ⎠ ∑ X [k ]exp⎜⎝ j k =0 n = 0,1, K , N − 1 . (2.156) 2. Señales y Espectros 71 La DFT y la IDFT forman un par de transformadas, es decir, dada una secuencia de datos xn, se puede utilizar la DFT para calcular la secuencia Xk, y dada la secuencia de la transformada X[k] se puede utilizar la IDFT para recuperar la secuencia de datos x[n] original. En la discusión sobre la DFT y sus algoritmos para implementarla, se utilizan los términos “muestra” y “punto” indistintamente para referirse a los valores de la secuencia. Así, una secuencia de longitud N se denomina secuencia de N puntos y su transformada, una DFT de N puntos. 72 ff=(Fs/2)*linspace(-1,1,NFFT); % factor 1/N para corrección de amplitud % Vector de frecuencias en Hz % Nota: La frecuencia máxima que aparece es Fs/2 %%%%%%%% Gráficas %%%%%%%% v=[-50 50 0 max(abs(Xd))]; subplot(2,1,1); plot(fd,abs(Xd));grid;axis(v);legend('X(f) - DFT') subplot(2,1,2); plot(ff-0.5,fftshift(abs(X)));grid;axis(v);legend('X(f) - FFT'); xlabel('f [Hz]'); Como se mencionó, el cálculo numérico de la DFT se realiza en forma eficiente por medio de una clase de algoritmos llamados algoritmos de la Transformada Rápida de Fourier (FFT – Fast Fourier Transform algorithms). Estos algoritmos son computacionalmente eficientes porque utilizan un número significativamente menor de operaciones aritméticas comparados con el cálculo directo, dado por la ecuación (2.142) de la DFT. Para esto, un algoritmo FFT divide los cálculos originales de la DFT en cálculos sucesivos más pequeños de DFTs. Estos algoritmos de FFT son altamente eficientes si la longitud de la secuencia de entrada, N, es una potencia de 2. En muchos casos, si la longitud N no es una potencia de 2, se utilizan ciertas técnicas, como la adición de ceros (zeropadding), para hacer que N sea una potencia de 2. Para una descripción más detallada de los algoritmos FFT puede consultar [PM96] [IJ93] entre otros. En MATLAB, la Transformada de Fourier para señales muestreadas se realiza por medio del algoritmo FFT en el caso en que el número de muestras sea una potencia de 2, de lo contrario se utiliza DFT. Ambos se obtienen utilizando el mismo comando, fft. Para un número pequeño de muestras N, el método utilizado es irrelevante, pero para N grande la diferencia en tiempo de computación puede ser significativa. La transformada inversa se realiza con el comando ifft que utiliza el mismo algoritmo que fft. Una descripción más detallada del uso de estas funciones en MATLAB aparece en el Anexo 4. Figura 2.29: Espectro de amplitud de la señal x(t). ■ Ejemplo 2.17 (DFT): Considere la señal continua x(t) del Ejemplo 2.14, x(t) = 2 sin(20π t) para -0.3 ≤ t ≤ 0.3. Esta señal se muestrea a intervalos regulares de 4 mili-segundos para obtener la señal discreta x[n]. A continuación se implementa en MATLAB un programa para calcular el espectro de la señal x(t) utilizando la DFT directamente y también usando el algoritmo FFT por medio de la función fft de MATLAB. Además, se grafican los espectros de amplitud resultantes de la DFT y la FFT. Solución: % Parámetros para la simulación f = 10; % frecuencia en Hz de la señal T = 1/f; % periodo en segundos dt=T/1000; % intervalo entre muestras para simular tiempo continuo t=-3*T:dt:3*T; Ts = 0.004; % vector de tiempo en el intervalo [-0.3,0.3]; % periodo de muestreo % Secuencia discreta x =2*sin(2*f*pi*t); xn=x(1:Ts/dt:end); tn=t(1:Ts/dt:end); n =t(1)/Ts:t(end)/Ts; % % % % señal continua (simulada / alta frecuencia de muestreo) señal muestreada cada Ts segundos vector tiempo discreto vector n %%%%%%%% parámetros para análisis en la frecuencia %%%%%%%% dt1=tn(2)-tn(1); % intervalo entre muestras Fs = 1/dt1; N = round((t(end)-t(1))/dt1); % número de puntos para DFT %%%%%%%% DFT %%%%%%%% k=-N:N; fd=((Fs/2)/(N/2))*k; % vector de frecuencias en Hz Xd = (1/N)*(xn*(exp(-j*2*pi/N)).^(n'*k)); % Forma compacta de la sumatoria DFT ecuación (2.142) % Se incluyó un factor 1/N para corrección de amplitud %%%%%%%% FFT %%%%%%%% NFFT=2^(ceil(log2(N))); % Número de puntos para la FFT (potencia de 2) X=fft(xn,NFFT)/N; % Señal x en el dominio de la frecuencia 2. Señales y Espectros 73 2.18 Problemas Propuestos 1. b. x(t) = cos(1/3 t) + sin(1/5t) x(t) = cos(1/3 t) + 4sin(π2t) a. b. c. Grafique la magnitud y la fase de los coeficientes de la serie compleja de Fourier, cn. Grafique el conjunto de coeficientes an y bn de la serie trigonométrica de Fourier. Cuál es la relación entre la serie de Fourier compleja exponencial y la serie trigonométrica de Fourier. 9. Para las siguientes señales determine y grafique sus espectros (de magnitud y fase). π⎞ ⎛ a. cos⎜ 2πf 0 t + ⎟ 3⎠ ⎝ b. sinc (10t) ⎛ t ⎞ π⎞ ⎛ c. cos⎜ 2πf 0 t + ⎟rect ⎜⎜ ⎟⎟ 3⎠ ⎝ ⎝ T0 ⎠ d. +∞ ⎛ t − 2nT ⎞ ⎟ ⎝ T ⎠ ∑ rect⎜ 10. Derive la transformada de Fourier de la señal x(t) = exp(–a|t|) x(t) x(–t) x(t +2) x(2t) (x(0.5(t +1)) + x(t – 2)) u(t – 1) exp(− a(t − τ )) cos(2πf 0 t )u (t ) Encuentre, usando el procedimiento de ortogonalización de Gram-Schmidt, un conjunto de funciones base ortonormales para representar las tres señales dadas. Exprese cada una de las señales dada en términos del conjunto de funciones base encontrados en la parte a. Grafique la magnitud y la fase de los coeficientes de la serie compleja de Fourier, cn de la función Para la señal periódica continua x(t) = 2 + cos(2πt/3) + 4sin(5πt/3), determine la frecuencia fundamental ω0 y los coeficientes de la serie de Fourier ak tales que: x(t ) = 11. Utilice MATLAB para graficar la señal continua del problema 10, también obtenga y grafique una versión discreta de la misma, y determine su espectro utilizando la DFT. 12. Determine la transformada de Fourier de la señal π⎞ π⎞ ⎛ ⎛ cos⎜ 2πf 0 t + ⎟ + sin ⎜ 6πf 0 t + ⎟ 6⎠ 4⎠ ⎝ ⎝ 7. Para la función x(t) = cos(2πf0t + π/6) + sin(6πf0t + π/4) n = −∞ Para el conjunto de tres señales s1(t), s2(t) y s3(t) que se muestra en la siguiente figura, a. 6. x(t) = exp(–t) cos(t) u(t) x(t) = A cos(2πf1t) + Bcos(2πf2t) x(t) = A exp(j(2πf0t + φ)) Sea la señal x(t) = 4t2/(1 + 0.5t + 0.7t3), para |t| < 3 s. Utilice MATLAB para graficar las formas de onda correspondientes a: a. b. c. d. e. 5. A cos(2πt), –5 < t < 5. u(t) A cos(2πt), –∞ < t < ∞. A exp(–at), para a > 0; t = nT, donde T = 0.01. Determine si las siguientes señales son periódicas o no. Si son periódicas, encuentre su periodo. a. b. 4. x(t) = x(t) = x(t) = x(t) = Clasifique las siguientes señales en señales de energía o de potencia, y determine su correspondiente valor. a. b. c. 3. 8. Grafique las siguiente señales, y clasifíquelas (todos los tipos), y determine su potencia o energía normalizada. a. b. c. d. 2. 74 ∞ ∑ ak exp( jkω0t ) k = −∞ 13. Utilice MATLAB para graficar la señal continua del problema 12, también obtenga y grafique una versión discreta de la misma, y determine su espectro utilizando la DFT. 14. Determine las representaciones en serie de Fourier de las señales mostradas en la siguiente figura: 2. Señales y Espectros 75 15. Obtenga la transformada de Fourier de las siguientes expresiones a. b. c. d. 76 25. Una señal de pulso compleja periódica viene expresada por ⎧exp( jωc t ), 0 ≤ t < t1 f (t ) = ⎨ t1 ≤ t < T 0, ⎩ f(2 – t) f[(t/2) – 1)] f(t) cos(π(t – 1)) d/dt (f(2t)) donde T > 2t1 es el periodo. Halle la función de autocorrelación y la densidad espectral de potencia. 16. Asumiendo que x(t) tiene transformada de Fourier, halle la transformada de Fourier de y(t) considerando que el símbolo ∗ representa la convolución y (t ) = x(t ) ∗ ∞ ∑ δ (t − nT ) n = −∞ 17. Considere la señal x(t) = rect(1000t). a. Grafique su representación en el dominio del tiempo y en el dominio de la frecuencia. b. Si la duración del pulso se recorta a la mitad, grafique nuevamente los espectros correspondientes. ¿Qué pasa con el ancho de banda del primer nulo cuando la duración del pulso se recorta a la mitad? c. Si la duración del pulso se duplica, grafique nuevamente los espectros correspondientes. ¿Qué pasa con el ancho de banda del primer nulo cuando la duración del pulso se duplica? d. Determine el producto tiempo-ancho de banda para los tres casos anteriores. ¿Qué puede concluir? 26. Determine la función de autocorrelación a partir de la transformada inversa de Fourier de la densidad espectral de cada señal. a. x1(t) = exp(–at) u(t) b. x2(t) = rect(t / t1) c. x3(t) = sinc(Wt) 27. Una señal periódica discreta x[n] es de valor real y tiene un periodo fundamental N = 5. Los coeficientes de la serie de Fourier diferentes de cero para x[n] son a0 =1, a2 = a*-2 = ejπ/4, a4 = a*-4 = 2e jπ/3. Exprese x[n] en la forma ∞ x[n] = A0 + ∑ Ak sen(ω k n + φk ) k =1 18. Una señal está definida por x(t) = 2cos(4πt) + 5cos(15πt). Encuentre la transformada de tiempo continuo de Fourier y el corrimiento de fase resultante de cada onda sinusoidal cuando x(t – 1/40) y x(t + 1/20). 19. Sea x(t) = exp(–at) u(t). a. Determine la función de autocorrelación Rx(τ). b. Determine la densidad espectral de la señal por medio de la transformada de Fourier de la propia señal y por medio de la transformada de Fourier de la función de autocorrelación. 20. Encuentre la función de autocorrelación promedio de la señal sinusoidal x(t) y su potencia normalizada promedio. ⎞ ⎛ 2π x(t ) = A sin ⎜ t +ϕ⎟ ⎠ ⎝ T 28. Suponga que se nos proporciona la siguiente información acerca de la señal x(t). a. x(t) es real y par. b. x(t) es periódica con periodo T = 2 y tiene coeficientes de Fourier ak. c. ak = 0 para |k| > 1 12 2 d. ∫ x(t ) dt = 1 20 Especifique dos señales diferentes que satisfagan estas condiciones. 29. Una señal periódica discreta x[n] es de valor real y tiene periodo fundamental N = 5. Los coeficientes de la serie de Fourier diferentes de cero para x[n] son 21. Una cierta señal f(t) tiene una densidad espectral de potencia dada por ⎤ ⎡ 1 S f (ω ) = ⎢ + δ (ω − 2) + δ (ω + 2 )⎥ 2 ⎦ ⎣1 + ω a 0 = 2, a 2 = a −* 2 = 2e − jπ 6 j π , a 4 = a −* 4 = e 3 . Exprese x[n] en forma ∞ x[n] = A0 + ∑ Ak sen(ω k n + φ k ). k =1 Considere una resistencia de carga de 1Ω. Halle el contenido total de la potencia media en f(t). 22. Determine la densidad espectral de potencia de la señal f1 exp(jω0t), utilizando la función de autorrelación. 30. Determine los coeficientes de la serie de Fourier para la señal periódica discreta x[n], grafique la magnitud y fase del conjunto de coeficientes ak. x[n] = sin(2πn/3) cos(2πn/2) 23. Usando las definiciones de la función impulso resuelva a. x1(t) = sinc(t – 2) δ(t) 31. Encuentre las señales en el domino del tiempo para las siguientes transformada de Fourier. x2 (t ) = ∆(t ) ∗ b. ∞ ∑ δ (t − 2n ) n = −∞ ∞ ∫ rect (t )δ (2t − 1)dt c. −∞ 24. Usando la transformada de Fourier, evalué las siguientes integrales ∞ a. ∫ exp(− αt )sinc(t ) dt 0 ∞ b. ∫ exp(− αt )cos(βt ) dt 0 a. X ( jω ) = ( jω )2 − 25 ( jω )([ jω )2 + 15 jω + 50] − π 2 δ (ω ) b. X ( jω ) = 1 9 − ω 2 + j 3 2ω 32. Utilice MATLAB para graficar los espectros de las señales del problema 31 y utilice la ifft para determinar la señal en el dominio del tiempo.
Copyright © 2024 DOKUMEN.SITE Inc.