CAPÍTULO I REPRESENTACIÓN ESPECTRO-TEMPORAL DE SEÑALES 1.1. INTRODUCCIÓN El propósito de un sistema de comunicación es el de transmitir información. Un sistema de comunicación comprende un transmisor, un canal sobre el cual la información se transmite, y un receptor para recoger la información y entregarla al destinatario. El canal de transmisión puede ser un simple par de conductores, un cable coaxial, una fibra óptica, una guía de ondas o el espacio libre. La palabra “comunicación” parece privativa del ingeniero de comunicaciones o de los medios de comunicación de masas. La transmisión de medidas de voltaje, corriente, frecuencia, etc., desde una estación remota hasta el puesto de control es comunicación; la transmisión de datos a través de un cable coaxial en un sistema de automatización industrial es también comunicación. La transmisión de un programa de opinión por un medio de transmisión de masas también es comunicación. Hay un gran número de aplicaciones en las cuales la palabra “comunicación” se emplea indistintamente. Sin embargo, desde el punto de vista que nos ocupa, la palabra o palabras más apropiadas que describen el proceso que nos interesa son las de “transmisión de información”. Como estaremos hablando continuamente de comunicación, y siendo la comunicación tan diversa y tan importante, sería interesante conocer algo de sus orígenes históricos y de los hombres que han sobresalido en su estudio y desarrollo. La teoría moderna de la comunicación tuvo su origen en el estudio de las comunicaciones eléctricas y algunas de las ideas más importantes se originaron en los primeros intentos para establecer comunicaciones rápidas a larga distancia. En 1832, Samuel Morse (1791-1877) logró la primera forma eficiente del telégrafo eléctrico. Como todos sabemos, el código Morse de telegrafía consta de puntos y rayas cuyas combinaciones se asignan a los símbolos del alfabeto (letras y números). La transmisión se efectuaba mediante conductores sobre postes y no había demasiados problemas en lo que se refería a la reproducción de la señal recibida en el extremo alejado. En 1843, Morse emprendió la tarea de construir una línea con cable subterráneo, pero encontró ciertas dificultades que más tarde afectaron a los cables submarinos aún más severamente. Las dificultades que Morse encontró, con su cable subterráneo, siguen siendo todavía un problema importante. En efecto, circuitos diferentes que conduzcan igualmente una corriente continua, no son necesariamente adecuados para una comunicación eléctrica en donde las corrientes son esencialmente variables. Si se transmiten puntos y rayas demasiado a prisa por cable subterráneo, estos puntos y rayas, que básicamente son impulsos, no pueden diferenciarse en el extremo receptor. Como se indica en la Fig. 1.1(a), cuando se transmite un corto impulso de corriente, se recibe en el extremo alejado del circuito un impulso de corriente mucho más largo, muy disperso. Asimismo, como se indica en la Fig. 1.1(b), cuando se transmite una señal clara y distinta, puede suceder que se reciba una señal difícil de interpretar. Naturalmente, si los impulsos son lo suficientemente largos, la interpretación en el extremo receptor será completa, pero la velocidad de transmisión habrá disminuido apreciablemente. Es evidente, entonces, que hay una velocidad de transmisión límite asociada de algún modo con un circuito o canal dado. Los primeros telegrafistas estaban conscientes de esta limitación, y en sus esfuerzos para superarla se construyeron los primeros cimientos de la teoría de la comunicación. J. Briceño M. Dr. Ing. -- Profesor Titular, ULA -- Mérida, Venezuela 2 I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES t Impulso Transmitido t (a) Impulso Recibido t Señal Transmitida (b) Señal Recibida Fig. 1.1. Formas de Onda Transmitidas y Recibidas. t Pero no solamente eran las limitaciones del canal las que hacían difícil la interpretación. Durante las tormentas, sobre todo, aparecían señales extrañas que hacían aún más difícil la interpretación. Estas señales espurias, llamadas en general “ruido”, están siempre presentes en los sistemas de transmisión y dificultan la interpretación de la información contenida en un mensaje. Los telegrafistas de aquella época tenían un conocimiento, que podríamos llamar intuitivo, de las limitaciones de los sistemas físicos, pero hace falta algo más que un conocimiento intuitivo: se necesita un análisis matemático de estos fenómenos. Desde muy pronto se aplicaron técnicas matemáticas a la solución de estos problemas, aunque el cuerpo completo de la teoría sólo se ha logrado en las últimas décadas. En 1885, William Thompson (1824-1907), conocido como Lord Kelvin, calculó en forma exacta la corriente recibida en un cable submarino cuando se transmitía impulsos (puntos y rayas). Un ataque más poderoso a tales problemas siguió a la invención del teléfono por Alexander Graham Bell (1847-1922), en 1876. En la telefonía las señales varían brusca y rápidamente en un amplio margen de amplitudes, con una rapidez mucho mayor que en la telegrafía manual; esto complicó aún más la recepción de la señales. Muchos hombres ayudaron al establecimiento del tratamiento matemático de la telefonía. Hombres como Poincaré (1854-1912), Heaviside (1850-1925), Pupin (1858-1935), Baudot (18451903), son los más eminentes de ellos. Estos hombres usaron los métodos matemáticos establecidos por el físico francés Joseph Fourier (1768-1830), los cuales habían sido aplicados al estudio de las vibraciones y que se utilizan para analizar el comportamiento de señales eléctricas que varían de un modo complicado en función del tiempo. El Análisis de Fourier es de absoluta necesidad en el estudio de las comunicaciones eléctricas, porque provee las técnicas matemáticas con las cuales el ingeniero puede describir señales y sistemas no solamente en el dominio del tiempo sino también en el dominio de la frecuencia. Este es el principal objetivo de este texto. El Análisis de Fourier se basa en la representación de una función complicada como una suma de funciones sinusoidales, y su utilidad depende de dos hechos físicos importantes: la invariancia en el tiempo y la linealidad. Un circuito eléctrico posee parámetros (R, L y C) que no varían en el tiempo (por lo menos a corto plazo); en términos más formales, la ecuación diferencial que representa al circuito es una ecuación cuyos coeficientes (los parámetros del circuito) son constantes. La linealidad significa, sencillamente, que si conocemos las señales de salida correspondientes a cualquier número de entradas enviadas separadamente, podemos calcular la señal de salida total simplemente sumando las señales de salida individuales; éste es el enunciado del teorema de superposición. El análisis de Fourier de las señales en función de sus componentes J. Briceño M. Dr. Ing. -- Profesor Titular, ULA -- Mérida, Venezuela I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES 3 frecuenciales, hace posible estudiar las propiedades de transmisión de un circuito lineal para todas las señales en términos de la atenuación y desfasaje que les son impuestas a su paso por el circuito, y proporciona a los ingenieros una asombrosa variedad de resultados que no pueden ser obtenidos de otro modo. En 1917, Harry Nyquist, de la American Telephone and Telegraph Company, de los Estados Unidos, empezó a atacar los problemas de la telegrafía con métodos matemáticos más poderosos y secundado por una gran intuición y claridad de conceptos. Los primeros resultados de su trabajo los publicó en 1924 en el artículo “Ciertos Factores que afectan a la Velocidad Telegráfica” [Nyquist, 1924]. En este artículo, Nyquist trata varios problemas relacionados con la telegrafía y, en particular, aclara la relación entre la velocidad telegráfica y el número de valores o impulsos de corriente que pueden ser transmitidos y correctamente interpretados. Este trabajo, en nuestra opinión, es el primer cimiento de la moderna teoría de la información. Nyquist demostró que se podía transmitir varios mensajes simultáneamente por un mismo canal si los anchos de banda de las señales mensaje no se solapaban. Observó, asimismo, que la velocidad de transmisión era proporcional al ancho de banda del circuito y que podía aumentarse mediante una codificacion apropiada de la señal. Demostró que una señal contenía, en todo momento, una componente continua de amplitud constante, que, consumiendo parte de la potencia transmitida, no tenía utilidad y podía ser añadida en el receptor, lo mismo que si hubiera sido transmitida por el circuito. Nyquist continuó sus trabajos sobre los problemas de la telegrafía y en 1928 publicó un segundo e importante artículo: “Ciertos Tópicos en la Teoría de la Transmisión Telegráfica” [Nyquist, 1928]. Este segundo artículo fue más cuantitativo y exacto que el primero, y juntos abarcan mucho material importante que hoy está incorporado en la Teoría de las Comunicaciones. En 1928, R.V. Hartley, el inventor del conocido “Oscilador Hartley”, publicó el artículo “Transmisión de Información” [Hartley, 1928]. Hartley atacó el problema de la codificación de los símbolos primarios (por ejemplo, las letras del alfabeto o caracteres alfanuméricos) en términos de símbolos secundarios (por ejemplo, puntos o rayas del código Morse o secuencias de impulsos) y observó que las longitudes de los símbolos secundarios deberían depender de la frecuencia de ocurrencia de los símbolos primarios si se desea transmitir los mensajes con más rapidez. Hartley sugirió también un modo de aplicar tales consideraciones a las señales continuas, por ejemplo, las señales telefónicas o de transmisión de imágenes. Finalmente, Hartley estableció, de acuerdo con Nyquist, que la cantidad de información que puede ser transmitida es proporcional al ancho de banda del canal multiplicado por el tiempo de transmisión. Vemos la importancia que en la velocidad de transmisión tiene una codificación adecuada. Después de los trabajos de Nyquist y Hartley no se publicó ningún trabajo de importancia hasta el advenimiento de la Segunda Guerra Mundial. Acicateados por las obligaciones de la defensa, los gobiernos beligerantes establecieron equipos de matemáticos, científicos e ingenieros para estudiar y desarrollar muchos aspectos de la ciencia y de la tecnología. El radar, las microondas, la televisión y muchos desarrollos más, fueron los frutos de este esfuerzo combinado, hábilmente dirigido y con ilimitados medios económicos. Problemas como la detección y estimación de señales en presencia de ruido fueron resueltos por A.N. Kolmogoroff (1903-1987), en Rusia, y en Estados Unidos, independientemente, por Norbert Wiener (1894-1964). Después de la guerra otro matemático, Claude E. Shannon (19162001), se interesó en los problemas de las comunicaciones en presencia de ruido y en 1948 publicó en dos partes su artículo “Una Teoría Matemática de la Comunicación” [Shannon, 1948], que es otro de los pilares de la moderna Teoría de las Comunicaciones. En el problema tratado por Shannon se permite elegir cómo representar el mensaje por medio de una señal eléctrica, cuántos valores de la corriente se pueden permitir y cuántos se transmitirían por segundo, es decir, el J. Briceño M. Dr. Ing. -- Profesor Titular, ULA -- Mérida, Venezuela 4 I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES problema de la codificación y la redundancia. El problema no es, pues, cómo tratar una señal contaminada con ruido para obtener una mejor estimación de ella, sino qué clase de señal enviar para transportar mejor los mensajes de un tipo dado sobre un canal particular o circuito ruidoso. Shannon demostró, asimismo, que no es posible transmitir sin error si los códigos utilizados no tienen redundancia. Los sistemas de comunicación consisten, pues, en un conjunto de bloques funcionales interconectados que transfieren información entre dos puntos mediante una serie secuencial de operaciones o procesamiento de señales. La Teoría de las Comunicaciones trata de los modelos y técnicas matemáticas que se pueden utilizar en el estudio y análisis de los sistemas de comunicación. En los sistemas de comunicación las señales son magnitudes que varían en el tiempo, tales como voltajes y corrientes que, en general, se representarán con la notación x(t). Los elementos funcionales de un sistema son los circuitos eléctricos, pero tanto los circuitos eléctricos (sistemas) como las señales se pueden representar en el “dominio del tiempo” si la variable independiente es el tiempo (t), o en el “dominio de la frecuencia” si la variable independiente es la frecuencia (f). En el análisis y estudio de los sistemas de comunicación a menudo es necesario y conveniente describir o representar las señales y sistemas en el domino de la frecuencia, lo cual conlleva a los conceptos de “espectro” y de “ancho de banda”. La representación espectro-temporal de señales y sistemas es posible mediante el Análisis Espectral de Fourier: Series y Transformadas. En este capítulo se desarrollarán las técnicas matemáticas para la descripción de señales en el dominio de la frecuencia y de la correspondencia Tiempo Frecuencia. Estas técnicas no son sino modelos matemáticos, es decir, descripciones idealizadas de señales y sistemas reales. Aunque se puede elegir diferentes modelos para un problema particular, la selección del modelo más apropiado estará basada en el conocimiento más o menos completo de los fenómenos físicos a modelar y en las limitaciones de los diferentes modelos. En las últimas décadas el desarrollo de las telecomunicaciones ha sido extraordinario pero más que todo desde el punto de vista de la tecnología: fueron las técnicas de integración de dispositivos de estado sólido las que iniciaron esta nueva era de las comunicaciones. El Procesamiento y Transmisión de Datos, las Comunicaciones por Satélite y las Comunicaciones Opticas son los dominios en los cuales el crecimiento ha sido y seguirá siendo espectacular. En la conjunción entre la Electrónica, las Telecomunicaciones y la Informática, estará la base de este desarrollo. En la Referencia [IEEE, 1984] de la Bibliografía, el lector interesado encontrará un nutrido material sobre la historia de las telecomunicaciones en los últimos 100 años. 1.2. MODELOS DE LAS SEÑALES 1.2.1. Señales Determinísticas y Aleatorias En los sistemas de comunicación se encuentran dos clases amplias de señales, conocidas como “señales determinísticas” y “señales aleatorias”. Las señales determinísticas se pueden representar mediante expresiones matemáticas explícitas del tiempo. Por ejemplo, una señal portadora sinusoidal de la forma x(t) = Acos(2πfct) para todo t, es una señal determinística. Son también señales determinísticas aquellas que no poseen una ecuación que las describa pero que están representadas mediante gráficos. El punto a resaltar es que el valor exacto de una señal determinística se puede predecir o calcular por adelantado. En Europa a las señales determinísticas se las denomina también “señales ciertas”. En su definición más sencilla, una señal aleatoria es aquella en la cual existe un mayor o menor grado de incertidumbre en cuanto a un valor instantáneo futuro. Aunque el valor exacto en un instante dado no se conoce, muchas de las señales aleatorias que se encuentran en los sistemas de J. Briceño M. Dr. Ing. -- Profesor Titular, ULA -- Mérida, Venezuela 5 I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES comunicación tienen ciertas características en su comportamiento que permiten describirlas en términos estadísticos o probabilísticos. El “ruido” en sistemas de comunicación es una señal aleatoria. Como veremos en Capítulo IV, puede decirse que solamente las señales aleatorias proporcionan verdaderamente información, puesto que las señales determinísticas pueden ser totalmente conocidas de antemano. Esto es verdad desde un punto de vista muy amplio y, por supuesto, todas las señales procesadas en un sistema de comunicación son de naturaleza aleatoria, por lo menos en lo que se refiere al destinatario. Sin embargo, desde el punto de vista del análisis, diseño, prueba y operación de sistemas, no solamente es deseable sino también necesario utilizar señales determinísticas para analizar el sistema y predecir su comportamiento. Las señales determinísticas tienen propiedades bien conocidas, además de que son más fáciles de generar y utilizar. En el Capítulo III se presentan algunos fundamentos de las variables y procesos aleatorios. En este texto el enfoque será mayormente desde el punto de vista determinìstico y las señales serán preferentemente reales, es decir, aquellas accesibles a la medida. 1.2.2. Señales Periódicas y no Periódicas Una señal periódica es aquella que se repite en una forma predecible cada T segundos, donde T es el período de repetición de la señal, es decir, x(t ) = x(t + T) para todo t (1.1) T es una constante positiva y es el valor más pequeño que satisface la expresión (1.1). Al intervalo de un período se le denomina también un “ciclo” de la señal, aunque la palabra “ciclo” se utiliza principalmente en señales sinusoidales. Una señal no periódica o aperiódica se puede considerar como el límite de una señal periódica cuanto el período T tiende a infinito. En términos más formales, una señal no periódica es aquella para la cual no existe un T finito que satisfaga la expresión (1.1). Pudiera pensarse que dentro de un intervalo finito una señal no periódica puede repetirse después de un período bastante grande y ser en realidad una señal periódica. Igualmente, podemos argumentar que una señal aparentemente periódica deje de serlo después de un tiempo lo suficientemente grande. Desde un punto de vista práctico estos argumentos no producen ninguna dificultad, pero en los intervalos usuales de trabajo y para efectos de análisis, hay que considerar siempre una u otra representación. 1.2.3. Señales de Energía y de Potencia En el dominio de la Física y la Ingenierìa la energía total de una señal x(t) en el dominio del tiempo usualmente se define en la forma E = lim T →∞ ∫ T/ 2 x 2 ( t )dt T/ 2 (1.2) La señal x(t) puede ser un voltaje o una corriente. E es la energía normalizada para una resistencia de 1 Ohm, y se expresa en joules. Como x(t) puede, en general, ser compleja, una definición más general de la energía es E = lim T →∞ donde ∫ T/ 2 T/ 2 2 x(t ) dt 2 x(t ) = x (t )x *(t ) . J. Briceño M. Dr. Ing. -- Profesor Titular, ULA -- Mérida, Venezuela (1.3) 6 I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES Si x(t) es real e independiente de T, la energía se puede definir en la forma siguiente, que es la más utilizada en la caracterización de señales físicas (reales) de aplicación práctica: E= ∫ ∞ x 2 (t ) dt (1.4) ∞ La potencia promedio de una señal x(t) en el dominio del tiempo se define como la energía por unidad de tiempo; por lo tanto, la potencia promedio de la señal en el intervalo (-T/2, T/2) es P= E T = lim T →∞ ∫ T 1 T/ 2 T/ 2 2 x( t ) dt (1.5) Si la señal es periódica, no es necesario tomar el límite y la integración se efectúa dentro de un período T, es decir, P= 1 T ∫ T/ 2 x 2 ( t ) dt si x(t) es real y periódica (1.6) T/ 2 Esta es la potencia normalizada para una resistencia de 1 Ohm; se mide en vatios (W). Mientras no se especifique lo contrario, en este texto la potencia y la energía estarán siempre normalizadas (referidas a una resistencia de 1 Ohm). Para simplificar la notación, en este texto utilizaremos continuamente el llamado “operador 1 T/ 2 promedio tiempo” definido mediante la expresión general < [ ] >= lim [ ] dt o la expresión T/ 2 T →∞ T 1 T/ 2 particular < [ ] >= [ ] dt . Este es un operador lineal puesto que verifica el principio de T T/ 2 superposición ax t bx t a x t b x t , donde a y b son dos constantes cualesquiera. ∫ ∫ Algunas veces se define también la denominada “intensidad normalizada de una señal” como la potencia o la energía normalizadas, según el caso. En este texto representaremos la intensidad normalizada de una señal con la notación < x 2 (t ) > , que corresponderá a la energía si la señal es de energía, o a la potencia si la señal es de potencia; sin embargo, como es costumbre en los textos de comunicaciones, daremos preferencia a la notación < x 2 (t ) > para representar la potencia promedio normalizada de una señal x(t); asimismo, < x ( t ) > representará el valor promedio (componente continua) de una señal x(t). De las definiciones (1.2) a (1.6) se puede establecer lo siguiente: (a) Se dice que una señal x(t) es de energía si y sólo si su energía es finita, es decir, si 0< ∫ ∞ x 2 (t )dt < ∞ (1.7) ∞ lim lo cual implica que T →∞ ∫ T 1 T/ 2 T/ 2 2 x( t ) dt = 0 Las señales de energía finita tienen potencia cero. En general, las señales de duración limitada son señales de energía finita. (b) Se dice que x(t) es una señal de potencia si y sólo si su potencia es finita, es decir, si 0 < lim T →∞ ∫ T 1 T/ 2 T/ 2 2 x( t ) dt < ∞ J. Briceño M. Dr. Ing. -- Profesor Titular, ULA -- Mérida, Venezuela (1.8)