Uploaded by juank_cepeda

libro 01

advertisement
CAPÍTULO I
REPRESENTACIÓN ESPECTRO-TEMPORAL
DE SEÑALES
1.1. INTRODUCCIÓN
El propósito de un sistema de comunicación es el de transmitir información. Un sistema de
comunicación comprende un transmisor, un canal sobre el cual la información se transmite, y un
receptor para recoger la información y entregarla al destinatario. El canal de transmisión puede ser
un simple par de conductores, un cable coaxial, una fibra óptica, una guía de ondas o el espacio
libre.
La palabra “comunicación” parece privativa del ingeniero de comunicaciones o de los
medios de comunicación de masas. La transmisión de medidas de voltaje, corriente, frecuencia, etc.,
desde una estación remota hasta el puesto de control es comunicación; la transmisión de datos a
través de un cable coaxial en un sistema de automatización industrial es también comunicación. La
transmisión de un programa de opinión por un medio de transmisión de masas también es
comunicación. Hay un gran número de aplicaciones en las cuales la palabra “comunicación” se
emplea indistintamente. Sin embargo, desde el punto de vista que nos ocupa, la palabra o palabras
más apropiadas que describen el proceso que nos interesa son las de “transmisión de información”.
Como estaremos hablando continuamente de comunicación, y siendo la comunicación tan
diversa y tan importante, sería interesante conocer algo de sus orígenes históricos y de los hombres
que han sobresalido en su estudio y desarrollo.
La teoría moderna de la comunicación tuvo su origen en el estudio de las comunicaciones
eléctricas y algunas de las ideas más importantes se originaron en los primeros intentos para
establecer comunicaciones rápidas a larga distancia.
En 1832, Samuel Morse (1791-1877) logró la primera forma eficiente del telégrafo
eléctrico. Como todos sabemos, el código Morse de telegrafía consta de puntos y rayas cuyas
combinaciones se asignan a los símbolos del alfabeto (letras y números). La transmisión se
efectuaba mediante conductores sobre postes y no había demasiados problemas en lo que se refería
a la reproducción de la señal recibida en el extremo alejado. En 1843, Morse emprendió la tarea de
construir una línea con cable subterráneo, pero encontró ciertas dificultades que más tarde afectaron
a los cables submarinos aún más severamente. Las dificultades que Morse encontró, con su cable
subterráneo, siguen siendo todavía un problema importante. En efecto, circuitos diferentes que
conduzcan igualmente una corriente continua, no son necesariamente adecuados para una
comunicación eléctrica en donde las corrientes son esencialmente variables. Si se transmiten puntos
y rayas demasiado a prisa por cable subterráneo, estos puntos y rayas, que básicamente son
impulsos, no pueden diferenciarse en el extremo receptor. Como se indica en la Fig. 1.1(a), cuando
se transmite un corto impulso de corriente, se recibe en el extremo alejado del circuito un impulso
de corriente mucho más largo, muy disperso. Asimismo, como se indica en la Fig. 1.1(b), cuando se
transmite una señal clara y distinta, puede suceder que se reciba una señal difícil de interpretar.
Naturalmente, si los impulsos son lo suficientemente largos, la interpretación en el extremo
receptor será completa, pero la velocidad de transmisión habrá disminuido apreciablemente. Es
evidente, entonces, que hay una velocidad de transmisión límite asociada de algún modo con un
circuito o canal dado. Los primeros telegrafistas estaban conscientes de esta limitación, y en sus
esfuerzos para superarla se construyeron los primeros cimientos de la teoría de la comunicación.
J. Briceño M. Dr. Ing. -- Profesor Titular, ULA -- Mérida, Venezuela
2
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES
t
Impulso Transmitido
t
(a)
Impulso Recibido
t
Señal Transmitida
(b)
Señal Recibida
Fig. 1.1. Formas de Onda Transmitidas y Recibidas.
t
Pero no solamente eran las limitaciones del canal las que hacían difícil la interpretación.
Durante las tormentas, sobre todo, aparecían señales extrañas que hacían aún más difícil la
interpretación. Estas señales espurias, llamadas en general “ruido”, están siempre presentes en los
sistemas de transmisión y dificultan la interpretación de la información contenida en un mensaje.
Los telegrafistas de aquella época tenían un conocimiento, que podríamos llamar intuitivo, de las
limitaciones de los sistemas físicos, pero hace falta algo más que un conocimiento intuitivo: se
necesita un análisis matemático de estos fenómenos.
Desde muy pronto se aplicaron técnicas matemáticas a la solución de estos problemas,
aunque el cuerpo completo de la teoría sólo se ha logrado en las últimas décadas. En 1885, William
Thompson (1824-1907), conocido como Lord Kelvin, calculó en forma exacta la corriente recibida
en un cable submarino cuando se transmitía impulsos (puntos y rayas). Un ataque más poderoso a
tales problemas siguió a la invención del teléfono por Alexander Graham Bell (1847-1922), en
1876. En la telefonía las señales varían brusca y rápidamente en un amplio margen de amplitudes,
con una rapidez mucho mayor que en la telegrafía manual; esto complicó aún más la recepción de
la señales.
Muchos hombres ayudaron al establecimiento del tratamiento matemático de la telefonía.
Hombres como Poincaré (1854-1912), Heaviside (1850-1925), Pupin (1858-1935), Baudot (18451903), son los más eminentes de ellos. Estos hombres usaron los métodos matemáticos establecidos
por el físico francés Joseph Fourier (1768-1830), los cuales habían sido aplicados al estudio de las
vibraciones y que se utilizan para analizar el comportamiento de señales eléctricas que varían de un
modo complicado en función del tiempo. El Análisis de Fourier es de absoluta necesidad en el
estudio de las comunicaciones eléctricas, porque provee las técnicas matemáticas con las cuales el
ingeniero puede describir señales y sistemas no solamente en el dominio del tiempo sino también en
el dominio de la frecuencia. Este es el principal objetivo de este texto.
El Análisis de Fourier se basa en la representación de una función complicada como una
suma de funciones sinusoidales, y su utilidad depende de dos hechos físicos importantes: la
invariancia en el tiempo y la linealidad. Un circuito eléctrico posee parámetros (R, L y C) que no
varían en el tiempo (por lo menos a corto plazo); en términos más formales, la ecuación diferencial
que representa al circuito es una ecuación cuyos coeficientes (los parámetros del circuito) son
constantes. La linealidad significa, sencillamente, que si conocemos las señales de salida
correspondientes a cualquier número de entradas enviadas separadamente, podemos calcular la
señal de salida total simplemente sumando las señales de salida individuales; éste es el enunciado
del teorema de superposición. El análisis de Fourier de las señales en función de sus componentes
J. Briceño M. Dr. Ing. -- Profesor Titular, ULA -- Mérida, Venezuela
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES
3
frecuenciales, hace posible estudiar las propiedades de transmisión de un circuito lineal para todas
las señales en términos de la atenuación y desfasaje que les son impuestas a su paso por el circuito,
y proporciona a los ingenieros una asombrosa variedad de resultados que no pueden ser obtenidos
de otro modo.
En 1917, Harry Nyquist, de la American Telephone and Telegraph Company, de los
Estados Unidos, empezó a atacar los problemas de la telegrafía con métodos matemáticos más
poderosos y secundado por una gran intuición y claridad de conceptos. Los primeros resultados de
su trabajo los publicó en 1924 en el artículo “Ciertos Factores que afectan a la Velocidad
Telegráfica” [Nyquist, 1924]. En este artículo, Nyquist trata varios problemas relacionados con la
telegrafía y, en particular, aclara la relación entre la velocidad telegráfica y el número de valores o
impulsos de corriente que pueden ser transmitidos y correctamente interpretados. Este trabajo, en
nuestra opinión, es el primer cimiento de la moderna teoría de la información. Nyquist demostró
que se podía transmitir varios mensajes simultáneamente por un mismo canal si los anchos de banda
de las señales mensaje no se solapaban. Observó, asimismo, que la velocidad de transmisión era
proporcional al ancho de banda del circuito y que podía aumentarse mediante una codificacion
apropiada de la señal. Demostró que una señal contenía, en todo momento, una componente
continua de amplitud constante, que, consumiendo parte de la potencia transmitida, no tenía
utilidad y podía ser añadida en el receptor, lo mismo que si hubiera sido transmitida por el circuito.
Nyquist continuó sus trabajos sobre los problemas de la telegrafía y en 1928 publicó un
segundo e importante artículo: “Ciertos Tópicos en la Teoría de la Transmisión Telegráfica”
[Nyquist, 1928]. Este segundo artículo fue más cuantitativo y exacto que el primero, y juntos
abarcan mucho material importante que hoy está incorporado en la Teoría de las Comunicaciones.
En 1928, R.V. Hartley, el inventor del conocido “Oscilador Hartley”, publicó el artículo
“Transmisión de Información” [Hartley, 1928]. Hartley atacó el problema de la codificación de
los símbolos primarios (por ejemplo, las letras del alfabeto o caracteres alfanuméricos) en términos
de símbolos secundarios (por ejemplo, puntos o rayas del código Morse o secuencias de impulsos) y
observó que las longitudes de los símbolos secundarios deberían depender de la frecuencia de
ocurrencia de los símbolos primarios si se desea transmitir los mensajes con más rapidez. Hartley
sugirió también un modo de aplicar tales consideraciones a las señales continuas, por ejemplo, las
señales telefónicas o de transmisión de imágenes. Finalmente, Hartley estableció, de acuerdo con
Nyquist, que la cantidad de información que puede ser transmitida es proporcional al ancho de
banda del canal multiplicado por el tiempo de transmisión. Vemos la importancia que en la
velocidad de transmisión tiene una codificación adecuada.
Después de los trabajos de Nyquist y Hartley no se publicó ningún trabajo de importancia
hasta el advenimiento de la Segunda Guerra Mundial. Acicateados por las obligaciones de la
defensa, los gobiernos beligerantes establecieron equipos de matemáticos, científicos e ingenieros
para estudiar y desarrollar muchos aspectos de la ciencia y de la tecnología. El radar, las
microondas, la televisión y muchos desarrollos más, fueron los frutos de este esfuerzo combinado,
hábilmente dirigido y con ilimitados medios económicos.
Problemas como la detección y estimación de señales en presencia de ruido fueron
resueltos por A.N. Kolmogoroff (1903-1987), en Rusia, y en Estados Unidos, independientemente,
por Norbert Wiener (1894-1964). Después de la guerra otro matemático, Claude E. Shannon (19162001), se interesó en los problemas de las comunicaciones en presencia de ruido y en 1948 publicó
en dos partes su artículo “Una Teoría Matemática de la Comunicación” [Shannon, 1948], que es
otro de los pilares de la moderna Teoría de las Comunicaciones. En el problema tratado por
Shannon se permite elegir cómo representar el mensaje por medio de una señal eléctrica, cuántos
valores de la corriente se pueden permitir y cuántos se transmitirían por segundo, es decir, el
J. Briceño M. Dr. Ing. -- Profesor Titular, ULA -- Mérida, Venezuela
4
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES
problema de la codificación y la redundancia. El problema no es, pues, cómo tratar una señal
contaminada con ruido para obtener una mejor estimación de ella, sino qué clase de señal enviar
para transportar mejor los mensajes de un tipo dado sobre un canal particular o circuito ruidoso.
Shannon demostró, asimismo, que no es posible transmitir sin error si los códigos utilizados no
tienen redundancia.
Los sistemas de comunicación consisten, pues, en un conjunto de bloques funcionales
interconectados que transfieren información entre dos puntos mediante una serie secuencial de
operaciones o procesamiento de señales. La Teoría de las Comunicaciones trata de los modelos y
técnicas matemáticas que se pueden utilizar en el estudio y análisis de los sistemas de
comunicación.
En los sistemas de comunicación las señales son magnitudes que varían en el tiempo, tales
como voltajes y corrientes que, en general, se representarán con la notación x(t). Los elementos
funcionales de un sistema son los circuitos eléctricos, pero tanto los circuitos eléctricos (sistemas)
como las señales se pueden representar en el “dominio del tiempo” si la variable independiente es
el tiempo (t), o en el “dominio de la frecuencia” si la variable independiente es la frecuencia (f).
En el análisis y estudio de los sistemas de comunicación a menudo es necesario y conveniente
describir o representar las señales y sistemas en el domino de la frecuencia, lo cual conlleva a los
conceptos de “espectro” y de “ancho de banda”.
La representación espectro-temporal de señales y sistemas es posible mediante el Análisis
Espectral de Fourier: Series y Transformadas. En este capítulo se desarrollarán las técnicas
matemáticas para la descripción de señales en el dominio de la frecuencia y de la correspondencia
Tiempo
Frecuencia. Estas técnicas no son sino modelos matemáticos, es decir, descripciones
idealizadas de señales y sistemas reales. Aunque se puede elegir diferentes modelos para un
problema particular, la selección del modelo más apropiado estará basada en el conocimiento más o
menos completo de los fenómenos físicos a modelar y en las limitaciones de los diferentes modelos.
En las últimas décadas el desarrollo de las telecomunicaciones ha sido extraordinario pero
más que todo desde el punto de vista de la tecnología: fueron las técnicas de integración de
dispositivos de estado sólido las que iniciaron esta nueva era de las comunicaciones. El
Procesamiento y Transmisión de Datos, las Comunicaciones por Satélite y las Comunicaciones
Opticas son los dominios en los cuales el crecimiento ha sido y seguirá siendo espectacular. En la
conjunción entre la Electrónica, las Telecomunicaciones y la Informática, estará la base de este
desarrollo. En la Referencia [IEEE, 1984] de la Bibliografía, el lector interesado encontrará un
nutrido material sobre la historia de las telecomunicaciones en los últimos 100 años.
1.2. MODELOS DE LAS SEÑALES
1.2.1. Señales Determinísticas y Aleatorias
En los sistemas de comunicación se encuentran dos clases amplias de señales, conocidas
como “señales determinísticas” y “señales aleatorias”. Las señales determinísticas se pueden
representar mediante expresiones matemáticas explícitas del tiempo. Por ejemplo, una señal
portadora sinusoidal de la forma x(t) = Acos(2πfct) para todo t, es una señal determinística. Son
también señales determinísticas aquellas que no poseen una ecuación que las describa pero que
están representadas mediante gráficos. El punto a resaltar es que el valor exacto de una señal
determinística se puede predecir o calcular por adelantado. En Europa a las señales determinísticas
se las denomina también “señales ciertas”.
En su definición más sencilla, una señal aleatoria es aquella en la cual existe un mayor o
menor grado de incertidumbre en cuanto a un valor instantáneo futuro. Aunque el valor exacto en
un instante dado no se conoce, muchas de las señales aleatorias que se encuentran en los sistemas de
J. Briceño M. Dr. Ing. -- Profesor Titular, ULA -- Mérida, Venezuela
5
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES
comunicación tienen ciertas características en su comportamiento que permiten describirlas en
términos estadísticos o probabilísticos. El “ruido” en sistemas de comunicación es una señal
aleatoria.
Como veremos en Capítulo IV, puede decirse que solamente las señales aleatorias
proporcionan verdaderamente información, puesto que las señales determinísticas pueden ser
totalmente conocidas de antemano. Esto es verdad desde un punto de vista muy amplio y, por
supuesto, todas las señales procesadas en un sistema de comunicación son de naturaleza aleatoria,
por lo menos en lo que se refiere al destinatario. Sin embargo, desde el punto de vista del análisis,
diseño, prueba y operación de sistemas, no solamente es deseable sino también necesario utilizar
señales determinísticas para analizar el sistema y predecir su comportamiento. Las señales
determinísticas tienen propiedades bien conocidas, además de que son más fáciles de generar y
utilizar. En el Capítulo III se presentan algunos fundamentos de las variables y procesos aleatorios.
En este texto el enfoque será mayormente desde el punto de vista determinìstico y las señales
serán preferentemente reales, es decir, aquellas accesibles a la medida.
1.2.2. Señales Periódicas y no Periódicas
Una señal periódica es aquella que se repite en una forma predecible cada T segundos,
donde T es el período de repetición de la señal, es decir,
x(t ) = x(t + T) para todo t
(1.1)
T es una constante positiva y es el valor más pequeño que satisface la expresión (1.1). Al
intervalo de un período se le denomina también un “ciclo” de la señal, aunque la palabra “ciclo” se
utiliza principalmente en señales sinusoidales.
Una señal no periódica o aperiódica se puede considerar como el límite de una señal
periódica cuanto el período T tiende a infinito. En términos más formales, una señal no periódica es
aquella para la cual no existe un T finito que satisfaga la expresión (1.1).
Pudiera pensarse que dentro de un intervalo finito una señal no periódica puede repetirse
después de un período bastante grande y ser en realidad una señal periódica. Igualmente, podemos
argumentar que una señal aparentemente periódica deje de serlo después de un tiempo lo
suficientemente grande. Desde un punto de vista práctico estos argumentos no producen ninguna
dificultad, pero en los intervalos usuales de trabajo y para efectos de análisis, hay que considerar
siempre una u otra representación.
1.2.3. Señales de Energía y de Potencia
En el dominio de la Física y la Ingenierìa la energía total de una señal x(t) en el dominio del
tiempo usualmente se define en la forma
E = lim
T →∞
∫
T/ 2
x 2 ( t )dt
T/ 2
(1.2)
La señal x(t) puede ser un voltaje o una corriente. E es la energía normalizada para una
resistencia de 1 Ohm, y se expresa en joules.
Como x(t) puede, en general, ser compleja, una definición más general de la energía es
E = lim
T →∞
donde
∫
T/ 2
T/ 2
2
x(t ) dt
2
x(t ) = x (t )x *(t ) .
J. Briceño M. Dr. Ing. -- Profesor Titular, ULA -- Mérida, Venezuela
(1.3)
6
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES
Si x(t) es real e independiente de T, la energía se puede definir en la forma siguiente, que es
la más utilizada en la caracterización de señales físicas (reales) de aplicación práctica:
E=
∫
∞
x 2 (t ) dt
(1.4)
∞
La potencia promedio de una señal x(t) en el dominio del tiempo se define como la energía
por unidad de tiempo; por lo tanto, la potencia promedio de la señal en el intervalo (-T/2, T/2) es
P=
E
T
= lim
T →∞
∫
T
1
T/ 2
T/ 2
2
x( t ) dt
(1.5)
Si la señal es periódica, no es necesario tomar el límite y la integración se efectúa dentro de
un período T, es decir,
P=
1
T
∫
T/ 2
x 2 ( t ) dt si x(t) es real y periódica
(1.6)
T/ 2
Esta es la potencia normalizada para una resistencia de 1 Ohm; se mide en vatios (W).
Mientras no se especifique lo contrario, en este texto la potencia y la energía estarán siempre
normalizadas (referidas a una resistencia de 1 Ohm).
Para simplificar la notación, en este texto utilizaremos continuamente el llamado “operador
1 T/ 2
promedio tiempo” definido mediante la expresión general < [ ] >= lim
[ ] dt o la expresión
T/ 2
T →∞ T
1 T/ 2
particular
< [ ] >=
[ ] dt . Este es un operador lineal puesto que verifica el principio de
T T/ 2
superposición
ax t
bx t
a x t
b x t , donde a y b son dos
constantes cualesquiera.
∫
∫
Algunas veces se define también la denominada “intensidad normalizada de una señal”
como la potencia o la energía normalizadas, según el caso. En este texto representaremos la
intensidad normalizada de una señal con la notación < x 2 (t ) > , que corresponderá a la energía si la
señal es de energía, o a la potencia si la señal es de potencia; sin embargo, como es costumbre en
los textos de comunicaciones, daremos preferencia a la notación < x 2 (t ) > para representar la
potencia promedio normalizada de una señal x(t); asimismo, < x ( t ) > representará el valor
promedio (componente continua) de una señal x(t).
De las definiciones (1.2) a (1.6) se puede establecer lo siguiente:
(a) Se dice que una señal x(t) es de energía si y sólo si su energía es finita, es decir, si
0<
∫
∞
x 2 (t )dt < ∞
(1.7)
∞
lim
lo cual implica que
T →∞
∫
T
1
T/ 2
T/ 2
2
x( t ) dt = 0
Las señales de energía finita tienen potencia cero.
En general, las señales de duración limitada son señales de energía finita.
(b) Se dice que x(t) es una señal de potencia si y sólo si su potencia es finita, es decir, si
0 < lim
T →∞
∫
T
1
T/ 2
T/ 2
2
x( t ) dt < ∞
J. Briceño M. Dr. Ing. -- Profesor Titular, ULA -- Mérida, Venezuela
(1.8)
Download