UNIVERSIDADE ESTADUAL PAULISTA "JÚLIO DE MESQUITA FILHO" FACULDADE DE ENGENHARIA DE ILHA SOLTEIRA DEPARTAMENTO DE ENGENHARIA ELÉTRICA ELE 0331 PRINCÍPIOS DE COMUNICAÇÕES SINAIS E SISTEMAS Ricardo Tokio Higuti & Cláudio Kitano ISA Julho/2003 SINAIS E SISTEMAS Versão 1.0: 1997 Versão 1.1: 2003 Ricardo Tokio Higuti & Cláudio Kitano Departamento de Engenharia Elétrica da Faculdade de Engenharia de Ilha Solteira UNESP Todos os direitos reservados. Reprodução por quaisquer meios proibida sem autorização dos autores. Prof. Ricardo Tokio Higuti e-mail: tokio@dee.feis.unesp.br 0xx18 3743 1128 Prof. Cláudio Kitano e-mail: kitano@dee.feis.unesp.br 0xx18 3743 1226 DEE-FEIS-UNESP Av. Brasil Norte, 364 - Caixa Postal 31 15 385 000 - Ilha Solteira – SP SINAIS E SISTEMAS Índice: PG. CAPÍTULO 1: REPRESENTAÇÃO DE SINAIS 1.1 CLASSIFICAÇÃO DOS SINAIS 1.1.1 Sinais unidimensionais e multidimensionais 1.1.2 Sinais de tempo contínuo e de tempo discreto 1.1.3 Sinais determinísticos e aleatórios 1.1.4 Sinais reais e complexos 1.1.5 Sinais limitados no tempo 1.1.6 Sinais limitados em amplitude 1.1.7 Sinais fisicamente realizáveis 1.2. TRANSFORMAÇÕES DA VARIÁVEL INDEPENDENTE 1.2.1 Rebatimento ou espelhamento 1.2.2 Compressão e expansão 1.2.3 Deslocamento no tempo 1.2.4 Relações de simetria 1.2.5 Sinais periódicos 1.3. SINAIS ELEMENTARES 1.3.1. Sinais senoidais eternos 1.3.2. Exponencial real 1.3.3. Exponencial complexa periódica 1.3.4. Exponencial complexa - caso geral 1.3.5. Função sinc 1.3.6. Função pulso triangular 1.3.7. Função pulso Gaussiano de área unitária 1.4 FUNÇÕES DESCONTÍNUAS 1.4.1 Função degrau unitário 1.4.2. Função sinal 1.4.3. Função porta ou pulso unitário 1.4.4. Função impulso 1.4.5 Sobre a existência do impulso 1.4.6 Impulsos no limite 1.5 CONVOLUÇÃO DE SINAIS 1.6 SINAIS DE ENERGIA E SINAIS DE POTÊNCIA 1.6.1 Sinais de Energia 1.6.2 Sinais de Potência 1.7. FUNÇÕES DE BESSEL DE PRIMEIRA ESPÉCIE 1.8 EXERCÍCIOS 1 1 3 3 3 4 4 5 5 5 5 6 6 7 7 8 8 9 9 11 12 12 13 13 13 14 14 15 17 18 20 26 27 28 30 32 CAPÍTULO 2: ANÁLISE DE SINAIS PERIÓDICOS : SÉRIE DE FOURIER 2.1 FASORES GIRANTES 2.1.1 Espectro de linhas unilateral 2.1.2 Espectro de linhas bilateral 2.2. PRODUTO ESCALAR – SEMELHANÇA ENTRE SINAIS 2.3 SÉRIE DE FUNÇÕES 2.3.1 Ortogonalidade de funções reais 2.3.2 Ortogonalidade de Funções Complexas 2.3.3 Série trigonométrica de Fourier 35 35 36 38 39 43 43 48 50 RTH/CK i ÍNDICE 2.3.4 Série de Fourier-Legendre 2.3.5 A Série exponencial de Fourier 2.3.6 Representação de uma função periódica pela série de Fourier 2.4 ESPECTRO DE FREQUÊNCIA DISCRETO 2.5 EXISTÊNCIA DA SÉRIE DE FOURIER 2.6- FÓRMULA DE PARSEVAL E DISTRIBUIÇÃO DE POTÊNCIA 2.7 EXERCÍCIOS 51 52 52 55 59 62 63 CAPÍTULO 3: ANÁLISE DE SINAIS APERIÓDICOS: TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO 3.1 A TRANSFORMADA DE FOURIER 3.1.1. Pulso retangular de duração (função porta) 3.1.2. Impulso de área unitária 3.2 CONVERGÊNCIA DA TRANSFORMADA DE FOURIER 3.3 RELAÇÕES DE SIMETRIA 3.4 TEOREMA DE PARSEVAL 3.5 LARGURA DE BANDA ESPECTRAL 3.6. RELAÇÃO ENTRE A TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO E SINAIS PERIÓDICOS 3.7. TRANSFORMADA DE FOURIER DE SINAIS PERIÓDICOS 3.7.1 Transformada de Fourier de seno e co-seno eternos 3.8. PROPRIEDADES DA TRANSFORMADA DE FOURIER 3.8.1 Linearidade 3.8.2 Deslocamento no tempo 3.8.3 Teorema da dualidade 3.8.4 Translação em frequência 3.8.5 Escalonamento no tempo e frequência 3.8.6 Propriedade das áreas 3.8.7 Diferenciação e integração no tempo 3.8.8 Diferenciação e integração em frequência 3.8.9 Convolução e multiplicação 3.8.10 Modulação real 3.9 TRANSFORMADAS NO LIMITE 3.9.1. Função sinal 3.9.2. Função constante 3.9.3. Degrau unitário 3.11 EXERCÍCIOS CAPÍTULO 4: ANÁLISE DE SISTEMAS 4.1. INTRODUÇÃO 4.2. CARACTERÍSTICAS DE SISTEMAS 4.2.1 Sistemas com e sem memória 4.2.2. Inversibilidade e sistemas inversos 4.2.3. Causalidade (ou realizabilidade) 4.2.4. Estabilidade 4.2.5. Invariância no tempo 4.2.6. Linearidade 4.3 RESPOSTA EM FREQUÊNCIA 4.4 RESPOSTA PARA SINAIS ARBITRÁRIOS 4.5 RESPOSTA IMPULSIVA E RESPOSTA EM FREQUÊNCIA ii 65 67 69 71 71 73 75 76 78 78 80 81 82 82 83 84 85 85 85 87 87 88 90 90 91 92 93 99 99 100 100 101 102 102 103 105 108 111 113 RTH/CK SINAIS E SISTEMAS 4.5.1 Associação de SLITs 4.5.2 Resposta impulsiva, estabilidade e causalidade 4.6 TRANSMISSÃO SEM DISTORÇÃO 4.6.1 Distorção linear e não-linear 4.6.2 Equalização 4.7 FILTROS IDEAIS 4.8 TRANSFORMADA DE HILBERT 4.9 EXERCÍCIOS 118 119 120 121 121 123 125 130 CAPÍTULO 5: AMOSTRAGEM DE SINAIS 5.1. AMOSTRAGEM DE SINAIS 5.1.1 Amostragem ideal 5.1.2 Efeito de subamostagem sobre sinais senoidais 5.2 RECONSTRUÇÃO DO SINAL 5.3 AMOSTRAGEM POR PULSOS 5.4 EXERCÍCIOS 133 133 134 140 141 142 147 CAPÍTULO 6: CORRELAÇÃO DE SINAIS 6.1. DENSIDADES ESPECTRAIS DE POTÊNCIA E DE ENERGIA 6.2. CORRELAÇÃO ENTRE SINAIS DE POTÊNCIA 6.2.1. Valor médio temporal 6.2.2. Produto escalar 6.2.3. Função de correlação cruzada 6.2.4. Função de autocorrelação 6.3. CORRELAÇÃO ENTRE SINAIS DE ENERGIA 6.4. CORRELAÇÃO ENTRE ENTRADA E SAÍDA EM SLIT 6.5. TEOREMA DE WIENER-KINCHINE 6.6. EXERCÍCIOS 149 149 150 150 150 151 151 153 155 157 158 BIBLIOGRAFIA 161 RTH/CK iii SINAIS E SISTEMAS CAPÍTULO 1: REPRESENTAÇÃO DE SINAIS No dia-a-dia, quase que constantemente nos deparamos com sinais. Um sinal geralmente contém informação sobre algum fenômeno ou acontecimento. Quando falamos ao telefone, a voz, que é um sinal acústico, é convertida em sinais elétricos pelo microfone. Este sinal elétrico é transmitido, por exemplo, por um sistema de satélites e recebido do outro lado da Terra, e convertido novamente num sinal de voz. Quando alguém se submete a um exame de eletrocardiograma, o resultado, que é um indicativo da atividade elétrica do coração, é um sinal que, analisado, mostra as condições cardiológicas do paciente. O índice mensal de inflação ao longo do ano também pode ser considerado um sinal. A energia elétrica que é distribuída para as residências é um sinal senoidal com determinada amplitude e frequência. Na Fig.1, são ilustrados alguns exemplos de sinais, a saber: a) O índice de aquecimento global do planeta entre os anos de 1850 e 2000; b) Um sinal típico de eletrocardiograma (ECG ou EKG); c) Um trecho de alguns segundos de um sinal de áudio. Nesta e em outras disciplinas do curso de graduação em engenharia elétrica será de interesse a manipulação desses sinais, quer analógica ou digitalmente. O tipo de processamento que pode ser executado depende muito do tipo do sinal [1]. Na análise do aquecimento global do planeta, por exemplo, objetiva-se extrair informações dos registros de temperatura média medidas ao longo dos anos a fim de detectar tendências. Então, pode-se perguntar: os dados são cíclicos ou periódicos? Normalmente tendem a crescer monotonicamente? Podem ser ajustados por retas ou polinômios? Podem ser estabelecidas previsões futuras com certo grau de confiança? É possível prever medidas de controle de forma a alterar a sua variação temporal de alguma forma? No caso dos gráficos de ECG pode-se perguntar: qual a forma específica do padrão de ECG? Como ele se desvia daquilo que é conhecido como “característica normal”? E, para os sinais de áudio, pergunta-se, por exemplo se é possível executar o reconhecimento automático da voz? Como executar a conversão de áudio para texto num certo idioma? E quanto a tradução automática de um idioma para outro? Neste texto pretende-se fornecer as ferramentas básicas para que o leitor possa iniciar os primeiros estudos nas áreas de processamento de sinais, bem como, em instrumentação eletrônica, telecomunicações, dentre outras disciplinas que são abordadas no curso de engenharia elétrica. Neste capítulo inicia-se apresentando-se os sinais, cuja análise será realizada no demais capítulos, juntamente com o estudo de sistemas lineares invariantes no tempo. 1.1 CLASSIFICAÇÃO DOS SINAIS A seguir são feitas algumas considerações básicas [2] que serão utilizadas posteriormente na análise dos sinais de interesse deste curso: 1 REPRESENTAÇÃO DE SINAIS (a) Eletrocardiograma 2.5 Amplitude [mV] 2 1.5 1 0.5 0 0 1 2 tempo [s] 3 4 (b) (c) Figura 1.1 – Exemplos de sinais encontrados no dia-a-dia. a) Índice de aquecimento global do planeta. b) Eletrocardiograma típico. c) Sinal de áudio (uma gargalhada). 2 SINAIS E SISTEMAS 1.1.1 Sinais unidimensionais e multidimensionais Os sinais citados anteriormente possuem apenas uma variável independente (ano, tempo, etc) e são chamados de unidimensionais. Por outro lado, uma imagem de vídeo é um sinal bidimensional, que indica uma função (luminosidade) com duas variáveis independentes de posição. Uma projeção holográfica ou um diagrama de irradiação de uma antena são sinais tridimensionais com três variáveis de posição. E assim por diante, para o caso de sinais multidimensionais. Neste texto, trabalha-se eminentemente com sinais unidimensionais em função do tempo. 1.1.2 Sinais de tempo contínuo e de tempo discreto Sinais definidos para todo instante de tempo são chamados de sinais de tempo contínuo, porém, sinais definidos apenas em determinados instantes de tempo são chamados de sinais de tempo discreto. O sinal senoidal representado na Fig. 1.2a é um sinal de tempo contínuo, e o sinal da Fig. 1.2b é um sinal de tempo discreto, pois está definido apenas para os instantes de tempo 0, 1, 2, etc. Este sinal pode ser obtido a partir da amostragem do sinal de tempo contínuo. Um outro exemplo de sinal de tempo discreto é um índice de inflação mensal. Pode-se definir ainda uma classe de sinais que são discretos no tempo e em amplitude, i.e., podem assumir somente determinados valores de amplitude, que são os sinais digitais. Um exemplo está ilustrado na Fig. 1.2c, onde a senóide assume apenas os valores de amplitude iguais a –1, -0,5, 0, +0,5 e +1. 1 (a) 0 -1 0 1 50 100 150 200 250 300 (b) 0 -1 0 1 5 10 15 20 25 30 35 (c) 0 -1 0 5 10 15 20 tempo 25 30 35 Figura 1.2 – Classificação de sinais. a) Sinal de tempo contínuo. b) Sinal de tempo discreto (obtido através de amostragem. c) Sinal digital (amplitudes –1, -0,5, 0, +0,5 e +1). Um sinal pode ser representado matematicamente por uma função de uma ou mais variáveis. Para um sinal de tempo contínuo, utilizaremos a variável independente como sendo o tempo, t, representada entre parêntesis como, por exemplo, x(t). Para um sinal de tempo discreto, normalmente utiliza-se a variável independente indicada por n ou k, entre colchetes, como x[n] ou x[k], onde n e k são números inteiros. 1.1.3 Sinais determinísticos e aleatórios Sinais determinísticos são aqueles que podem ser descritos sem nenhuma incerteza. Este tipo de sinal pode ser reproduzido de maneira exata e repetida. Um sinal senoidal puro é um exemplo de um sinal determinístico, como ilustra a Fig. 1.3a. 3 REPRESENTAÇÃO DE SINAIS Um sinal é aleatório se não pode ser descrito com certeza antes de ocorrer. Por exemplo, o conjunto dos resultados obtidos quando se joga um dado não-viciado é um sinal aleatório. Um sinal de um exame de ECG ou EEG também é um sinal aleatório, pois não pode ser previsto com certeza. Portanto sinais aleatórios não podem ser reproduzidos de maneira exata e repetida. Um exemplo de sinal aleatório (ruído) está indicado na Fig. 1.3b. 1 (a) 0 -1 0 0.5 1 1.5 2 5 (b) 0 -5 0 0.5 1 tempo [s] 1.5 2 Figura 1.3 – Classificação de sinais. a) Sinal determinístico (senóide). b) Sinal aleatório (ruído). 1.1.4 Sinais reais e complexos Sinais encontrados na prática são reais (i.e., têm parte imaginária nula). No entanto, estenderemos a análise a sinais complexos. 1.1.5 Sinais limitados no tempo Sinais limitados no tempo são sinais não periódicos e concentrados em intervalos de tempo com duração bem definida. Basicamente, estes sinais podem ser subdivididos em sinais estritamente e assintoticamente limitados no tempo. x(t) x(t) 0 t1 t2 t t2 0 t1 (a) t (b) x(t) x(t) 0 t1 t 0 t1 t (c) (d) Figura 1.4 – Sinais limitados no tempo. a) Estritamente limitado. b) Assintoticamente limitado. Sinais estritamente limitados no tempo são aqueles que têm valores não-nulos somente num intervalo de tempo [t1, t2], ou seja, iniciam e terminam em instantes de 4 SINAIS E SISTEMAS tempo definidos valendo zero para t<t1 e t>t2, como os sinais mostrados nas Figs.1.4a) e b). Por outro lado, sinais assintoticamente limitados no tempo são aqueles onde x(t)0 quando t, como aquele mostrado na Fig.1.4 c). Na Fig.1.4 d) ilustra-se um exemplo de sinal não limitado no tempo, uma vez que x(t) quando t+. 1.1.6 Sinais limitados em amplitude Um sinal é limitado em amplitude se existe um valor M tal que | x(t) |<M para todo t. Os sinais mostrados nas Figs. 1.4 a) e c) são limitados em amplitude, porém aqueles nas Figs. 1.4 b) e d) não são limitados. 1.1.7 Sinais fisicamente realizáveis Sinais fisicamente realizáveis são sinais práticos que podem ser medidos num laboratório. Basicamente, estes sinais satisfazem às seguintes condições: a) São sinais limitados no tempo; b) São sinais limitados em amplitude; c) Suas componentes espectrais significativas concentram-se num intervalo de frequências finito; d) Sua forma de onda é uma função temporal contínua; e) Sua forma de onda assume apenas valores reais. Contudo, modelos matemáticos que violam uma ou mais dessas condições serão utilizadas neste texto, pela simples razão de simplificarem a análise matemática. 1.2. TRANSFORMAÇÕES DA VARIÁVEL INDEPENDENTE Muitas vezes é necessário considerar sinais relacionados por uma transformação da variável independente. Por exemplo, considere o sinal x(t) mostrado na Fig.1.5 como sendo um trecho de música gravada numa fita. Nos itens a seguir são apresentadas algumas transformações sobre x(t). x(t) t Figura 1.5 – Pequeno trecho de um sinal de música x(t). 1.2.1 Rebatimento ou espelhamento O sinal y(t) definido a partir de x(t) como y(t) = x(-t), é interpretado como sendo o rebatimento (espelhamento) do sinal em torno do instante t=0, e corresponde, no caso do exemplo considerado, a tocar a música no sentido inverso. Esta é a operação de inversão no tempo e o resultado da transformação está ilustrado na Fig.1.6. 5 REPRESENTAÇÃO DE SINAIS y(t)=x(-t) t Figura 1.6 – Sinal y(t)=x(-t). Inversão no tempo. 1.2.2 Compressão e expansão Os sinais x(2t) e x(t/2) são, respectivamente, as versões comprimida e expandida de x(t), e correspondem a tocar a música no dobro da velocidade normal, no caso de x(2t), e na metade da velocidade normal, no caso de x(t/2). Ambos os casos estão ilustrados na Fig.1.7. x(2t) x(t/2) t t (a) (b) Figura 1.7 – Transformações de compressão e expansão. (a) Sinal x(2t): compressão. (b) Sinal x(t/2): expansão. 1.2.3 Deslocamento no tempo Frequentemente é necessário se trabalhar com sinais deslocados no tempo. O sinal x(t-) desloca x(t) de segundos para a direita, ou atrasa x(t) por segundos. Similarmente, x(t+) desloca x(t) de segundos para a esquerda, ou avança x(t) por segundos. Isto pode ser verificado facilmente através do valor da função para determinados instantes de tempo. Considere-se o sinal x(t) mostrado na Fig.1.8. Por exemplo, para t=1, x(t-1)=x(0)=1 e x(t+1)=x(2)=1; para t=3, x(t-1)=x(2)=1 e x(t+1)=x(4)=0, e assim por diante. Um sinal numa fita cassete pode, por exemplo, ser avançado ou atrasado em relação a uma referência t=0. x(t) x(t-1) 1 -2 -1 x(t+1) 1 1 1 2 3 4 (a) t -2 -1 1 2 3 4 (b) t -2 -1 1 (c) 2 3 4 t Figura 1.8 – Transformações de deslocamento no tempo. (a) Sinal x(t) original. (b) Sinal atrasado de 1 s. c) Sinal adiantado de 1 unidade de tempo As operações de inversão no tempo e deslocamento podem ser combinadas para obter outros sinais. Seja x(t) considerado na Fig.1.8, e as operações ilustradas na Fig.1.9. O sinal x(-t) é o sinal x(t) rebatido em relação ao ponto t=0. O sinal x(-t-), >0, desloca x(-t) para a esquerda por segundos. Observe que x(t-) é obtido deslocando-se x(t) para a direita. escrevendo x(-t-)=x(-(t+)), então x(-t-) pode ser obtido através do rebatimento de x(t+) em torno de t=-. Analogamente, x(-t+) é 6 SINAIS E SISTEMAS obtido a partir do deslocamento de x(-t) para a direita por segundos, ou através do rebatimento de x(t-) em torno de t=. x(-t) x(-t-1) 1 -4 -3 -2 -1 (a) x(-t+1) 1 1 1 2 t -4 -3 -2 -1 (b) 1 2 t -4 -3 -2 -1 (c) 1 2 Figura 1.9 – Operações de inversão e deslocamento no tempo. 1.2.4 Relações de simetria Um sinal é considerado par se é simétrico em relação à origem, i.e., x(t)=x(-t), tal qual o ilustrado na Fig.1.10 a). Um sinal é ímpar se é anti-simétrico em relação à origem: x(t)=-x(-t), como o ilustrado na Fig.1.10 b). Neste último caso, deve-se observar que sempre x(0)=0. t (a) t (b) Figura 1.10 – Relações de simetria. (a) Sinal par. (b) Sinal ímpar. Um fator importante é que qualquer sinal pode ser representado como a soma de dois sinais, um par e outro ímpar. Considere um sinal real x(t). Então os sinais: xe (t) x( t ) x ( t ) 2 (1.1a) x( t ) x ( t ) , 2 (1.1b) e xo (t) são tais que: x( t ) x e ( t ) x o ( t ) (1.2) onde verifica-se facilmente que xe(t) é um sinal par e xo(t) é um sinal ímpar. 1.2.5 Sinais periódicos A periodicidade de sinais também é um fator importante no estudo de sinais e sistemas. Um sinal periódico com período T deve obedecer a condição: x( t ) x( t kT), t, k inteiro . (1.3) Um sinal que não apresenta periodicidade é chamado de aperiódico. 7 REPRESENTAÇÃO DE SINAIS Um exemplo de um sinal periódico encontra-se ilustrado na Fig.1.11, onde nota-se que o sinal também é periódico com 2T, 3T,... x(t) ... ... -T T 2T t Figura 1.11 - Sinal periódico com período T. 1.3. SINAIS ELEMENTARES Os sinais básicos apresentados a seguir são importantes isoladamente, na representação de sinais mais complexos e no estudo de sistemas em geral [3], [4]. 1.3.1. Sinais senoidais eternos Um sinal senoidal é representado por: x( t ) A cos(0 t ) , (1.4) onde A é a amplitude; 0 é a frequência angular, medida em radianos por segundo; f0=2/0 é a frequência medida em ciclos por segundo ou Hertz; é a fase, medida em radianos. O sinal x(t) é periódico com período: T0 2 1 , 0 f 0 (1.5) uma vez que x( t T0 ) A cos(0 t 0 T0 ) A cos(0 t 2) A cos(0 t ) x( t ) . (1.6) Este sinal, representado na Fig.1.12, trata-se de uma aproximação idealizada, denominada (independentemente do ângulo de fase) de senóide eterna em vista de considerar < t < . Este modelo torna-se mais preciso para aplicações práticas, à medida que os tempos de observação são longos comparados com o seu período T0 = 2/0. A t 0 T0 2 1 0 f 0 Figura 1.12 – Sinal senoidal de amplitude A, fase e período T0. 8 SINAIS E SISTEMAS 1.3.2. Exponencial real A função exponencial real é definida por: x( t ) A e at , A , a reais . (1.7) Com a=0, tem-se x(t)=A, que é uma função constante. A função exponencial real está ilustrada na Fig.1.13. Para valores de “a” positivos, a função x(t) é crescente com o tempo, e se “a” for negativo, x(t) é uma função decrescente com t. A A (a) t (b) t Figura 1.13 – Exponencial real. (a) Para a>0. (b) Para a<0. A taxa de crescimento ou decaimento de x(t) depende da magnitude de “a”. Para a<0, quando t=0, x(0)=A. Quando t=1/|a| , x(t)=Ae-1 0.37A, ou seja, a função cai a aproximadamente 37% do valor em t=0. Esse valor t=1/|a| é chamado de constante de tempo. Quanto maior a constante de tempo (menor o valor de a), mais tempo a função leva para crescer ou decrescer, e vice-versa. 1.3.3. Exponencial complexa periódica Os sinais descritos até agora são representados por funções reais no tempo. Uma classe importante de sinais são as exponenciais complexas periódicas: x( t ) e j 0 t , 0 real . (1.8) Utilizando a fórmula de Euler: x( t ) e j 0 t cos 0 t jsin0 t , j 1. (1.9) Assim, aplicando-se a propriedade (1.9) quando t = 0), ocorre x(t)= ejcos(+j.sen(jOutros valores importantes da exponencial complexa estão listados na Tab.1.1 Nota-se que x(t) é um sinal complexo cuja parte real é cos 0t e a parte imaginária é sin 0t, e portanto é um sinal periódico com período T0=2/0 . Isto pode ser verificado com mais propriedade, observando-se que exp[ j 0 ( t T0 )] exp[ j0 ( t 2 / 0 )] exp( j0 t ). exp( j2) exp( j0 t ) . 9 REPRESENTAÇÃO DE SINAIS Tabela 1.1 – Alguns valores particulares da exponencial complexa. Forma Exponencial (polar) Forma retangular 1 j -1 -j 1 j0 e e j / 2 e j e j3 / 2 e j2 Podemos representar x(t) em função do tempo num gráfico tridimensional, com eixos representando as partes real e imaginária em função do tempo, conforme mostrado na Fig.1.14: 1 0.5 0 Im -0.5 1 -1 0 0 t -1 Re Figura 1.14 - Representação da exponencial complexa num gráfico tridimensional. No entanto, é mais comum representar o sinal complexo num plano complexo, parametrizado pelo tempo t, conforme a Fig.1.15: Im ejot , 0>0 0t 1 -0t Re ejot , 0<0 Figura 1.15 - Representação da exponencial complexa num plano. Neste caso, a magnitude do fasor é sempre unitária, pois: e j 0 t cos 2 0 t sin 20 t 1/ 2 1 , t (1.10) e o ângulo é dado por: 0 t atan 10 sin0 t . cos 0 t (1.11) SINAIS E SISTEMAS No caso de 0 ser positivo, à medida que o tempo evolui, o fasor gira no sentido anti-horário, e quando completa uma volta, 0t=2, ou t=2/0, que é o período. A partir desse instante, tudo volta a se repetir, explicitando a periodicidade do sinal. No caso de 0 ser negativo, à medida que o tempo passa, o fasor gira no sentido horário. Como 0 é chamada de frequência angular, uma frequência negativa indicaria apenas um sentido de rotação diferente para o fasor que representa o sinal. Da fórmula de Euler (1.9), pode-se mostrar que: e j( 0 t ) e j ( 0 t ) cos(0 t ) 2 e e j( 0 t ) e j ( 0 t ) sin (0 t ) 2j (1.12) (1.13) E ainda, pode-se representar sinais senoidais em função de exponenciais complexas, aplicando-se os operadores real, Re{ . }, e imaginário, Im{ . }: (1.14) (1.15) cos(0 t ) Re e j( 0 t ) e sin(0 t ) Im e j( 0 t ) . 1.3.4. Exponencial complexa - caso geral Um caso mais geral de exponencial complexa é: x( t ) A ea t , (1.16) com A e “a” complexos: A = |A| e j , a = r + j 0. rt |A| e , r<0 rt |A| e , r>0 t t Figura 1.16 – Exponenciais complexas. (a) r<0. (b) r>0. Assim, fica-se com: x( t ) | A| e j e rt e j0 t | A| e rt e j( 0 t ) , | A| e rt cos(0 t ) j| A| e rt sin(0 t ) (1.17) 11 REPRESENTAÇÃO DE SINAIS onde nota-se que, se r<0, as partes real e imaginária de x(t) são senóides amortecidas, ou que têm amplitudes crescentes, caso r>0. Na Fig.1.16 ilustram-se essas observações. Nota-se pelas figuras que |A|ert é a magnitude da exponencial complexa, e é chamada de envoltória. Este tipo de sinal aparece na análise de circuitos RLC e da suspensão de automóveis, por exemplo. 1.3.5. Função sinc A função sinc é definida por: x( t ) sinc( t ) sin( t ) , t (1.18) sendo o seu gráfico mostrado na Fig.1.17. 1 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -5 -4 -3 -2 -1 0 1 2 3 4 5 Figura 1.17 – Função sinc(t). Uma atenção especial deve ser dada ao cálculo de sinc(t) em t=0, o qual deve ser executado com o auxílio da regra de L’Hospital, obtendo-se sinc(0)=1 (o leitor deve verificar isto !). 1.3.6. Função pulso triangular O pulso triangular de amplitude unitária e largura , conforme desenhado na Fig.1.18, é definido através de 2 1 t , t / 2 tri( t / ) . 0 , t /2 (1.19) tri(t) 1 0 t Figura 1.18 – Função pulso triangular. 12 SINAIS E SISTEMAS 1.3.7. Função pulso Gaussiano de área unitária O pulso Gaussiano (ou simplesmente Gaussiana) de área unitária e desvio padrão , conforme desenhado na Fig.1.19, é definido como 1 t 2 1 g (t ) exp . 2 2 (1.20) g(t) 1 2 0 , 6065 0 1 2 t Figura 1.19 – Função pulso Gaussiano. Quando usada em cálculos probabilísticos a Gaussiana é denominada de distribuição normal, sendo útil em vários problemas de engenharia, física e estatística. 1.4 FUNÇÕES DESCONTÍNUAS Algumas funções que exibem transições abruptas no tempo serão discutidas nesta seção. Na prática, essas funções rigorosamente nunca ocorrem, pois os tempos entre transições sempre são finitos, porém, são extremamente importantes sob o ponto de vista de modelo matemático. 1.4.1 Função degrau unitário A função degrau unitário é definida por: 0 , t 0 u( t ) 1 , t 0 (1.21) sendo seu gráfico mostrado na Fig.1.20. Nota-se que u(t) é descontínuo em t=0. u(t) 1 t Figura 1.20 – Função degrau unitário. A função degrau frequentemente é usada quando operações de chaveamento sobre fontes DC estão envolvidas. Além disso, várias outras funções singulares podem ser dela deduzidas a partir de operações como integrações e derivações sucessivas. 13 REPRESENTAÇÃO DE SINAIS Finalmente, é muito útil na representação de sinais práticos, que existem apenas para t0. 1.4.2. Função sinal A função sinal fornece o sinal do argumento t, ou seja: 1, t 0 sgn( t ) 0, t 0 1, t 0 (1.22) sendo seu gráfico mostrado na Fig.1.21. sgn(t) 1 t -1 Figura 1.21 – Função sinal. Conforme se observa, as funções degrau e sinal podem ser relacionadas por sgn( t ) 2.u ( t ) 1 . (1.23) 1.4.3. Função porta ou pulso retangular A função porta (ou pulso) de duração T e amplitude unitária é representada por: t t x(t ) rect T T (1.24) e encontra-se desenhada na Fig.1.22. A representação como rect(t/T) ou (t/T) depende muito da referência bibliográfica utilizada. rect(t/T) -T/2 1 T/2 t Figura 1.22 – Função porta de duração T. A função porta pode ser relacionada com a função degrau através de: rect( t / T) u ( t 14 T T ) u(t ) . 2 2 (1.25) SINAIS E SISTEMAS 1.4.4. Função impulso de Dirac Outro sinal de extrema importância é a função impulso de área unitária ou delta de Dirac, (t), relacionada com o degrau unitário por: ( t ) d u( t ) dt (1.26) e portanto, t u( t ) ( ) d . (1.27) No entanto, como u(t) é descontínua em t=0, formalmente não é diferenciável nesse ponto. Vamos interpretar a função degrau unitário como uma aproximação da função u(t), tal qual definida na Fig.1.23, para 0: u(t) 1 t Figura 1.23 – Função u(t). A função (t) corresponde à derivada de u(t), e é mostrada na Fig.1.24: (t) 1/ t Figura 1.24 – Função (t). onde nota-se que (t) tem área unitária, e é zero fora do intervalo 0 t . À medida que 0, (t) fica mais estreito e com maior amplitude, mas a área continua igual a 1. Assim, no limite: ( t ) lim ( t ) (1.28) 0 e a representação gráfica da função impulso de área unitária é dada na Fig.1.25: (t) 1 t Figura 1.25 – Impulso de área unitária. 15 REPRESENTAÇÃO DE SINAIS Isto sugere que (t)=0 para todo t, exceto para t=0, onde exibe uma singularidade. O número 1 ao lado do impulso indica a área sob a função. Inclusive é mais correto se dizer que (t) é um impulso de área unitária. Exemplo 1.1: Representar graficamente a função v(t)=A.(t-T). Solução: Trata-se de um impulso de valor A, cuja representação é mostrada na Fig.1.26. v(t) A 0 t T Figura 1.26 – Impulso de valor A aplicado no instante T. Ressalta-se, novamente, que a frase “de valor A” não se refere à amplitude do impulso, que é infinita, mas à sua área e à amplitude do degrau cuja derivada ele representa. Uma propriedade importante da função impulso é a seguinte: considere x(t) uma função contínua em t=0, então a integral x( t ) ( t ) dt x(0) . (1.29) A prova é dada a seguir. Seja I x( t ) ( t ) dt lim x( t) 0 ( t ) dt lim 0 0 1 x( t ) dt . Utilizando o teorema do valor médio: b x( t ) dt x(c).( b a) , c ( a , b) . a Logo, I lim 0 1 x ()( 0) lim x () , (0, ) 0 x (0), pois como x(t) é contínua em t=0, x(0-)=x(0)=x(0+). Portanto, x( t ) ( t ) dt x(0) . 16 SINAIS E SISTEMAS Em particular, se x(t)=1, obtém-se o importante resultado ( t ) dt 1 (1.30) ou seja, (t) é uma função de área unitária. Num caso mais geral, para um impulso em t=, x( t ) ( t ) dt x() . (1.31) ou seja, a função x(t)(t-) tem área x(), área esta que é igual ao valor da função x(t) no instante t=. Isto é equivalente a se ter um impulso de área x(). Portanto pode-se escrever também: x( t ) ( t ) x( ) ( t ) (1.32) A equação (1.31) corresponde à propriedade de amostragem do impulso, ou seja, quando se multiplica uma função x(t) por um impulso de área unitária num instante t=, a área sob a função resultante equivale ao valor da função x(t) no instante t=. Uma propriedade adicional do impulso refere-se à mudança de escala: ( t ) 1 ( t ), 0 , (1.33) o qual pode ser demonstrado integrando-se ambos os lados em - < t <. Se = -1, então, (-t)=(t), evidenciando que o impulso tem simetria par. 1.4.5 Sobre a existência do impulso O impulso unitário prova ser muito útil e, às vezes, essencial, na análise de sinais e sistemas. O impulso não é uma função no sentido matemático estrito [5]. Ao contrário, a integral definida de uma função que é nula em todos os pontos, exceto um, deveria ter um valor nulo. Por outro lado, x(t) será uma função de “t” se, e somente se, ela puder ser completamente descrita por uma relação ponto-a-ponto, ou seja, atribuindo-se a “x” um valor único para cada valor de “t” dentro da faixa de interesse. Assim, por exemplo, uma afirmativa de que x(t) é zero para t0, e não existe em t=0, até que definiria uma função satisfatória em todos os pontos. Embora algumas equações, inclusive integrais, possam ser usadas para definir indiretamente uma função, elas não podem conter informação que não possa ser deduzida da descrição direta, ponto-a-ponto da função. A afirmativa de que (t) tem área igual à unidade é portanto inadmissível sob o ponto de vista da matemática convencional. Observe também que as equações (1.26) e (1.27) resultam de t ( t ) du ( t ) / dt e u ( t ) ( ).d devido a que as funções u(t) e (t) se 17 REPRESENTAÇÃO DE SINAIS tornam u(t) e (t), respectivamente, quando se aproxima de zero. Esta hipótese é correta, entretanto, somente se du ( t ) d lim u ( t ) lim 0 dt dt 0 e t t lim ().d [lim ()].d . 0 0 Como as definições de diferenciação e integração envolvem um processo limite, o que foi feito, de fato, foi trocar a ordem de dois processos limites, o que nem sempre é justificável. Uma maneira de justificar rigorosamente os resultados dessa seção pode ser executada recorrendo-se à teoria das distribuições, a qual considera o impulso unitário como função generalizada ou distribuição, o que inclui as funções ordinárias da matemática convencional como casos particulares. Entretanto, isto está fora do escopo deste texto. 1.4.6 Impulsos no limite Embora um impulso não exista fisicamente, várias funções convencionais possuem as propriedades de (t) no limite, quando algum parâmetro tende a zero. Em particular, se a função (t) for tal que lim v( t ). ( t ).dt v(0) 0 (1.34) então, é dito que lim ( t ) ( t ) . (1.35) 0 Exemplo 1.2: Mostrar que (1.34) é satisfeito para (t) na forma do pulso mostrado na Fig. 1.27. (t) - 0 t Figura 1.27 – Impulso no limite. Solução: Pela figura verifica-se que ( t ) 1 rect ( t / ) . Seja v(t) uma função arbitrária na origem e cuja série de McLaurin é 18 SINAIS E SISTEMAS v( t ) v(0) v(0).t v(0) 2 t ... 2! Então, v(0) / 2 v(0) / 2 v(0) / 2 2 t dt ... v( t ). ( t ).dt lim dt t.dt /2 0 /2 2! / 2 v(0) v(0) 3 lim v(0) . ... v(0) .0 0 2 ! 12 lim 0 o que conclui a demonstração. Outras funções que satisfazem o critério (1.34) são listadas a seguir, cujos gráficos encontram-se desenhados na Fig.1.28: (t) (t) 0 t (a) 0 t (b) (t) (t) 1/ 2/ 0 (c) t t 0 (d) Figura 1.28 – Outros exemplos de impulsos no limite. a) Pulso sinc. b) Pulso gaussiano. c) Pulso triangular. d) Pulso exponencial. a) Pulso sinc (t) 1 t sinc . (1.36) 19 REPRESENTAÇÃO DE SINAIS b) Pulso Gaussiano t 2 1 ( t ) exp . (1.37) c) Pulso triangular (t) 2 t tri . (1.38) d) Pulso exponencial (t) t 1 exp . 2 (1.39) 2.5 CONVOLUÇÃO DE SINAIS A convolução entre dois sinais x1(t) e x2(t) é definida pela integral x1 ( t ) x 2 ( t ) x ( ) x 1 2 ( t )d . (1.40) A integral de convolução é executada em relação à variável muda , sendo t considerada como constante. O resultado da convolução sempre resulta numa função temporal, por isso, em certos livros utiliza-se a notação simplificada x1(t)*x2(t) = x1*x2(t) para indicar que a função resultante x1*x2 depende de t [3]. Considere as funções x1(t), x2(t) e x3(t). A partir da definição (1.40), podem ser demonstradas as seguintes propriedades: a) Propriedade comutativa x1 ( t ) * x 2 ( t ) x 2 ( t ) * x1 ( t ) x 2 () x1 ( t )d . (1.41) b) Propriedade associativa x1 * ( x 2 * x 3 ) ( x1 * x 2 ) * x 3 . (1.42) c) Propriedade distributiva x1 * ( x 2 x 3 ) ( x1 * x 2 ) ( x1 * x 3 ) . (1.43) d) Derivada do produto d dx dx ( x1 * x 2 ) x1 * 2 1 * x 2 . dt dt dt 20 (1.44) SINAIS E SISTEMAS Exemplo 1.3: Calcular a convolução v*w(t) para os sinais v(t) e w(t) mostrados na Fig.1.29. Solução: As funções v(t) e w(t) podem ser descritas por: v( t ) u ( t 1) u ( t 1) e w ( t ) u ( t 2) u ( t 2) e assim v() w ( t ) [u ( 1) u ( 1)].[u ( t 2) u ( t 2)] . v(t) 1 -1 t 1 (a) 1 w(t) -2 t 2 (b) (t+3).u(t+3) 3 (t-3).u(t-3) 1 -3 -1 3 -1 t -(t-1).u(t-1) v*w(t) -3 -(t+1).u(t+1) 2 -1 1 3 t (c) Figura 1.29 – Cálculo da convolução. a) Função v(t). b) Função w(t). c) Resultado da convolução: v*w(t) é superposição das retas desenhadas. Aplicando a definição (1.40), obtém-se v * w ( t ) u ( 1).u ( t 2).d u ( 1).u ( t 2).d u ( 1).u ( t 2).d u ( 1).u ( t 2).d . 21 REPRESENTAÇÃO DE SINAIS 0, 1 0, 1 e u ( 1) , então 1, 1 1, 1 Como u ( 1) 1 1 v * w ( t ) u ( t 2).d u ( t 2).d u ( t 2).d 1 u ( t 2).d 1 0, t 2 0, t 2 e u ( t 2) , e então 1, t 2 1, t 2 Também u ( t 2) u ( t 2).d 1 1 1 t2 1 u ( t 2).d 1 t 2 1 u ( t 2 ). d u ( t 2).d t 2 1 d t 3 desde que t+2>-1, i.e., t >-3, d t 3 desde que t-2>1, i.e., t >1, t2 1 d t 3 desde que t+2>1, i.e., t >-1 e d t 3 desde que t-2>1, i.e., t >3. Portanto, a expressão final da convolução é v * w ( t ) ( t 3).u ( t 3) ( t 1).u ( t 1) ( t 1).u ( t 1) ( t 3).u ( t 3) e cujo gráfico está desenhado na Fig.1.29 c). Conforme se observa pelo exemplo anterior, o gráfico da convolução v*w(t) tem largura final igual à soma das larguras das funções individuais v(t) e w(t). Este resultado também se aplica para funções v(t) e w(t) arbitrárias, indicando que a operação de convolução implica num alargamento temporal. Além disso, a função resultante torna-se mais “suave” que as funções individuais [6]. Embora esta operação possa ser executada analiticamente (em alguns poucos casos e com certa dificuldade) ou numericamente, torna-se interessante discutir o processo de determinação gráfica, o qual pode simplificar sensivelmente os cálculos. Exemplo 1.4: Convolução gráfica Executar a convolução dos sinais x(t) e y(t) mostrados na Fig.1.30: x(t) -3 -2 -1 y(t) 2 2 1 1 1 2 3 4 t -3 -2 -1 Figura 1.30 – Sinais x(t) e y(t). 22 1 2 3 4 t SINAIS E SISTEMAS Solução: A convolução entre c( t ) x( t ) y( t ) x(t) e y(t) é dada por: x( ) y( t ) d , ou seja, para cada instante de tempo t, o sinal c(t) é a integral (área) do sinal que é obtido da multiplicação de x() por y(t-). Note que, como se está integrando em , deve-se realizar em y uma inversão seguida de um deslocamento de t. Tem-se na Fig.1.31 os sinais x() e y(-), ou seja, para t=0: y(-) 2 x() 1 -3 -2 -1 1 2 3 4 t=0 Figura 1.31 – x() e y(-). t=0. onde se observa facilmente que a multiplicação entre as funções é igual a zero, e portanto c(t=0)=0. Como para t<0, y(t-) é deslocado para a esquerda, para t<0, também tem-se que c(t)=0. Para t>0, nota-se que a multiplicação entre x() e y(t-) será igual a zero (x e y não vão se sobrepor) até o instante t=1, e portanto, c(t)=0 para t<1. No instante t=1, tem-se a Fig.1.32: y(1-) 2 x() 1 -3 -2 -1 1 t=1 2 3 4 Figura 1.32 – x() e y(1-). t=1. No instante t=1+t, a multiplicação entre x e y não será mais zero, conforme esquematizado na Fig.1.33: y(1+t-) 2 2 x() 1 -3 -2 -1 1 (a) 2 3 t=1+t x().y(1+t-) 1 t 4 t 1 2 3 4 (b) Figura 1.33 – (a) x() e y(1+t-). t=1+t. (b) x(). y(1+t-). A área hachurada é igual a c(1+t). e a área hachurada na figura é igual ao valor de c(t=1+t), que é igual a (t)2/2. Para 1t2, tem-se que y está sobrepondo-se a x, e, portanto: 23 REPRESENTAÇÃO DE SINAIS c( t 1 t ) t 2 , 0 t 1 2 ou, na variável t: ( t 1) 2 c( t ) , 1 t 2. 2 Para t=2+t, a ponta do triângulo começa a “sair” do quadrado, e os sinais ficam como na Fig.1.34: y(2+t-) 2 x() 1 -3 -2 -1 1 2 x().y(2+t-) 2 t 1 3 4 t=2+t t 1 (a) 2 3 4 (b) Figura 1.34 – (a) x() e y(2+t-). t=2+t. (b) x(). y(2+t-). A área hachurada é igual a c(2+t). e a região hachurada tem área ou, c( t ) t 1 2 t , 2 t ( 2 t ) 3 2 3 ,2t3 2 Para t=3+t, tem-se a Fig.1.35: 2 y(3+t-) x() 1 -3 -2 -1 1 2 x().y(3+t-) 2 t 1 3 4 t=3+t t (a) 1 2 3 4 (b) Figura 1.35 – (a) x() e y(3+t-). t=3+t. (b) x(). y(3+t-). A área hachurada é igual a c(3+t). ou seja, a área hachurada começa a diminuir, com valor: (2 1 t )(1 t ) 3 2 t t 2 , 3 t (3 t ) 4 2 2 ou c( t ) 24 4t t 2 , 3 t 4 2 SINAIS E SISTEMAS e para t>4, os sinais não mais se sobrepõem, e c(t)=0 para t>4. Resumindo, obtém-se: 0 2 ( t 1) 2 3 c( t ) t 2 4t t 2 2 0 , t 1 , 1 t 2 ,2t3 , 3 t 4 ,t4 cujo gráfico encontra-se desenhado na Fig.1.36. c (t) 1 .5 1 0 .5 0 0 1 2 3 4 5 t Figura 1.36 – Sinal resultante da convolução c(t). A função impulso unitário, como já foi vista, apresenta a importante propriedade relacionada à amostragem (1.31). Uma outra propriedade importante é obtida considerando-se a convolução: x( t ) ( t ) x() ( t ) d , Como já foi visto, a integral acima é igual ao valor da função x() em =t, ou seja, x( t ) ( t ) x( ) ( t ) d x( t ) (1.45) e o resultado é que a convolução de um sinal com um impulso é igual à própria função. Esta propriedade é denominada de replicação. Se o impulso estiver deslocado de t0: x( t ) ( t t 0 ) x( ) ( t t 0 ) d x( t t 0 ) (1.46) ou seja, faz-se um deslocamento de t0 na função x(t). 25 REPRESENTAÇÃO DE SINAIS Exemplo 1.5: a) Esboçar o gráfico da função trem de impulsos definida por rep T [( t )] (t nT) , para n inteiro n b) Esboçar o gráfico de rep T [ v( t )] v( t ) * rep T [( t )] , onde v( t ) A.rect ( t / ) , para <T. Solução: a) O gráfico de repT[(t)] encontra-se desenhado na Fig. 1.37 a) b) Usando-se a propriedade de replicação, obtém-se rep T [ v( t )] v( t ) * (t nT) n v(t ) * (t nT) n v(t nT) n cujo gráfico encontra-se desenhado na Fig.1.37 b). repT(t) ... ... -2T -T 0 T t 2T (a) v(t) A ... -2T ... -T 0 T 2T t (b) Figura 1.37 – Trem de funções. a) Trem de impulsos. b) Trem de pulsos. 1.6 SINAIS DE ENERGIA E SINAIS DE POTÊNCIA Em sistemas elétricos, geralmente se trabalha com correntes e tensões. Se uma tensão v(t) é aplicada num resistor de 1, a corrente que passa por ele é i(t)=v(t) e a potência dissipada é igual a p(t)=v(t).i(t)=v2(t). Assim, a energia fornecida pelo sinal v(t) num intervalo de tempo [t1, t2] é: t2 Energia = v 2 ( t ) dt . t1 26 SINAIS E SISTEMAS De maneira similar, se uma corrente i(t) passa por um resistor de 1, a tensão sobre ele é v(t)=i(t), e a potência dissipada igual a p(t)=v(t).i(t)=i2(t). Assim, a energia fornecida pelo sinal i(t) num intervalo de tempo [t1, t2] é: t2 Energia = i2 ( t ) dt . t1 1.6.1 Sinais de energia Estendendo-se a discussão para um sinal x(t) real ou complexo, sua energia (Ex) no intervalo [t1, t2] é definida como: t2 Ex = t2 x( t ). x ( t ) dt | x( t )|2 dt t1 (1.47) t1 onde, se x(t) for real, x(t).x*(t)=x2(t). Um sinal é chamado de sinal de energia, se tem energia finita (E) no intervalo (-, ): E | x( t )| 2 dt . (1.48) Exemplo 1.6: Avaliar se o sinal v(t)= e-2|t| é um sinal de energia Solução: Valos avaliar a integral e 2 |t | 2 2 4 t dt 2 e dt e 4 0 0 4 t 1 2 e portanto, v(t) é um sinal de energia. Antes de prosseguir, vamos lembrar que uma função x(t) é estritamente limitada no tempo se tem valores não-nulos somente num intervalo de tempo [t1, t2], sendo nula para t<t1 e t>t2. As funções porta e pulso triangular são exemplos de funções estritamente limitadas no tempo. Já uma função x(t) é dita assintoticamente limitada no tempo se x(t)0 quando t. Esses dois tipos de funções são de duração finita. Como contra-exemplo, cita-se a senóide eterna que, como o próprio nome especifica, não tem duração finita. Por outro lado, um sinal é limitado se existe um valor M tal que | x(t) |<M para todo t. A função degrau, por exemplo, é limitada pois u(t)<M, para qualquer M>1, e para todo t. Por outro lado, o delta de Dirac e a função exponencial real não são limitadas. Assim, pode-se afirmar que se um sinal for limitado e de duração finita ele será um sinal de energia, pois 27 REPRESENTAÇÃO DE SINAIS | x( t )| 2 t2 | x( t )| dt 2 dt M 2 t1 t2 dt M 2 ( t 2 t1 ) . t1 A maioria dos sinais encontrados na prática são limitados e de duração finita, e portanto são sinais de energia. 1.6.2 Sinais de potência A potência média (Pm) de um sinal x(t) num intervalo [t1, t2] é definida como t 1 2 Pm | x( t )|2 dt . t 2 t1 t (1.49) 1 Um sinal é chamado de sinal de potência se a potência média definida por T 1 2 | x( t )|2 dt x( t ) T 2T T P lim (1.50) for diferente de zero e finita. Definindo-se então: T ET | x( t )|2 dt , (1.51) T observa-se que E lim ET T (1.52) para sinais de energia, e 1 ET . T 2T P lim (1.53) para sinais de potência. Para um sinal de energia, a energia total é finita, e portanto P=0. A energia total de um sinal de potência deve ser infinita, pois senão a potência seria nula. Logo, um sinal pode ser um sinal de potência ou um sinal de energia, mas não ambos simultaneamente. No entanto, um sinal pode não ser um sinal de energia nem de potência. Exemplo 1.7: Considere o sinal v(t)=e-2t . Verificar se v(t) é um sinal de energia ou de potência. Solução: A energia do sinal é: 28 SINAIS E SISTEMAS T ET e 2 t 2 T T 1 dt 2 e 4 t dt (e 4 T e 4 T ) 4 T e para T, ET. A potência média do sinal é: 1 e 4 T e 4 T e4T 4e 4 T PT lim E T lim lim lim T 2T T T 8T T 8T 8 e portanto e-2t não é um sinal de energia nem de potência. Para sinais periódicos, com período T0 , o cálculo da potência média pode ser simplificado: T T /2 1 1 0 1 2 Pm P lim | x ( t )| dt | x( t )|2 dt T0 T / 2 T0 T 2T T 0 T0 | x( t )|2 dt (1.54) 0 Se o sinal periódico x(t) for limitado, então ele é um sinal de potência. Exemplo 1.8: Considere o sinal senoidal x(t)=A cos(0t + ). Calcular sua potência média. Solução: Aplicando-se (1.53) T 1 A2 2 2 A cos ( t ) dt lim 0 T 2T T 2T T P lim 2 A T 4T lim T T 1 cos 2( 0 t ) 2 dt 2 sin (2 0 T 2) sin (2 0 T 2) 2T 4 0 A 2 A 2 sin (2 0 T 2) A 2 sin (2 0 T 2) lim 16T 0 T 2 2 A 2 Pode ser verificado que, integrando num período, chega-se no mesmo resultado. Um sinal de frequência modulada, FM, com sinal modulante senoidal de amplitude Am e frequência m , é representado por v( t ) A p . cos[p t A m sen m t ] = A p cos p t. cos[A m sen m t ] sen p t. sen[A m sen m t ], onde Ap e p são as amplitude e frequência da portadora [3]. Este sinal envolve termos do tipo cos[cos(x)] e sen[sen(x)], os quais podem ser adequadamente expandidos em série de funções de Bessel. Devido à importância desse tipo de função, tal tópico será analisado na próxima seção. 29 REPRESENTAÇÃO DE SINAIS 1.7. FUNÇÕES DE BESSEL DE PRIMEIRA ESPÉCIE Existe uma classe de funções da física matemática, denominada de funções especiais, que se prestam a descrever soluções para equações diferenciais específicas como, por exemplo, a equação diferencial de Bessel [7]. São soluções dessa equação as funções de Bessel de primeira espécie, de segunda espécie (ou funções de Neumann) e de terceira espécie (ou funções de Hankel). Outros exemplos de funções especiais são a função gama, a função beta, a função erro, os polinômios de Legendre, os polinômios de Hermite, os polinômios de Jacobi, os polinômios de Gegenbauer, etc. Neste texto nos limitaremos a estudar as funções de Bessel de primeira espécie, devido à sua importância na teoria de comunicações. A função de Bessel de primeira espécie e ordem n pode ser definida através da série de potências (1) k ( x / 2) n 2 k k 0 k! ( n k 1) J n (x) (1.55) onde (n) é a função gama. Se n for inteiro, então, (n+1)=n!, e assim, J n (x) xn x2 x4 1 ... . n 2 n! 2(2n 2) 2.4 (2n 2)(2n 4) (1.56) Na Fig. 1.38 são ilustradas as 4 primeiras funções de Bessel, evidenciando o comportamento oscilatório e decrescente à medida que o argumento x aumenta. Figura 1.38 - Funções de Bessel de primeira espécie. A partir de (1.55) pode-se mostrar que, se n for inteiro, então J n ( x ) (1) n J n ( x ) . (1.57) Além disso, com o auxílio de séries de potências, pode-se mostrar que a função geratriz para Jn(x), onde n é inteiro, é 30 SINAIS E SISTEMAS e x 1 t 2 t J n n (x) t n . (1.58) A partir de (1.58) é possível demonstrar as seguintes relações de recorrência: 2n J n ( x ) J n 1 ( x ) x dJ n ( x ) 1 b) [J n 1 ( x ) J n 1 ( x )] dx 2 d n c) [ x J n ( x )] x n J n 1 ( x ) dx d n d) [ x J n ( x )] x n J n 1 ( x ) dx a) J n 1 ( x ) (1.59a) (1.59b) (1.59c) (1.59c) Exemplo 1.9: A partir da função geratriz mostrar que a) cos( x sen ) J 0 ( x ) 2 J 2 ( x ). cos 2 ... b) sen( x sen ) 2 J 1 ( x ). sen 2 J 3 ( x ). cos 3 ... Solução: Basta fazer t e j em (1.58) 1 exp[ x (e j e j )] e jx sen J n ( x ) e jn J n ( x ) [cos n j sen n] 2 n n {J 0 ( x ) [J 1 ( x ) J 1 ( x )] [J 2 ( x ) J 2 ( x )] cos 2 ...} j {[ J 1 ( x ) J 1 ( x )] sen [J 2 ( x ) J 2 ( x )] sen 3 ...} a partir da qual mostra-se o desejado. A partir desse exemplo, podem ser extraídas as importantes relações: cos( x sen ) J 0 ( x ) 2 J 2 ( x ). cos 2 ... sen( x sen ) 2 J 1 ( x ). sen 2 J 3 ( x ). cos 3 ... e jx sen J n n ( x ) e jn (1.60a) (1.60b) (1.60c) usadas com grande frequência na teoria de comunicações. Exemplo 1.10: Mostrar a seguinte relação integral: J n (x) 1 cos( x sen n) 0 Solução: Vamos lembrar que 31 REPRESENTAÇÃO DE SINAIS 0, cos m . cos n d 0 / 2, 0, sen m . sen n d 0 / 2, mn mn mn mn Assim, multiplicando-se a expressão (1.60a) por cos(n) e a expressão (1.60b) por sen(n), e integrando-se entre 0 e , obtém-se (mostrar isto !) J n ( x ), n par ou zero cos( x sen ) . cos n d 0 n ímpar 0, n par ou zero 0, 0 sen(x sen ). sen n d J n (x ), n ímpar Executando-se a soma no caso onde n é zero ou par, obtém-se 1 [cos( x sen ). cos n sen( x sen ). sen n].d 0 1 [cos( x sen n)].d 0 J n (x) A mesma relação se mantém quando n é ímpar, ou seja, é válida para qualquer n inteiro. Vamos observar que, para f () sen(x sen n) , então, f(-) = - f(), ou seja, é uma função ímpar. Portanto, sua integral no intervalo deve ser nula. Assim, utilizando-se o exemplo anterior, conclui-se que J n (x) 1 j( x sen n) e d 2 (1.61) A seguir, apresentam-se alguns exercícios para que o leitor possa testar o conhecimento adquirido neste capítulo. 1.8 EXERCÍCIOS 1.8.1 Dois sinais de tempo contínuo são mostrados na Fig.P1.8.1. Esboce cuidadosamente os seguintes sinais, com escalas: x(t) h(t) 2 1 -1 1 1 2 3 t -1 Figura P1.8.1 32 -2 -1 1 2 3 t SINAIS E SISTEMAS i) x ( t 2 ) ii) x(1 t ) iii) x ( 2 t 2 ) iv) x ( 2 t / 3) v) x ( t ) x ( 2 t )u (1 t ) vi) x ( t ) ( t 3 / 2 ) ( t 3 / 2 ) vii) x ( t ) h ( t 1) viii) x ( t 1) h (1 t ) ix) x ( 2 t / 2 ) h ( t 4 ) x) x e ( t ) (parte par) xi) x o ( t ) (parte ímpar) 1.8.2 A soma de duas ou mais senóides pode ou não ser periódica dependendo da relação entre as frequências. Considere a soma de duas senóides com frequências f1 e f2 . Para a soma ser periódica, f1 e f2 devem ser comensuráveis, i.e., deve existir um número f0 contido um número inteiro de vezes em f1 e f2. Se f0 é esse número, então: f1=n1f0 e f2=n2f0 onde n1 e n2 são inteiros, e f0 é a frequência fundamental. Para os sinais abaixo, determine quais são periódicos e o período, quando aplicável. a) b) c) d) x(t ) x(t) x(t) x(t) 2 cos( 2 t ) 3sin (5t ) cos(5t ) 5 cos(15t ) 3sin (10t ) sin (12t ) 4 cos( 2t ) 3 cos( 4 t ) 5sin ( 26t ) 1 (t) 2 Sugestão: Examine a função ( 2t ) 1.8.3 Mostre que: ( 2 t ) t 1 1.8.4 Considere-se a função f ( t ) A . .rect( t / T) , para A e T constantes. T 2 a) Esboçar o gráfico de f(t). b) Obter analiticamente o resultado de f(t)*repT[(t)]. c) Esboçar o gráfico de f(t)*repT[(t)]. Qual o nome usual dessa função ? 1.8.5 Calcular o valor das seguintes integrais definidas a) b) c) (t ).(t (t ).(t 1 1 5 3 ( t ).( t 2 1).dt 2 2 1).dt 1).dt 2 (t 1).(t e) ( t 1).( t f) (1 t ).( t d) 1 5 3 2 3 4 1).dt 4 t 2).dt 2).dt 33 REPRESENTAÇÃO DE SINAIS t 1.8.6 Mostre que x( t ) u( t ) x( t ) dt 1.8.7 34 Executar a convolução, graficamente, das funções v( t ) A.e t u ( t ) t w ( t ) [u ( t ) u ( t T)] . T Sugestão: Consultar o livro do Carlson [3]. e SINAIS E SISTEMAS CAPÍTULO 2: ANÁLISE DE SINAIS PERIÓDICOS : SÉRIE DE FOURIER Um dos principais objetivos de se analisar sinais é o de determinar o conteúdo de frequência ou a faixa de frequência de sinais. Isto é de extrema importância em diversos campos de aplicação. Em comunicações, sinais transmitidos por estações AM são limitados na faixa de 535 kHz a 1650 kHz [3], [4]. Sinais de estações FM ocupam a faixa de frequência entre 88 MHz a 108 MHz, as de televisão UHF ocupam faixas entre 470 MHz e 890 MHz, e assim por diante, para os demais tipos de serviços. Um sinal de voz típico ocupa uma faixa de 200 Hz a 4 kHz. Através da análise de sinais é possível entender como um sinal de voz ou de música é transmitido em outra faixa de frequência (através de modulação). Na área médica, por exemplo, a análise de um sinal resultante de um exame de eletrocardiograma (ECG) ou eletroencefalograma (EEG) pode indicar se o paciente possui alguma anomalia cardíaca ou na atividade elétrica cerebral. Um submarino emite um sinal acústico próprio dependendo da rotação dos propulsores e vibração dos motores. Este sinal pode ser utilizado em detecção submarina. Abelhas africanizadas (ou "assassinas") e domésticas são quase idênticas em tamanho e aparência, e uma das maneiras de diferenciá-las é com a ajuda de um microscópio. No entanto, descobriu-se que elas batem as asas em frequências diferentes, e, consequentemente, geram sinais diferentes. Estes sinais, detectados, podem ser utilizados para identificar as abelhas assassinas e controlar sua disseminação. Uma outra aplicação importante de análise de sinais é a eliminação de certos tipos de ruídos como o de máquinas, transformadores de potência, ventiladores industriais, etc. Estes tipos de equipamentos geram sinais periódicos, que podem ser decompostos em vários sinais. Um microfone pode captar esse ruído e um sistema computadorizado analisar este sinal e gerar um outro sinal que é a imagem do ruído (um anti-ruído). Isto cancela o ruído, não afetando a conversa normal entre as pessoas que estejam no ambiente, por exemplo, dentro de um avião. Neste capítulo aborda-se a primeira parte da análise dos sinais de tempo contínuo, enfatizando-se os sinais periódicos, através da série de Fourier. No Capítulo 3, serão analisados em detalhes os sinais aperiódicos, com o auxílio da transformada de Fourier. Antes, porém, pretende-se discutir alguns conceitos preliminares sobre espectros de linhas, produto vetorial e similaridades entre sinais variáveis no tempo. 2.1 FASORES GIRANTES Considere, inicialmente, o problema do regime permanente senoidal, tal qual estudado na teoria de circuitos elétricos. Nesse caso, os sinais são constituídos por senóides eternas e têm representação temporal como ilustrado na Fig.2.1, e conforme discutido na Capítulo 1. Assim, se x(t) for um sinal senoidal, então x ( t ) A. cos(0 t ) (2.1) 35 ANÁLISE DE SINAIS PERIÓDICOS: SÉRIE DE FOURIER onde A é o valor de pico ou amplitude, 0 é a frequência angular e é o ângulo de fase. x(t) T=20 A A cos ... ... t -/0 0 -A Figura 2.1 – Sinal senoidal eterno. A frequência angular, 0 [rad/s], relaciona-se com a frequência linear, f0 [Hertz], através de 0=2f0. Conforme já foi enfatizado, a senóide eterna trata-se de uma aproximação idealizada, em vista de considerar todos os instantes de tempo ( < t < ). O modelo torna-se mais preciso, à medida que os tempos de observação sejam longos comparados com o seu período T = 2/0. 2.1.1 Espectro de linhas unilateral A representação espectral do sinal senoidal pode ser obtida em termos de fasores girantes, deduzidos a partir do teorema de Euler: e j cos j.sen (2.2) onde é um ângulo arbitrário. No caso da senóide eterna (2.1), percebe-se que ( t ) Re [A.e j .e j0 t ] . (2.3) O termo entre colchetes em (2.3) pode ser interpretado como um vetor girando no plano complexo, z, conforme ilustra a Fig.2.2. Assim, define-se o fasor girante associado a v(t) como sendo o número complexo (na forma polar) z z( t ) A.e j .e j0 t (2.4) O fasor girante tem magnitude A, gira no sentido anti-horário numa taxa de f0 ciclos por segundo (ou Hertz) e em t = 0 forma um ângulo com o eixo real positivo. A projeção do fasor sobre o eixo real permite recuperar x(t), conforme estabelecido por (2.3). Im A 0 z ot+ Re Figura 2.2 - Fasor girante no plano complexo z. 36 SINAIS E SISTEMAS Uma representação equivalente para o fasor complexo z(t), no domínio da frequência, constitui o espectro de linhas (ou raias) unilateral, mostrado na Fig.2.3. Este diagrama informa que na frequência de oscilação f0, o fasor girante tem magnitude A, representado através de uma linha no espectro de magnitudes, e fase , representado por uma linha no espectro de fases. MAGNITUDE A f fo 0 FASE 0 fo f Figura 2.3 - Espectro de linhas unilateral. A fim de padronizar a representação espectral dos sinais, torna-se adequado estabelecer as seguintes convenções [3]: a) A variável independente para representar o espectro é a frequência linear, f , (e não a frequência angular, ). Um valor particular de f é identificado por um subscrito como, por exemplo, f0 ; b) Os ângulos de fase são medidos em relação à função co-seno. Sinais em seno precisam ser convertidos para co-senos, através da identidade: sen = cos(-900); c) Considera-se que a magnitude é sempre uma grandeza positiva. Quando sinais negativos estão presentes, utiliza-se a identidade: -A.cos = A.cos( 1800). Exemplo 2.1: Esboçar o espectro unilateral do sinal w ( t ) 7 10 cos(40t 60 0 ) 4 sen(120t ) , cuja forma de onda está desenhada na Fig.2.4 a). Solução: O espectro de linhas unilateral de w(t) pode ser obtido observado-se que w ( t ) 7 cos(20 t ) 10 cos(220t 120 0 ) 4 cos(260 t 90 0 ) e encontra-se desenhado na Fig. 2.4 b) w(t) 20 10 0 1/20 (a) t (Fig.2.4 continua ...) 37 ANÁLISE DE SINAIS PERIÓDICOS: SÉRIE DE FOURIER MAGNITUDE 10 7 4 0 20 FASE f 100 120 o 100 0 20 f -90 o (b) Figura 2.4 - Análise espectral de w(t). a) Sinal temporal w(t). b) Espectro de w(t). O exemplo anterior é muito ilustrativo pois evidencia que uma superposição de senóides com diferentes frequências e fases pode dar origem a uma forma de onda não- senoidal, embora ainda periódica. Assim, pode-se indagar se uma outra forma de onda arbitrária (porém periódica) como uma dente-de-serra, por exemplo, poderia ser sintetizada a partir da superposição de senóides. Nas próximas seções esta conjectura será confirmada, através do estudo da série de Fourier. 2.1.2 Espectro de linhas bilateral As representações espectrais unilaterais podem não ser tão interessantes e genéricas quanto a representação denominada espectro bilateral, que envolve frequências positivas e negativas. Nesse caso, recorre-se à propriedade dos números 1 complexos Re[z] (z z*) , onde z é uma grandeza complexa e z* é o seu 2 complexo conjugado. Assim, a partir de (2.3) e (2.4), para z A.e j .e jt , obtém-se x ( t ) A. cos(0 t ) A j j0 t A j j0 t e e e e 2 2 (2.5) onde 0=2f0. O par de fasores conjugados em (2.5) encontra-se desenhado, no plano complexo, conforme a Fig.2.5 Im z A 0 A ot+ ot+ Re z* Figura 2.5 - Fasores girantes conjugados. Por sua vez, o espectro de linhas bilateral, encontra-se registrado na Fig.2.6, a qual inclui informações sobre ambos os fasores: o fasor normal, associado à frequência positiva (+f0), e o fasor conjugado, correspondente à frequência negativa (f0), a fim de especificar a direção de rotação negativa (no sentido horário). 38 SINAIS E SISTEMAS MAGNITUDE A/2 A/2 0 f FASE 0 f Figura 2.6 - Espectro de linhas bilateral. Conforme se observa, o espectro de magnitudes possui simetria par, enquanto o espectro de fases tem simetria ímpar. Exemplo 2.2: Esboçar o espectro bilateral do sinal w(t) estudado no exemplo 2.1. Solução: O sinal w(t) pode ser rescrito como 0 0 0 0 e j120 e j2 40 t e j120 e j2 40 t e j90 e j2 60 t e j90 e j2 60 t 4 w ( t ) 7e 10 2 2 j0 e portanto, obtém-se o espectro mostrado na Fig.2.7. MAGNITUDE 7 5 5 2 2 - 60 - 20 0 FASE 20 60 f 120 o o 90 0 f o o - 120 - 90 Figura 2.7 - Espectro bilateral de w(t). 2.2. PRODUTO ESCALAR – SEMELHANÇA ENTRE SINAIS Didaticamente, a analogia com o comportamento de vetores no espaço físico pode ser bastante útil na análise de sinais variáveis no tempo. Assim, considere os dois vetores V1 e V2 mostrados na Fig.2.8, e seja Ve um vetor de erro, tal que V1 C12 V2 Ve (2.6) onde C12 é uma constante com valor entre 0 e 1. 39 ANÁLISE DE SINAIS PERIÓDICOS: SÉRIE DE FOURIER V1 V1 Ve V2 C12 V2 (a) V1 Ve V2 C12 V2 (b) Ve V2 C12 V2 (c) Figura 2.8 - Análise da “semelhança” entre vetores. A magnitude do vetor erro em b) é menor que nos casos a) e c). Por inspeção da figura, torna-se evidente que o menor valor do vetor de erro ocorre no caso b), quando C12 V2 corresponde à projeção ortogonal de V1 na direção de V2 . Nesse caso, costuma-se dizer que C12 V2 corresponde à componente de V1 na direção de V2 , onde C12 é escolhido de modo que o vetor de erro seja mínimo. Uma outra conclusão pode ser extraída, em situações de projeção ortogonal como no caso da Fig.2.8b), observando-se que quanto maior a componente de um vetor na direção do outro, mais “semelhante” serão esses vetores e menor será o vetor de erro [4]. Então, C12 pode ser interpretado como uma medida da “semelhança” entre V1 e V2 . Se C12=0, então, V1 não tem componente na direção de V2 , sendo os vetores perpendiculares entre si e denominados vetores ortogonais. Neste caso, não existe qualquer relação de dependência entre os vetores, os quais são chamados de vetores independentes. Recorrendo-se a álgebra vetorial, pode-se especificar o fator constante C12 aplicando-se a definição de produto escalar: C12 V1 V2 V2 V2 (2.7) onde V2 é o módulo de V2 . A partir daí, obtém-se V1 V2 V1 V2 C12 2 V2 V2 V2 Observa-se que, se V1 e V2 são ortogonais, então, V1 V2 0 e C12=0. A extrapola-se esses conceitos para o caso de sinais. (2.8) seguir, Considere-se f1(t) e f2(t) dois sinais sobre os quais deseja-se estabelecer o grau de similaridade (ou semelhança) através de um fator C12, ou seja, deseja-se estabelecer a aproximação f1(t) C12.f2(t). Para isso, C12 deve ser tal que minimize a função erro fe(t), f e ( t ) f 1 ( t ) C12 f 2 ( t ) (2.9) Um critério bastante usado para minimizar fe(t) constitui na minimização do erro quadrático médio, , ou seja, na minimização de 40 SINAIS E SISTEMAS 1 t 2 t1 t2 t1 f e2 ( t ).dt (2.10) onde (t2-t1) é um intervalo de observação dentro do qual deseja-se efetuar a comparação dos sinais. Assim, torna-se necessário estabelecer o valor de C12 que satisfaça a condição: d 0 dC12 (2.11) ou, substituindo (2.10), que satisfaça a t2 t2 1 t 2 df 12 ( t ) .dt 2 f 1 ( t )f 2 ( t ).dt 2C12 f 22 ( t ).dt 0 t1 t1 t1 t 2 t1 dC12 (2.12) Como f1(t) não depende de C12, a primeira integral em (2.12) é nula e, portanto, obtém-se que C12 t2 t1 f 1 ( t ).f 2 ( t )dt t2 t1 (2.13) f 22 ( t )dt Ressalta-se a semelhança entre a expressão (2.13), para sinais, e (2.8), para vetores. Assim, por analogia com vetores, C12f2(t) representa a componente de f1(t) sobre o sinal f2(t). Além disso, define-se o produto escalar entre as funções, f 1 ( t ).f 2 ( t ) , num intervalo (t1,t2) por f 1 ( t ).f 2 ( t ) 1 t 2 t1 t2 t1 f 1 ( t ).f 2 ( t ).dt , t1 t t2 (2.14) de tal forma que (2.13) pode ser escrita como C12 f 1 ( t ).f 2 ( t ) f 22 ( t ) (2.15) Se C12=0, então, é dito que o sinal f1(t) não contém nenhuma componente do sinal f2(t), e, que as duas funções são ortogonais no intervalo (t1, t2). Exemplo 2.3: Mostrar que f 1 ( t ) sen(n 0 t ) e f 2 ( t ) sen(m 0 t ) são ortogonais em qualquer intervalo (t0, t0+20), para valores de m e n inteiros, mn. Solução: Deve ser mostrado que 41 ANÁLISE DE SINAIS PERIÓDICOS: SÉRIE DE FOURIER I f 1 ( t ).f 2 ( t ) 1 2 / 0 t 0 2 / 0 t0 sen(n0 t ). sen(m0 t ).dt é igual a zero. De fato, desenvolvendo I 1 2 / 0 t 0 2 / 0 t0 1 [cos(n m)0 t cos(n m)0 t ].dt 2 t 2 / 0 0 1 1 1 sen(n m)0 t sen(n m)0 t 2 n m nm to Uma vez que n e m são inteiros, (n-m) e (n+m) também o são, e assim, I=0 (incentiva-se o leitor a comprovar isto !). O resultado do exemplo anterior evidencia que sen(n0 t ) e sen(m0 t ) são funções ortogonais. Pode-se demonstrar que cos(n0 t ) e cos(m0 t ) , bem como sen(n0 t ) e cos(m0 t ) , também são funções ortogonais. Exemplo 2.4: t / 2 t 3 / 2 rect pela função Aproximar a função retangular f 1 ( t ) rect f 2 ( t ) sen t , no intervalo (0,2), de forma que o erro quadrático médio seja mínimo. Solução: Deseja-se aproximar f 1 ( t ) C12 f 2 ( t ) , tal que C12 conduza ao erro mínimo. O gráfico de f1(t) está desenhado na Fig. 2.9 (em linha pontilhada). f(t) t Figura 2.9 - Aproximação da função retangular por uma senóide. Assim, aplicando-se (2.13), obtém-se C12 0 sen t.dt 2 2 0 sen 2 ( t ).dt e, portanto, f1 ( t ) 42 (1) sen t.dt 4 sen t , 0t2 4 SINAIS E SISTEMAS representa a melhor aproximação de f1(t) por uma função sen t. O desenho de f1(t) também encontra-se na Fig.2.9. Por outro lado, diz-se que a função f1(t) tem uma componente da função sen t cuja magnitude é 4/. 2.3 SÉRIE DE FUNÇÕES Discute-se nesta seção, a expansão de trechos de funções em séries de funções ortogonais como, por exemplo, a série de Fourier trigonométrica. Antes, porém, o conceito de ortogonalidade de funções deve ser detalhado. 2.3.1 Ortogonalidade de funções reais Considere-se, novamente, o caso dos vetores num plano xy, e cujos vetores unitários são â x e â y , conforme esquematizado na Fig.2.10. y F y0 â y 0 â x x0 x Figura 2.10 - Vetores no plano xy. Um vetor F , com componentes x0 e y0 nas direções x e y, respectivamente, pode ser expresso como F x 0 â x y 0 â y (2.16) Qualquer vetor nesse plano pode ser expresso em termos de â x e â y , vetores unitários que satisfazem a 0, m n â m â n 1, m n (2.17) onde m e n correspondem a x e y, respectivamente. Assim, os vetores unitários são ortogonais entre si. Contudo, observa-se que este sistema de coordenadas bidimensional é inadequado para expressar um vetor F espacial, sendo necessário haver três eixos de coordenadas. Portanto, para expressar um vetor F tridimensional é necessário que o sistema de coordenadas seja completo. O eixo adicional é o eixo z, cujo vetor unitário é â z . E assim, um vetor no espaço tridimensional será representado por F x 0 â x y 0 â y z 0 â z (2.18) onde â x , â y e â z são ortogonais entre si. 43 ANÁLISE DE SINAIS PERIÓDICOS: SÉRIE DE FOURIER No caso geral, hipoteticamente n-dimensional, o conjunto completo de vetores unitários deve possuir “n” componentes ortogonais designadas por x̂ 1 , x̂ 2 , ..., x̂ n , e assim, um vetor geral F tem componentes C1 , C2, ..., Cn, tais que F C1 x̂ 1 C 2 x̂ 2 ... C n x̂ n (2.19) A condição de ortogonalidade implica que 0, m n x̂ m x̂ n 1, m n (2.20) O conjunto ( x̂ 1 , x̂ 2 , ..., x̂ n ) constitui um espaço vetorial ortogonal, onde x̂ 1 , x̂ 2 , ..., x̂ n são vetores de base. Em geral, contudo, o produto x̂ m x̂ n pode ser qualquer constante km ao invés da unidade: 0, m n x̂ m x̂ n k m , m n (2.21) Quando km é igual à unidade o conjunto é chamado espaço ortogonal normalizado, ou então, é dito tratar-se de um conjunto ortogonal normalizado ou espaço vetorial ortonormal. Os valores dos componentes, Cr , podem ser obtidos a partir de (2.19), calculando-se inicialmente o produto escalar F x̂ r C 1 x̂ 1 x̂ r C 2 x̂ 2 x̂ r ... C r x̂ r x̂ r ... (2.22) e aplicando-se (2.21), a fim de obter F x̂ r C r k r (2.23) e portanto F x̂ r F x̂ r Cr x̂ r x̂ r kr (2.24) A seguir, extrapola-se esses conceitos para o caso de sinais. Considere-se, então, um conjunto de “n” funções g1(t), g2(t), ..., gn(t) ortogonais entre si, num intervalo t1 a t2, ou seja t2 t1 0, j k g j ( t ).g k ( t ).dt k j , j k (2.25) Uma função arbitrária f(t) pode ser aproximada (sintetizada) num intervalo (t1, t2) pela combinação linear dessa n funções ortogonais: 44 SINAIS E SISTEMAS f ( t ) C1g 1 ( t ) C 2 g 2 ( t ) ... C n g n ( t ) (2.26) n C r g r ( t ), t 1 t t 2 r 1 A melhor aproximação corresponde àquela onde C1, C2, ..., Cn são tais que minimizam o erro quadrático médio de fe(t), tal qual em (2.10), o qual será repetido por conveniência: 1 t 2 t1 t2 t1 f e2 ( t ).dt (2.27) onde n f e (t) f (t) C r g r (t) (2.28) r 1 Para isto, torna-se necessário impor que ... ... 0. C1 C 2 C r C n (2.29) Procedendo aos cálculos algébricos em (2.29), pode-se mostrar que o erro mínimo acontecerá quando Cr t2 t1 f ( t ).g r ( t ).dt t2 t1 g 2r ( t ).dt 1 kr t2 t1 f ( t ).g r ( t ).dt (2.30) (encoraja-se o leitor a verificar isto). Novamente, é interessante comparar essa expressão com (2.24), e concluir que Cr f ( t ).g r ( t ) g r ( t ).g r ( t ) f ( t ).g r ( t ) kr , t1 t t2 (2.31) usando-se a definição de produto escalar (2.14). Utilizando-se (2.27), (2.28) e (2.31), o erro quadrático médio será n n t t2 1 t2 2 2 2 2 f ( t ). dt C g ( t ). dt 2 C r f ( t ).g r ( t ).dt r r t t t 1 1 t 2 t1 1 r 1 r 1 n n 1 t2 2 2 2 f ( t ). dt C k 2 C 2r k r r r t t 2 t1 1 r 1 r 1 n 1 t2 2 f ( t ). dt C 2r k r t t 2 t1 1 r 1 (2.32) 45 ANÁLISE DE SINAIS PERIÓDICOS: SÉRIE DE FOURIER Torna-se evidente que o erro quadrático médio diminui à medida que aumentase n, ou seja, quando f(t) é aproximada por um número maior de funções ortogonais. No limite, quando n, o erro tende a zero e f(t) converge para a soma infinita: f ( t ) C r g r ( t ) , t1 t t2 (2.33) r 1 desde que {gr(t)} constitua um conjunto de funções ortogonais (obedecem a (2.25)) no intervalo (t1, t2) e os coeficientes Cr obedecem a (2.30) ou (2.31). Exemplo 2.5: Considere-se novamente a função retangular f1(t) estudada no exemplo 2.4, que foi aproximada por uma única função sen(t). Discutir como a aproximação melhora quando se usa um número grande de funções ortogonais sen n 0 t e sen m 0 t , para m e n inteiros. Solução: A função retangular f1(t) será aproximada por f 1 ( t ) C1 sen t C 2 sen 2 t ... C n sen nt , 0 t 2 onde 2 f 1 ( t ). sen rt.dt 0 Cr 2 0 sen 2 rt.dt 2 1 sen rt.dt sen rt.dt 0 e daí 4 , r ímpar C r r 0, r par Portanto, f1 ( t ) 4 1 1 [sen t sen 2t sen 5t ...] , 0 t 2 3 5 conforme mostrado na Fig.2.11, considerando-se um, dois, três e quatro termos. O erro nessa aproximação é dado por (2.32): 1 t2 2 f 1 ( t ).dt C12 k 1 C 22 k 2 ... t 2 t 1 t1 onde t2-t1=2 e 46 2 0 2 f 12 ( t ).dt 2 . Também, k r f12 ( t ).dt 0 2 0 sen 2 rt ( t ).dt =. SINAIS E SISTEMAS (sen t ) 4 t (a) 1 (sen t sen 3t ) 4 3 t (b) 1 1 (sen t sen 3t sen 5t ) 4 3 5 t (c) 1 1 1 (sen t sen 3t sen 5t sen 7 t ) 4 3 5 7 t (d) Figura 2.11 - Aproximação da função retangular por série de senos. Com isso, 2 1 4 1 2 0,19 2 2 2 1 4 4 2 2 0,1 2 3 2 2 2 1 4 4 4 3 2 0,0675 2 3 5 47 ANÁLISE DE SINAIS PERIÓDICOS: SÉRIE DE FOURIER 2 2 2 2 1 4 4 4 4 2 0,051 2 3 5 7 4 evidenciando que, à medida que o número de termos aumenta, o erro diminui e a série se aproxima da função. 2.3.2 Ortogonalidade de funções complexas Nas discussões anteriores, considerou-se apenas funções reais de variáveis reais. Se f1(t) e f2(t) são funções complexas da variável t, pode-se mostrar que f1(t) ainda pode ser representada por C12. f2(t) no intervalo (t1, t2): f 1 ( t ) C12 .f 2 ( t ) (2.34) porém, o valor ótimo de C12 que minimiza a magnitude do erro quadrático médio é C12 t2 t1 t2 t1 f 1 ( t ).f 2* ( t ).dt f 2 ( t ).f 2* ( t ).dt (2.35) onde * indica complexo conjugado. Por outro lado, mostra-se que f(t) pode ser expressa como f ( t ) C1g 1 ( t ) C 2 g 2 ( t ) ... C r g r ( t ) ..... (2.36) em termos de um conjunto {gr(t)} de funções ortogonais, isto é t2 t1 0, m n g m ( t ).g *n ( t ).dt k n , m n (2.37) desde que Cr 1 kr t2 t1 f ( t ).g *r ( t ).dt (2.38) a fim de minimizar a magnitude do erro quadrático médio. Constituem exemplos de funções ortogonais as funções trigonométricas (como visto em exemplos anteriores), as exponenciais complexas, os polinômios de Legendre, os polinômios de Jacobi, as funções de Bessel, etc [4]. Exemplo 2.6: jn t Mostrar que as exponenciais complexas n ( t ) e 0 , para n = 0, 1, 2, ..., constituem um conjunto de funções ortogonais. 48 SINAIS E SISTEMAS Solução: Para cada valor inteiro de n, a função n(t) é uma função periódica com frequência angular fundamental n0 e período Tn=2/n0. Como T0=2/0, então T0=n Tn, e cada intervalo de duração T0 contém n ciclos completos de e jn0 t . A integral t 0 T0 e t 0 T0 jn 0 t T0 , n 0 ,n0 (cos n t jsin n t ) dt 0 dt 0 t0 0 t0 pois para n=0, e jn0 t 1 e a integral equivale ao período de integração T0. Com n diferente de zero, o intervalo de integração possui um número de ciclos completos de seno e coseno, cuja integral se anula. Se tomarmos o complexo conjugado da função e jn0 t , tem-se: n ( t ) e jn0 t (cos n0t jsin n0t ) (cos n0t jsin n0t ) e jn t 0 Assim, vamos avaliar a integral: I t 0 2 / 0 t0 (e jn0 t ).(e jm0 t ) * dt Se n=m, resulta I t 0 2 / 0 t0 dt 2 0 Se nm, resulta 1 I j(n m)0 t 0 2 / 0 j ( n m ) 0 t e t0 1 e j( n m ) 0 t [e j2 ( n m ) 1] j(n m)0 Como (n-m) também é um inteiro, resulta I=0. Portanto, m ( t ). n T0 t 0 T0 ( t ) dt e j( m n ) t dt 0T0 ,, mm nn 0 t0 Esta é a propriedade de ortogonalidade do conjunto de exponenciais complexas n(t). 2.3.3 Série trigonométrica de Fourier Foi mostrado no exemplo 2.3, que sen 0 t , sen 20 t , etc., formam um conjunto ortogonal em qualquer intervalo (t0, t0+20). Entretanto, esse conjunto não 49 ANÁLISE DE SINAIS PERIÓDICOS: SÉRIE DE FOURIER é completo, pois também deveriam ser incluídas as funções co-seno. Assim, uma expansão mais geral seria f ( t ) a 0 a 1 cos 0 t a 2 cos 2 0 t ... b1 sen 0 t b 2 sen 20 t ... (2.39) para t0 t t0+20. Usando-se uma notação mais compacta, f ( t ) a 0 [a n cos(n.0 t ) b n sen(n.0 t )] (2.40) n 1 para t0 t t0+T, onde T=20. Os coeficientes an e bn devem obedecer a (2.38), valendo então a0 an 1 t 0 T f ( t ).dt T t 0 t 0 T t0 f ( t ). cos(n 0 t )dt t 0 T t0 bn t 0 T t0 cos 2 (n0 t ).dt f ( t ). sen(n0 t )dt t 0 T t0 sen 2 (n0 t ).dt (2.41) (2.42) (2.43) O valor a0 corresponde ao valor médio ou componente DC de f(t) no intervalo (t0, t0+T). Como as integrais nos denominadores valem T/2 (verificar isto !), então an 2 t 0 T f ( t ). cos(n0 t )dt T t 0 (2.44) bn 2 t 0 T f ( t ). sen(n0 t )dt T t 0 (2.45) É possível mostrar ainda (vide exercícios) que a série trigonométrica de Fourier (2.40) também pode ser escrita na forma: f ( t ) c n cos(n.0 t n ) (2.46) n 0 onde c n a 2n b 2n (2.47a) bn an (2.47b) n tg 1 50 SINAIS E SISTEMAS É importante ressaltar que a expansão que se apresenta é garantida somente dentro do intervalo (t0, t0+T0), nada sendo afirmado quanto ao comportamento da série fora do intervalo, a não ser no caso de funções periódicas, conforme discutido adiante. 2.3.4 Série de Fourier-Legendre Um conjunto de polinômios de Legendre {Pn(x)}, forma um conjunto completo de funções no intervalo (-1 t +1). Tais polinômios são [4] P0(t) = 1 P1(t) = t 3 1 P2 ( t ) t 2 2 2 5 3 P3 ( t ) t 3 t 2 2 (2.48a) (2.48b) (2.48c) (2.48d) os quais obedecem à relação 1 dn 2 ( t 1) n n n 2 n! dt Pn ( t ) (2.49) Pode ser verificado que 1 1 mn 0, Pm ( t ).Pn ( t ).dt 2 2m 1 , m n (2.50) Então, f(t) pode ser expressa em termos da série de polinômios de Legendre no intervalo (-1 t +1): f ( t ) C 0 P0 ( t ) C1 P1 ( t ) ... C n Pn ( t ) (2.51) n 0 onde Cn obedece a (2.38): Cr 1 1 f1 ( t ).Pr ( t ).dt 1 1 Pr2 ( t ).dt e finalmente Cr 2r 1 1 f 1 ( t ).Pr ( t ).dt 2 1 (2.52) 2.3.5 A Série exponencial de Fourier Conforme visto no exemplo (2.6), as funções exponenciais complexas também formam um conjunto, {e jn0 t } , para (n = 0, 1, 2, ...), que é ortogonal e completo no 51 ANÁLISE DE SINAIS PERIÓDICOS: SÉRIE DE FOURIER intervalo t0 t t0+20. Ou seja 2 T, (e jn0 t ).(e jm0 t ) * dt 0 0, t 0 2 / 0 t0 nm (2.53) nm Portanto, uma função f(t) pode ser expandida como série f ( t ) C 0 C1 .e j0 t C 2 .e j20 t ... C 1 .e j0 t C 2 .e j2 0 t ... (2.54) C n n .e jn0 t para t0 < t < t0+20, onde Cn t 0 T t0 t 0 T t0 f ( t ).(e jn0 t ) * dt (e jn0 t ).(e jn0 t ) * .dt (2.55) 1 t 0 T f ( t ).e jn0 t dt T t0 Antes de prosseguir, cita-se que as notações T t 0 T t0 {.}dt ou {.}dt , para T representar uma integral ao longo de um dado intervalo de tempo T serão usadas indistintamente, conforme a conveniência. 2.3.6 Representação de uma função periódica pela série de Fourier Em seções anteriores representou-se a função f(t) pela série de Fourier no intervalo t0 < t < t0+T. Fora desse intervalo, f(t) e a série correspondente não precisam ser iguais, conforme ilustra a Fig.2.12 a), onde t0=0. Entretanto, se uma função x(t) for periódica, conforme esquematizado na Fig.2.12 b), pode-se mostrar que a representação da série complexa (2.54), por exemplo, se aplica para todo o intervalo < t < . Neste caso, basta observar o comportamento de x(t) C n n .e jn0 t para t0 t t0+T sendo x(t) periódica com período T=1/f0. 52 (2.56) SINAIS E SISTEMAS f(t) A 0 t T (a) x(t) A ... -2T -T 0 ... T 2T t (b) Figura 2.12 - Intervalo de validade da série de Fourier. a) Para funções aperiódicas é válida para 0tT. b) Para funções periódicas é válida para todo t. Em primeiro lugar, lembra-se que a exponencial complexa é periódica. Assim, se x(t) for periódica com período T, a igualdade (2.56) se manterá em todo o intervalo < t < . Então, para x(t) periódica x(t) c(nf n 0 ).e jn 2 f 0 t para < t < . (2.57) onde c(nf 0 ) C n 1 t 0 T x ( t ).e jn 2 f 0 t dt t T 0 (2.58) sendo que o valor de t0 é arbitrário. Neste texto, serão utilizadas as notações Cn ou c(nf0) indistintamente e conforme a conveniência. Exemplo 2.7: Considere um sinal periódico x(t) com período T0 2 . Como visto nas seções 0 anteriores este sinal pode ser representado pela série infinita x(t) C n n e jn0 t Mostrar que, inversamente, todo sinal escrito na forma dessa série é periódico. Solução: Basta calcular x ( t T0 ) n n n n C n e jn0 ( t T0 ) C n e jn0t .e jn0T0 C n e jn0t .e jn 2 C n e jn0t x (t ) e portanto a série infinita representa o sinal periódico x(t). 53 ANÁLISE DE SINAIS PERIÓDICOS: SÉRIE DE FOURIER Note que, até agora não se fez nenhuma consideração em relação à forma do sinal periódico, ou seja, em princípio a representação (2.57) se aplicaria a qualquer sinal periódico. Esta é a Série de Fourier Exponencial Complexa, ou simplesmente Série de Fourier Complexa do sinal x(t). Veremos mais à frente que nem todos os sinais periódicos podem ser representados por meio da série de Fourier, mas que ela é aplicável na maioria dos casos práticos. Exemplo 2.8: Foi visto na teoria, que se os coeficientes da série de Fourier obedecem a (2.58), então, o erro entre x(t) e a série será mínimo. Sob outro ponto de vista, mostrar que se (2.57) for satisfeita com exatidão, então, os coeficientes devem obrigatoriamente satisfazer a (2.58). Solução: Os coeficientes da série, Ck , onde k=0, 1, 2, ..., que podem assumir valores complexos, são obtidos através de: x( t ) C k e jk t 0 k multiplicando ambos os lados por e jn0t e integrando num intervalo de tempo de duração T0 : x( t ). e jn t dt C k e jk t e jn t dt C k e j( kn ) t dt 0 0 T0 k T0 0 0 k T0 Como a integral, já vista anteriormente, tem valor: t 0 T0 e j( kn ) t dt T00 ,, kk nn 0 t0 a somatória para k variando de - a + só terá um valor diferente de zero quando k=n. Portanto: x( t ).e jn t dt C n T0 0 T0 e os coeficientes são dados por: Cn 1 T0 x(t ).e jn0 t dt T0 Neste ponto da análise é importante antecipar a importância da série de Fourier complexa na representação de sinais periódicos. Ao contrário das demais funções ortogonais, as exponenciais complexas exibem propriedades únicas, que as tornam apropriadas para atuarem como funções de base para expansões em série de funções: derivadas e integrais de exponenciais complexas também resultam em exponenciais complexas; o produto (ou divisão) de exponenciais complexas envolve tão somente a 54 SINAIS E SISTEMAS soma (ou subtração) de seus argumentos; exponenciais complexas têm íntima relação com as funções seno e co-seno trigonométricas e hiperbólicas, dentre outras. 2.4 ESPECTRO DE FREQUÊNCIA DISCRETO Os coeficientes Ck são os coeficientes da série de Fourier do sinal periódico x(t), também chamados de coeficientes espectrais de x(t). Eles medem a contribuição de cada exponencial complexa nas frequências múltiplas (harmônicas) da frequência fundamental 0. A fim de enfatizar suas expressões, repetem-se as equações da série de Fourier complexa de síntese e de análise de sinais: x(t) c(nf n 0 c(nf 0 ) C n ) e jn 2 f 0 t 1 T0 x (t ).e jn 2 f 0 t dt (equação de síntese) (2.59) (equação de análise) (2.60) T0 onde f0 é a frequência fundamental e os coeficientes Cn, n=0, 1, 2, ... são unicamente determinados a partir de x(t), utilizando a equação de análise. Para n=0, tem-se: c(0) C 0 1 T0 x (t )dt (2.61) T0 que é o valor médio do sinal x(t). Num sistema elétrico, isso equivaleria ao nível DC do sinal. Com exceção de eventuais descontinuidades, e admitindo que x(t) obedece às condições de Dirichlet, a serem vistas na seção 2.5, pode-se dizer que os coeficientes determinam a função x(t) de maneira única. Assim, há uma correspondência entre x(t) e o conjunto de coeficientes {Cn}. Como cada Cn revela o conteúdo de x(t) em cada frequência n.f0, o conjunto {Cn} é chamado de espectro de linhas ou espectro de frequência discreto de x(t). Os coeficientes são, em geral, funções complexas de n ou n.f0. Algumas propriedades dos coeficientes são desenvolvidas a seguir. Se a função x(t) é real, então x*(t)=x(t). Assim, (2.60) conduz a: 1 C *n T0 * x (t ).e jn 2 f 0 t T0 1 dt T0 x(t ).e jn 2 f 0 t dt C n T0 Portanto para x(t) real: C *n C n c*(nf0) = c(-nf0) (2.65) que é a chamada simetria conjugada ou simetria Hermitiana. Se Cn é representado por sua forma retangular ou polar: 55 ANÁLISE DE SINAIS PERIÓDICOS: SÉRIE DE FOURIER C n n j n | C n |e j arg[C n ] (2.66) onde n e n correspondem às partes real e imaginária de Cn, respectivamente, e Cn = c(nf0) e arg[Cn] = arg [c(nf0)] correspondem ao módulo (ou magnitude) e argumento (ou fase) de Cn , respectivamente, com | C n | ( 2n 2n )1 / 2 arg[C k ] tan 1 n n (2.67) (2.68) então C n n j n C *n n j n (2.69) logo n n n n (2.70) e | C n || C n | | c(nf 0 ) || c(nf 0 ) | (2.71a) arg[C n ] arg[C n ] arg[c(nf 0 )] arg[c(nf 0 )] (2.71b) O gráfico de |Cn| em função de n, ou nf0, é chamado de espectro de magnitudes de x(t), que no caso de x(t) ser real, é uma função par. O gráfico de arg[Cn] em função de n, ou nf0, é o espectro de fase, que no caso de x(t) ser real, é uma função ímpar. Exemplo 2.9: Obter os coeficientes da série de Fourier complexa de a) x ( t ) 1 sen 0 t 3 cos 3 0 t b) x ( t ) 1 3 cos 0.6t 2sin1.2t cos 2.1t Solução: a) Usando a fórmula de Euler: e j0t e j0t e j30t e j30t x( t ) 1 3 2j 2 3 1 1 3 e j30t e j0t 1 e j0t e j30t 2 2j 2j 2 a qual já se encontra na forma de soma de exponenciais complexas e, portanto 56 SINAIS E SISTEMAS 3 C C 3 3 2 1 C 1 C1 2j C 0 1 Os gráficos do módulo e da fase dos coeficientes da série são mostrados na Fig.2.13: 3/2 3/2 |Cn| 1 1/2 1/2 ... -4 -3 -2 -1 0 1 2 3 4 ... n 180 arg [Cn] 90 ... -4 -180 -3 -2 -1 0 1 2 3 4 ... n -90 Figura 2.13 - Espectro de magnitude e fase de x(t). Nota-se que o módulo é uma função par e a fase uma função ímpar. b) No caso de x ( t ) 1 3 cos 0.6t 2sin1.2t cos 2.1t , devemos primeiro verificar se x(t) é um sinal periódico. Observando as frequências dos sinais, chega-se à conclusão que a frequência fundamental é igual a 0=0.3, e as componentes senoidais correspondem àquelas nas frequências 20,40 e 70. Logo tem-se: x( t ) 1 3 cos 2 0 t 2sin 4 0 t cos 7 0 t , e 1 C 7 C 7 2 C C 1 4 4 j 3 C 2 C 2 2 C 0 1 Devido à simplicidade dos sinais do exemplo anterior, não houve a necessidade de aplicar (2.60) para determinar os coeficientes da série. O próximo exemplo ilustra o cálculo desses coeficientes para um sinal mais elaborado. 57 ANÁLISE DE SINAIS PERIÓDICOS: SÉRIE DE FOURIER Exemplo 2.10: Obter a série de Fourier e desenhar o espectro de frequências da forma de onda retangular mostrada na Fig.2.14. x(t) -T0 -T0/2 - A T0/2 T0 t Figura 2.14 – Forma de onda retangular periódica. Solução: Num período, entre -T0/2 e T0/2, tem-se que: A , / 2 t / 2 x(t) 0, c.c. Logo, Cn 1 T0 / 2 jn t Ae 0 dt / 2 onde 0 A e jn0 / 2 e jn0 / 2 2 jAsin (n0 / 2) 2Asin (n0 / 2) T0 jn0 jn0 T0 n0 T0 2 2f 0 T0 Portanto, Cn 2A .sin[n (2 / T0 ). / 2] A sin (nf 0 ) A sinc(nf 0 ) Af 0 sinc(nf 0 ) T0 n 2 / T0 T0 nf 0 T0 onde sinc( x ) sin( x ) x O gráfico da função sinc(x) foi estudado no Capítulo 1. Para o caso particular de uma onda na qual T0=1/f0= 4, fica-se com: Ck A n sinc( ) 4 4 e o gráfico dos coeficientes da série encontra-se desenhado na Fig.2.15 a). Contudo, sendo rigoroso e seguindo a convenção adotada no início deste capítulo, na qual considera-se que a magnitude seja uma grandeza positiva, sendo o sinal negativo levado em conta através do ângulo de fase de 1800, obtém-se os gráficos de módulo e fase mostrados nas Figs. 2.15b) e c). 58 SINAIS E SISTEMAS (a) (b) (c) Figura 2.15 - Espectro de linhas da forma de onda retangular periódica 2.5 EXISTÊNCIA DA SÉRIE DE FOURIER Para determinar os coeficientes da série de Fourier do sinal x(t), utilizamos a equação Cn 1 T0 x(t ).e jn 2 f 0 t dt T0 e a equação de síntese do sinal x(t) é 59 ANÁLISE DE SINAIS PERIÓDICOS: SÉRIE DE FOURIER x(t) C n n e jn 2 f 0 t Na integral, o problema que pode existir é esta divergir, i.e., Cn. Na somatória, mesmo os coeficientes sendo finitos, a série pode não convergir para x(t), ou seja, sendo x N (t) N C n N n e jn 2 f 0 t (2.62) o fator de erro N | x(t) x N ( t ) | 2 dt (2.63) T0 pode não tender a zero à medida que N tende a infinito (ou xN(t) não tende a x(t)). Uma condição suficiente para a convergência da série de Fourier é que o sinal tenha energia finita num período: | x( t )| 2 dt , (2.64) T0 que garante que a maioria dos sinais práticos podem ser representados pela série de Fourier. Outras condições, chamadas condições de Dirichlet, garantem que x(t) será igual à sua representação pela série em qualquer instante de tempo t, exceto nas descontinuidades, onde a representação toma o 'valor médio' da descontinuidade. As condições de Dirichlet são: 1. x(t) deve ser absolutamente integrável num período: | x( t )| dt T0 Uma função que não satisfaz a esta condição é mostrada na Fig.2.16 -T T t Figura 2.16 - Exemplo de sinal que não é absolutamente integrável. 60 SINAIS E SISTEMAS 2. Em qualquer intervalo de tempo finito, x(t) deve ter variação limitada, i.e., deve haver um número finito de máximos e mínimos num período do sinal. Um contra 2 exemplo é a função x( t ) sin , para t entre 0 e T, mostrada na Fig.2.17. t 1 0 .8 0 .6 0 .4 0 .2 0 - 0 .2 - 0 .4 - 0 .6 - 0 .8 -1 0 0 .2 0 .4 0 .6 0 .8 1 Figura 2.17 - Exemplo de sinal que não tem variação limitada num dado intervalo. 3. Em qualquer intervalo de tempo finito, deve haver um número finito de descontinuidades, e as descontinuidades devem ser finitas. Um contra-exemplo é mostrado na Fig.2.18 T/4 T/2 T t Figura 2.18 - Exemplo de sinal com um número infinito de descontinuidades finitas. Exemplo2.11: Fenômeno de Gibbs. Considere uma onda quadrada periódica com amplitude unitária e frequência fundamental 0. A sua representação em termos da série de Fourier é: x N ( t ) 0.5 2 2 2 2 cos 0 t cos 3 0 t cos 5 0 t ... (1) N 1 cos(2 N 1) 0 t 3 5 (2 N 1) Discutir o fenômeno de Gibbs. Solução: Tem-se na Fig.2.19 gráficos de xN(t) para valores de N=1, 3, 7 e 20. Nota-se que à medida que N cresce, a frequência das oscilações (ripple) aumenta e xN(t) se aproxima de x(t). No entanto, próximo da descontinuidade, o ripple fica mais estreito mas a amplitude não decai, ficando em cerca de 9% do valor da descontinuidade. Este é o chamado fenômeno de Gibbs, que ocorre sempre que se tem descontinuidades na função representada pela série. 61 ANÁLISE DE SINAIS PERIÓDICOS: SÉRIE DE FOURIER 1 N=1 1 0.5 0.5 0 0 -0.5 0 0.5 1 N=7 -0.5 0.5 0 0 0 0.5 0 1 0.5 -0.5 N=3 0.5 N=20 -0.5 0 0.5 Figura 2.19 - Fenômeno de Gibbs. Representando-se a onda quadrada através de uma série de Fourier truncada, tem-se as formas de onda indicadas, com N=1, 3, 7 e 20. Nota-se que à medida que se aumenta o número de harmônicas, o sinal aproxima-se mais da onda quadrada, a frequência dos ripples aumenta, mas a amplitude dos ripples não diminui. Próximo da descontinuidade, a função toma o valor médio desta (nesta caso, o valor 0.5). 2.6 - FÓRMULA DE PARSEVAL E DISTRIBUIÇÃO DE POTÊNCIA Como já foi visto, todo sinal periódico limitado é um sinal de potência. Como podemos representar um sinal periódico por uma Série de Fourier, vamos obter uma relação entre a potência e os coeficientes da série do sinal. A potência média é dada por: Pm 1 T0 * x (t ).x (t )dt T0 1 Cn n T0 1 T0 1 jn 2 f 0 t * C e . x ( t ) dt C n T n n 0 T0 n jn 2 f 0 t * x ( t ) e dt T0 * .x(t )e jn 2 f 0 t T0 dt C n .C *n | C n | 2 n n Logo Pm C n .C*n n | C n n |2 (2.72) que é a fórmula de Parseval, que estabelece que a potência média do sinal x(t) é igual à soma dos módulos dos coeficientes ao quadrado, |Cn|2. Assim, os coeficientes Cn não apenas carregam fornecem informação de magnitude e fase, mas também da potência do sinal x(t) distribuída nas frequências nf0. O gráfico de |Cn|2 em função de n, ou nf0 representa o espectro de potência discreto de x(t). 62 SINAIS E SISTEMAS 2.7 EXERCÍCIOS 2.7.1 Demonstrar a equação (2.30). 2.7.2. Mostrar que a série trigonométrica de Fourier (2.40) também pode ser escrita na forma: f ( t ) c n cos(n.0 t n ) , onde c n a 2n b 2n e n tg 1 n 0 bn an t 1/ 2 t 1/ 2 2.7.3 Considere-se a função retangular f ( t ) rect rect . Obter a 1 1 série de Fourier-Legendre no intervalo (-1 t +1). Sugestão: consultar o livro do Lathi [4]. 2.7.4 A partir da série de Fourier trigonométrica mostrar que pode-se obter a série exponencial complexa. 2.7.5 Mostre que, no caso da série de Fourier complexa a) se x(t) é real e par, então Cn é real e par b) se x(t) é real e ímpar, então Cn é imaginário e ímpar 2.7.6 Seja x(t) um sinal periódico com período T0=1/f0, e cuja série de Fourier complexa tem coeficientes Cn= c(nf0). Ë obtido outro sinal y(t)=x(t-), que também é periódico. Determinar os coeficientes da série de y(t) em função de Cn. 2.7.7 A série de Fourier complexa da função porta mostrada na Fig.P2.7.5a) foi obtida na teoria. A partir desse resultado determinar as séries de Fourier complexas das demais funções mostradas. (a) (b) (c) (Fig.P2.7.7 continua...) 63 ANÁLISE DE SINAIS PERIÓDICOS: SÉRIE DE FOURIER (d) (e) Figura P2.7.7 2.7.8 Obter a série de Fourier complexa da função senoidal retificada em onda completa, mostrada na Fig.P2.7.8. Compare o conteúdo de frequência do sinal senoidal antes da retificação e após a retificação (nível DC, harmônicas). O que você pode comentar sobre esse processo de retificação em relação ao conteúdo de frequência do sinal? f(t) A 0 1 t 2 Figura P2.7.8 2.7.9 Seja x(t) uma onda dente-de-serra como a mostrada na Fig,P2.7.8., e x’(t) uma aproximação obtida com os três primeiros termos não-nulos da série de Fourier complexa. a) Qual a porcentagem da potência total do sinal está contida em x’(t) ? b) Esboçar x’(t) para 0 t T0. x(t) 1 0 t T0 Figura P2.7.9. 2.7.10 Considere-se a função trem de impulsos de período T1 definida por: rep T1 [( t )] (t nT ) n a) Esboçar o gráfico da função rep T1 [( t )] . b) Calcular a série de Fourier de rep T1 [( t )] . 64 1 SINAIS E SISTEMAS CAPÍTULO 3: ANÁLISE DE SINAIS APERIÓDICOS: TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO Neste capítulo expressaremos uma função não-periódica como uma soma contínua de funções exponenciais com frequências no intervalo - a +. O conceito de espectro contínuo pode causar dúvidas, pois estamos mais acostumados com espectros de frequências discretos e com amplitudes finitas, como acontece com a série de Fourier. Conforme será estudado, a transformada de Fourier constitui uma ferramenta que permite decompor um determinado sinal nas suas componentes exponenciais. 3.1 INTRODUÇÃO Considere os exemplos de forma de onda retangular periódica mostrados na Fig.3.1., cuja largura é e o período é T0. Nos casos mostrados, mantêm-se a largura fixa, porém, aumenta-se o período T0, cujos valores são 2, 4 e 8 para os casos a), b) e c) , respectivamente. Observa-se que, no limite, quando T0 tende ao infinito, obtém-se o pulso retangular mostrado em d). Na sua representação pela série de Fourier, conforme estudado no Capítulo 2, os coeficientes são dados por: C n c(nf 0 ) Af 0 sin (nf 0 ) , nf 0 f0 1 T0 (3.1) e assim, multiplicando-se (3.1) membro a membro por T0, obtém-se T0 C n A sin (nf 0 ) sin (f) A A sinc(f 0 ) nf 0 f f nf 0 (3.2) Modificando o valor do período T0, e mantendo-se constante o valor de , obtêm-se os gráficos da Fig.3.2, de T0Cn versus f=nf0. Por inspeção da Fig.3.2, nota-se que: sin (f) é a envoltória do f sinal, e os coeficientes T0Cn são amostras desta envoltória; b) Para fixo, a envoltória é independente de T0; c) À medida que se aumenta T0, as amostras ficam mais próximas, e os coeficientes da série se aproximam da envoltória. a) Considerando-se f uma variável contínua, a função A 65 ANÁLISE DE SINAIS APERIÓDICOS: TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO A ... ... -T0 - 0 t T0 (a) A ... -T0 - 0 ... T0 t (b) A ... -T0 - 0 ... t T0 (c) A ... - ... t 0 (d) Figura 3.1 - Onda quadrada periódica. a) T0=2. b) T0=4 . c) T0=8d) T0 . T0.c(nf0) A 0 (a) 66 f,nf0 (Figura 3.2 continua...) SINAIS E SISTEMAS T0.c(nf0) A 0 f,nf0 (b) T0.c(nf0) A 0 f,nf0 (c) Figura 3.2 - Coeficientes da Série de Fourier da onda retangular. As informações extraídas desse exemplo serão empregados a seguir para auxiliar na definição da transformada de Fourier de um sinal aperiódico arbitrário. 3.2 A TRANSFORMADA DE FOURIER Antes de prosseguir com a análise é adequado ressaltar que, neste texto, considera-se que a variável independente no domínio da frequência seja f, em Hertz, e não (rad/s), por conduzir a relações matemáticas mais simples. 67 ANÁLISE DE SINAIS APERIÓDICOS: TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO Considere agora um sinal aperiódico x(t) de duração finita, como ilustrado na Fig.3.3, onde x ( t ) 0 , para | t |T1 x(t) T1 -T1 t Figura 3.3 - Sinal aperiódico de duração finita. A partir deste sinal, construímos um sinal periódico xp(t) com período T0, mostrado na Fig.3.4, tal que, dentro de um período –T0/2 t T0/2 ocorre xp(t)=x(t), ou seja, xp(t) é composto de cópias de x(t) a cada T0. xp(t) ... ... -T0/2 -T0 0 T0/2 T0 t 2T0 Figura 3.4 - Sinal periódico xp(t) composto de réplicas de x(t) a cada T0. Nota-se ainda que lim x p ( t ) x( t ) , t finito (3.3) T0 Representando-se o sinal periódico xp(t) por sua série de Fourier, tem-se: C x p (t) n e jn 2 f 0 t (3.4a) x p ( t )e jn 2 f 0 t dt (3.4b) n 1 Cn T0 T0 / 2 T0 / 2 Como xp(t)=x(t) para |t|<T0/2 e x(t)=0 para |t|>T1, quando T0/2>T1, pode-se substituir xp(t) por x(t) na integral (3.4b), e modificar os limites de integração: 1 Cn T0 T0 / 2 x(t) e jn 2 f 0 t T0 / 2 1 dt T0 x(t) e jn 2 f 0 t dt (3.5) a partir do qual obtém-se T0 C n x ( t ) e jn 2 f 0 t dt (3.6) Como vimos no exemplo da onda retangular, podemos considerar T0Cn como amostras de uma envoltória. Chamando de X(f) esta envoltória, então, (3.6) conduz a: 68 SINAIS E SISTEMAS X(f ) x ( t )e j2 f t dt (3.7) cujos coeficientes Cn em (3.5) tornam-se: Cn 1 X(nf 0 ) T0 (3.8) e, de (3.4a): C x p (t) n e jn 2 f 0 t n 1 T0 X(nf 0 ) e jn 2 f 0 t (3.9) n Como f 0 1 / T0 , (3.9) se converte em x p (t) X(nf 0 ) e jn 2 f 0 t f 0 (3.10) n Fazendo o limite para T0 tendendo a infinito, tem-se que: a) b) c) d) xp(t) tende a x(t); f0 tende a df; nf0 tende a f; a somatória tende a uma integral. e, portanto, (3.10) conduz a: x ( t ) X(f )e j2 ft df (3.11) onde X(f ) x ( t )e j2 ft dt (3.12) A equação (3.12) é a equação de análise da transformada de Fourier, ou simplesmente a transformada de Fourier do sinal x(t), enquanto que (3.11) é a equação de síntese da transformada de Fourier, ou a transformada de Fourier inversa. Tem-se portanto um par transformado, normalmente representado simbolicamente por: x ( t ) X (f ) (3.13) A transformada de Fourier X(f) fornece a informação da contribuição de cada componente de frequência, em módulo e fase, para o sinal x(t). Na série de Fourier, 69 ANÁLISE DE SINAIS APERIÓDICOS: TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO também havia esta contribuição, mas para frequências discretas. No caso da transformada, esta contribuição se dá num espectro contínuo de frequência. Em certas ocasiões, também será útil aplicar a notação simbólica do operador [x(t)] para a transformada de Fourier direta, isto é, [x(t)] = X(f), e, -1[X(f)] = x(t) para a transformada de Fourier inversa. 3.2.1. Pulso retangular de duração (função porta) No caso abaixo, calcula-se a transformada de Fourier do pulso de duração , definido como t 1, | t | / 2 t x ( t ) rect 0, | t | / 2 (3.14) e mostrado na Fig.3.5a). Aplicando-se a definição (3.12), obtém-se x (t )e X (f ) j 2 ft /2 dt X (f ) e j2 ft dt / 2 e j 2 f 2 e j2f j 2 f 2 j2sin (f) j2f sin (f) sin (f) sinc(f) f f donde registra-se o par de transformada de Fourier rect( t / ) .sinc(f) (3.15) O gráfico de X(f) está indicado na Fig.3.5b), para o caso de uma porta com largura . X(f) rect(t/) 1 /2 -/2 t -2/ -1/ 1/ f 2/ 0 (a) (b) Figura 3.5 - Espectro de um pulso retangular de duração . Na Fig.3.5b), tem-se que X(f)=1 em f=0, e que X(f)=0 quando f=n/, para n inteiro (n0), conforme a discussão do Capítulo 1, sobre a função sinc (x). 70 SINAIS E SISTEMAS Analisando-se (3.15), observa-se que o primeiro zero acontece para f=1/, e assim, para pulso estreito ( reduzido), o primeiro zero ocorre para um valor de f elevado, ou seja, o espectro torna-se mais largo. Por outro lado, para pulso de longa duração, o primeiro zero ocorre para f reduzido, indicando que o espectro torna-se mais estreito. Esta observação corresponde à propriedade de espalhamento recíproco, que será discutido com mais detalhes adiante. Num caso limite, onde o pulso é infinitamente estreito, deve-se esperar um espectro infinitamente largo, tendendo à função constante X(f) = , conforme será verificado no próximo item. 3.2.2. Impulso de área unitária Considere-se a função impulso unitário x( t ) ( t ) estudada no Capítulo 1. Aplicando-se (3.12), e recorrendo-se às propriedades da integral do impulso, obtém-se X( f ) j2 ft x(t) e dt (t) e j2 ft dt 1 , f Assim, fica estabelecido o seguinte par de transformadas ( t ) 1 (3.16) o qual encontra-se associado à Fig.3.6 1 (t) 0 t 0 f Figura 3.6 - Transformada de Fourier do impulso unitário. Portanto, a transformada de Fourier de um impulso unitário é uma constante, igual à área do impulso. Este comportamento já era previsto, a partir da propriedade de espalhamento recíproco anunciada no item anterior. Interpreta-se este resultado, afirmando-se que um impulso unitário apresenta um conteúdo espectral com magnitude constante e presente para todas as frequências entre e +. 3.3 CONVERGÊNCIA DA TRANSFORMADA DE FOURIER Na dedução da transformada de Fourier na seção 3.2, como um processo limite a partir da série de Fourier, limitamo-nos ao caso em que o sinal x(t) tinha duração finita. Porém, afirma-se que o resultado permanece válido para uma classe muito maior de sinais, incluindo-se alguns de duração infinita. Além disso, como o ponto de partida foi a série de Fourier, é razoável considerar as mesmas condições para a existência da transformada de Fourier: a) x(t) deve ser integrável quadraticamente, ou seja, ter energia finita: 71 ANÁLISE DE SINAIS APERIÓDICOS: TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO | x( t )| 2 dt ; b) x(t) deve satisfazer às condições de Dirichlet: deve ser absolutamente integrável: i) | x( t )| dt ; ii) deve ter um número finito de máximos e mínimos em qualquer intervalo de tempo finito; deve ter um número finito de descontinuidades finitas em qualquer intervalo de tempo finito. iii) É importante salientar que tais condições são suficientes, mas não necessárias para a existência da transformada de Fourier. Por exemplo, na seção 3.2.2 estudou-se a função impulso, a qual não satisfaz as condições de Dirichlet pois representa uma descontinuidade infinita. Contudo esta função possui transformada de Fourier. Por fim, é importante informar que, ao contrário da matemática, os critérios físicos são mais abrangentes, os quais estabelecem que, a condição necessária e suficiente para que um dado sinal possua transformada de Fourier, é que o processo físico associado ocorra consistentemente na prática. Conforme será comprovado nos próximos exemplos, em geral, a transformada de Fourier é uma função complexa X(f)= X(f ) . e jarg[X(f)] , onde, X(f ) corresponderá a um espectro de magnitudes e arg[X(f)] a um espectro de fases. Exemplo 3.1: Calcular a transformada de Fourier da função exponencial real mostrada na Fig.3.7 e esboçar o seu espectro. 1 0.8 0.6 0.4 0.2 0 -0.2 -1 0 1 2 t 3 4 5 Figura 3.7 - Exponencial real. Solução: A função exponencial real é descrita por x( t ) e at u( t ) , a 0 , é nãonula somente para valores positivos de t e decai exponencialmente numa taxa 1/a. Esta função, assintoticamente limitada no tempo, satisfaz todos os critérios de convergência para que sua transformada de Fourier exista. Assim, aplicando-se a definição (3.12): X(f ) x ( t )e 72 j 2 ft dt e e 0 at j 2 ft dt e 0 ( j 2 f a ) t e at e j2 ft 0 1 dt ( j2f a ) 0 ( j2f a ) SINAIS E SISTEMAS e portanto, X( f ) 1 1 a j2f a j que é uma função não-racional complexa. Ressalta-se que este resultado só foi possível de ser obtido porque lim(e at ) 0 , independentemente do fator e j2 ft . Isto t ficará mais claro nas discussões da seção 3.10. O módulo e a fase da função espectral são: | X(f ) | 1 a 2 2 , arg[X(f )] atan a Os espectros de magnitude e de fase são mostrados na Fig.3.8, para o caso onde a=1/2: |X(f)| 1/a 0,707/a -a /2 0 a/2 f arg[X(f)] 900 450 0 f -900 Figura 3.8 - Módulo e fase da transformada de Fourier de uma exponencial real. O espectro de fases é uma curva suave que inclui todos os ângulos entre –900 e +90 . Isto se deve à falta de simetria do sinal temporal x(t), conforme será discutido na próxima seção. 0 3.4 RELAÇÕES DE SIMETRIA Partindo-se da definição (3.12), quando x(t) for um sinal real, pode-se mostrar que X( f ) X* ( f ) (3.17) ou, de forma equivalente 73 ANÁLISE DE SINAIS APERIÓDICOS: TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO X* ( f ) X( f ) (3.18) isto é, a transformada de Fourier (ou seja, o espectro) exibe simetria Hermitiana. Se X(f) for expresso em termos de suas partes real e imaginária, obtém-se: X( f ) Re{X( f )} j Im{X( f )} (3.19) então X* ( f ) Re{X( f )} j Im{X( f )} (3.20) ou seja Re{X( f )} Re{X( f )} Im{X( f )} Im{X( f )} (3.21) Observa-se, portanto, que a parte real da transformada de Fourier é uma função par, enquanto que a parte imaginária é uma função ímpar na variável f. Por outro lado, expressando X(f) na forma polar: X(f ) | X(f ) |e jarg[ X ( f )] (3.22) observa-se que | X( f )| Re{X( f )}2 Im{X( f )}2 arg[X(f )] atan 1/ 2 | X( f )| Im{X(f )} arg[X(f )] Re{X(f )} (3.23) (3.24) Como X * (f ) | X(f ) |e jarg[ X ( f )] (3.25) conclui-se que o espectro de magnitudes (módulo) é uma função par e o espectro de fases é uma função ímpar. Considera-se agora um sinal x(t) arbitrário (pode ser complexo). Do Capítulo 1 sabemos que este sinal pode ser expresso como soma de uma função par (xe) e de uma função ímpar (xo) de t: x( t ) x e ( t ) x o ( t ) (3.26) onde x( t ) x * ( t ) 2 (3.27a) x( t ) x * ( t ) xo (t) 2 (3.27b) xe (t) 74 SINAIS E SISTEMAS Assim, têm-se as seguintes relações x e ( t ) X e (f ) Re{X(f )} (3.28a) x o ( t ) X o (f ) jIm{X(f )} (3.28b) Porém, a partir de (3.12), para sinais x(t) reais X(f ) x ( t ). cos(2ft )dt j x ( t ).sen(2ft )dt =Re{X(f)}+ j Im{X(f)} e, com isso, x e ( t ) X e (f ) x ( t ). cos(2ft )dt x o ( t ) X o (f ) j x ( t ). sen(2ft )d (3.29a) (3.29b) No caso onde x(t) tem simetria par, tal que x(-t)=x(t), então, x(t).cos(2ft) é par, enquanto que x(t).sen(2ft) é ímpar e, portanto, Xo(f)=0, e X(f ) X e (f ) 2 x ( t ). cos(2ft ) dt 0 (3.30) Conclui-se que, se x(t) for par e puramente real, seu espectro X(f) também será puramente real. Este resultado está de acordo com o espectro obtido para a função porta. Por outro lado, se x(t) tem simetria ímpar, tal que x(-t) = - x(t), então, Xe(f)=0, e X(f ) X o (f ) j2 x ( t ). sen(2ft ) dt 0 (3.31) Assim, se x(t) for ímpar e puramente real, seu espectro X(f) será puramente imaginário. Em casos onde x(t) não for nem par nem ímpar, o espectro X(f) terá partes real e imaginária simultaneamente, conforme aquele obtido no exemplo 3.1. 3.5 TEOREMA DE PARSEVAL O teorema de Parseval estabelece que, se x1(t) e x2(t) são sinais de energia arbitrários, com transformadas de Fourier X1(f) e X2(f), respectivamente, então x (t) x 1 * 2 ( t ) dt X (f ) X 1 * 2 ( f ) df (3.32) sendo a prova do teorema deixada como exercício para o leitor. No caso particular, onde x1(t)=x2(t)=x(t), então (3.32) conduz a 75 ANÁLISE DE SINAIS APERIÓDICOS: TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO | x( t )|2 dt E x | X(f )| 2 (3.33) df onde Ex é a energia de x(t), como visto no Capítulo 1. Ou seja, sendo x(t) um sinal de energia, sua energia pode ser obtida através da integração de |x(t)|2, no domínio do tempo, ou de |X(f)|2, no domínio da frequência, conforme seja mais conveniente. A função |X(f)|2 é chamada de densidade espectral de energia de x(t), e fornece a informação da energia por unidade de frequência ao longo do espectro de X(f). Uma análise detalhada da função densidade espectral de energia será apresentada no Capítulo 4. Exemplo 3.2: Obter a densidade espectral de energia do pulso retangular de largura e amplitude A, x(t)=A.rect(t/). Solução: Utilizando-se o resultado da seção 3.2.1, verifica-se que o espectro desse pulso retangular é dado por X(f ) A sinc(f) . Na Fig.3.9 ilustra-se o gráfico de de |X(f)|2. |X(f)|2 2 f -2/ -1/ 0 1/ 2/ Figura 3.9 - Densidade espectral de energia do pulso retangular. A Fig. 3.9 revela que a maior parte da energia do pulso encontra-se dentro da banda f < 1/. De fato, calculando-se a energia nessa banda, tem-se 1/ 1 / 1/ X(f ) df 2 1 / (A) 2 sinc 2 (f).df 0,92A 2 . cujo resultado demanda um cálculo numérico. O gráfico da Fig.3.5 indica que, em princípio, a largura espectral do pulso retangular de largura é infinita, uma vez que X(f) existe entre e +, embora sua amplitude decaia gradativamente com f. Contudo, o exemplo anterior mostrou que a energia do pulso, calculada na banda f < 1/ , vale 0,92 A2. Por outro lado, a energia total do pulso é E x | x ( t ) | 2 dt A 2 76 SINAIS E SISTEMAS o que implica em que a largura espectral f < 1/ engloba mais de 90% da energia total do pulso. Por isso, convenciona-se dizer que a largura de banda do pulso retangular de largura é B=1/. Na próxima seção, discute-se mais detalhes a respeito da largura de banda de um sinal. 3.6 LARGURA DE BANDA ESPECTRAL O conceito de largura de banda de sinais é muito importante quando trabalhase com sinais e sistemas de comunicação. Um sinal irradiado por uma antena para ser transmitido deve ter largura de banda limitada, pois caso contrário, estaria ocupando uma porção muito grande do espectro eletromagnético, impedindo a utilização desse meio de transmissão por outros sinais. A largura de banda de um sinal é obtida através da análise do sinal no domínio da frequência, enfatizando a importância deste tipo de análise em comunicações. Para um sinal com característica passa-baixas, ter-se-ia uma característica espectral genérica tal qual a mostrada na Fig.3.10: |X(f)| x(t) -B B Figura 3.10 - Sinal com característica passa-baixas. f Neste caso, diz-se que x(t) é um sinal com banda limitada a B Hz, ou um sinal passabaixas com largura de banda B, o que significa que x(t) não possui componentes de frequência acima de B Hz. Deve ser ressaltado que, embora se trabalhe com a representação de espectro bilateral na Fig. 3.10, no cômputo da largura de banda considera-se somente a porção positiva do espectro, em conformidade com as leituras fornecidas por analisadores de espectro. No caso de um sinal com característica passa-banda ou passa-faixa com banda B, o espectro tem a aparência mostrada na Fig.3.11: |X(f)| x(t) B Figura 3.11 - Sinal com característica passa-banda. B f Na prática, contudo, os sinais podem não apresentar banda limitada (e geralmente é o caso), e o que pode-se fazer é definir a banda do sinal a partir de frequências nas quais a amplitude do espectro decai a um determinado valor da amplitude máxima. Por exemplo, pode-se definir que a largura de banda de um sinal passa-baixas seja dada pela(s) frequência(s) onde o espectro de magnitudes caia a 5% do seu valor máximo. Outros critérios existem, dependendo da natureza do problema que se estuda. No item anterior, por exemplo, utilizou-se o critério baseado numa proporção da quantidade total de energia contida num pulso. No Capítulo 4, será discutida a 77 ANÁLISE DE SINAIS APERIÓDICOS: TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO definição da largura de banda de –3 dB, muito usado em sistemas práticos, em particular, em sistemas de áudio. Um outro critério que pode ser adotado é definir a largura de banda, de um sinal com característica passa-baixas, por exemplo, como sendo aquela de um filtro passa-baixas ideal (banda B) com mesmo ganho máximo, tal que a área sob |H(f)| ou |H(f)|2 seja igual à área sob |X(f)| ou |X(f)|2. A Fig.3.12 ilustra esta idéia. Este critério é muito usado na análise de ruídos. |H(f)|, |H(f)|2 |X(f)|, |X(f)|2 f -B B Figura 3.12 - Critério para definição de largura de banda. 3.7 RELAÇÃO ENTRE A TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO E SINAIS PERIÓDICOS Na dedução da transformada de Fourier a partir da série de Fourier, aproximou-se o sinal aperiódico x(t) por um período de um sinal periódico xp(t), de período T0: x ( t ) , | t| T / 2 x( t ) 0 p , c. c. 0 (3.34) Os coeficientes da série de Fourier podem ser determinados a partir da transformada de Fourier através de: 1 Cn T0 T0 / 2 jn 2 f t x p (t ) e 0 dt T0 / 2 1 T0 x(t) e jn 2 f 0 t dt ou, recorrendo-se a (3.12), com f=nf0 Cn 1 X(nf 0 ) T0 (3.35) ou seja, os coeficientes Cn são obtidos a partir de amostras da transformada de Fourier nas frequências nf0. Uma discussão sobre amostragem de sinais será apresentada em detalhes no Capítulo 5. A transformada de Fourier de uma série de Fourier é discutida a seguir. 3.8 TRANSFORMADA DE FOURIER DE SINAIS PERIÓDICOS Considere um sinal cuja transformada de Fourier é um impulso de área unitária em f=f0: X( f ) ( f f 0 ) 78 SINAIS E SISTEMAS então o sinal no tempo, x(t), é obtido a partir da equação de síntese (3.11): x( t ) ( f f ) e j2 f t 0 df e j2 f0 t cos 0 t jsin0 t ou seja, x(t) é um sinal periódico com período T0=1/f0. Este resultado permite estabelecer mais um par de transformada de Fourier: e j2 f 0 t (f f 0 ) (3.36) Generalizando para uma combinação de impulsos de áreas Cn, localizados em f=nf0: C X (f ) n n (f nf 0 ) fica-se com x(t) C n n e j2 nf 0 t e, consequentemente, com um novo par de transformada de Fourier C n e j2nf0t n C n n (f nf 0 ) (3.37) Identifica-se no lado esquerdo de (3.37) como a representação em termos da série de Fourier do sinal periódico x(t). Assim, a transformada de Fourier de um sinal periódico, cujos coeficientes da série de Fourier são iguais a Cn , é igual a um trem de impulsos de áreas Cn localizados nas frequências nf0. Conforme visto no Capítulo 2, associado à série de Fourier tem-se um espectro de linhas (unilateral ou bilateral), o qual constitui uma representação de frequências discretas. Por exemplo, entre a componente espectral em f0, com amplitude C1=c(f0), e a componente em 2.f0, com amplitude C2=c(2f0), simplesmente não se define o espectro. O resultado (3.37) informa que esse espectro de linhas deve ser automaticamente convertido num espectro compostos por impulsos, segundo uma representação de “frequências contínuas”. Assim, ao longo de todo o intervalo entre a frequência f0, onde existe um impulso com área C1=c(f0), e a frequência 2.f0, onde existe um impulso com área C2=c(2f0), considera-se que o espectro seja definido, porém, que tenha amplitude igual a zero. Exemplo 3.3: Considere uma onda quadrada de frequência f0, tal qual aquela mostrada na Fig.3.1, e cujos coeficientes Cn da série de Fourier são dados por: Cn sin (nf 0 ) , n f0 1 2 Determinar a transformada de Fourier da sua série de Fourier 79 ANÁLISE DE SINAIS APERIÓDICOS: TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO Solução: Os coeficiente da série de Fourier podem ser rescritos como Cn sin n 2 1 sinc(n ) 2 n 2 e portanto, basta aplicar (3.37) para obter a transformada de Fourier: X (f ) 1 sinc(n 2) (f nf 0 ) 2 n Exemplo 3.4: Obter a transformada de Fourier do trem de impulsos com período T0 cuja série de Fourier é dada por x ( t ) rep T ( t ) ( t nT0 ) n 1 T0 e j 2 nf 0 t n Solução: Aplicando-se (3.37), com Cn=1, e sabendo-se que T0=1/f0, obtém-se X( f ) 1 T0 ( f kf ) f ( f kf ) 0 k 0 0 k onde os gráficos de x(t) e X(f) estão na Fig.3.13 ... ... 1 -2T0 -T0 T0 2T0 t ... ... f0 -2f0 -f0 f0 2f0 f Figura 3.13 - Transformada de Fourier de um trem de impulsos. Portanto a transformada de Fourier de um trem de impulsos de áreas unitárias espaçados de T0 é igual a outro trem de impulsos, com áreas f0=1/T0 e espaçados de f0. Este sinal será importante quando estudarmos a amostragem de sinais. 3.8.1 Transformada de Fourier de seno e co-seno eternos Considere o sinal senoidal eterno, definido por x ( t ) A. cos 0 t . Recorrendose à representação em termos de exponenciais complexas: e j0 t e j0 t e j0 t e j0 t X(f ) [A. cos 0 t ] A. A. A. 2 2 2 e assim, aplicando-se (3.36) e (3.37) obtém-se X (f ) A (f f 0 ) (f f 0 ) 2 cujo diagrama espectral encontra-se desenhado na Fig.3.14 80 (3.38) SINAIS E SISTEMAS A/2 A/2 A cos 0 t -f0 f0 f Figura 3.14 - Diagrama espectral da função co-seno Intuitivamente, este resultado era previsível, pois o espectro de um co-seno de frequência f0 é composto por uma única linha em f0, a qual deve ser substituída por um impulso no diagrama espectral de frequências contínuas. Por outro lado, no caso da função seno, ou seja, x ( t ) A.sin 0 t , tem-se e j0 t e j0 t X(f ) [A.sin 0 t ] A. 2j a partir da qual, determina-se que X (f ) A (f f 0 ) (f f 0 ) 2j (3.39) e cujo diagrama espectral encontra-se desenhado na Fig.3.15. Como o espectro é imaginário puro, excepcionalmente, não desenhamos o espectro na forma de magnitude e fase. A/2j -f0 A sin 0 t -A/2j f0 f Figura 3.15 - Diagrama espectral da função seno. 3.9 PROPRIEDADES DA TRANSFORMADA DE FOURIER A transformada de Fourier é uma ferramenta muito valiosa na análise de sinais e sistemas no domínio da frequência, fornecendo a informação de como é a dependência do sinal com a frequência. Às vezes, nos deparamos com sinais ou funções cujas transformadas de Fourier segundo (3.12) são difíceis de serem calculadas, devido à complexidade da integral envolvida. As propriedades descritas a seguir são muito úteis para auxiliar no cálculo de transformadas de Fourier diretas e inversas de sinais mais complexos, facilitando portanto a observação das relações entre os sinais nos domínios do tempo e frequência. A maior parte delas serão apenas enunciadas, deixando-se suas demonstrações por conta do leitor, como exercícios de fixação. Para a discussão dos próximos itens, considere os pares transformados abaixo: x( t ) X ( f ) x1 ( t ) X 1 ( f ) x 2 ( t ) X 2 (f ) (3.40a) (3.40b) (3.40c) 81 ANÁLISE DE SINAIS APERIÓDICOS: TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO Com isso, um conjunto de propriedades e teoremas da transformada de Fourier serão apresentados a seguir. 3.9.1 Linearidade A propriedade de linearidade ou de superposição de efeitos estabelece que combinações lineares no domínio do tempo correspondem a combinações lineares no domínio da frequência: a. x1 ( t ) b. x 2 ( t ) a. X1 ( f ) b. X 2 ( f ) (3.41) onde a e b são fatores independentes do tempo. A demonstração dessa propriedade provém da definição de transformada de Fourier e do fato que a integração é uma operação linear. Exemplo 3.5: Encontrar a transformada de Fourier do sinal desenhado na Fig. 3.16a). Solução: Em primeiro lugar, observa-se que x(t) pode ser escrito como a superposição t t x ( t ) rect ( ) 2.rect ( ) 4 1 e assim, aplicando-se (3.15) e (3.34), obtém-se X(f ) 4.sinc(4f ) 2.sinc(f ) cujo gráfico é mostrado na Fig.3.16 b). X(f) 6 x(t) 2 1 -2 -1/2 0 1/2 2 t -2 0 2 (b) (a) Figura 3.16 - Sinal para o exemplo 3.5. a) Sinal x(t). b) Espectro X(f). 3.9.2 Deslocamento no tempo A propriedade de deslocamento (ou retardo) no tempo estabelece que 82 f SINAIS E SISTEMAS x( t t 0 ) e j2 ft 0 X( f ) (3.42) Ou seja, à um deslocamento no tempo está associado um deslocamento de fase linear do espectro do sinal original. A magnitude do espectro, porém, não é alterada. Exemplo 3.6: Calcular a transformada de Fourier do sinal mostrado na Fig.3.17 z(t) A 0 t -A Figura 3.17 - Sinal z(t) para o exemplo 3.6. Solução: Esse cálculo pode ser realizado com facilidade empregando-se as propriedades apresentadas e a transformada de Fourier da porta de largura , x ( t ) A.rect( t / ) analisada na seção 3.2.1. Para isto, basta verificar que z( t ) x ( t / 2) x ( t / 2) Portanto, aplicando-se as propriedades de linearidade e deslocamento no tempo Z(f ) X(f ).e j2 ft / 2 X(f ).e j2 ft / 2 j2. sen(f).X(f ) Recorrendo-se à expressão da transformada de Fourier de x(t), equação (3.15), e procedendo às simplificações, obtém-se Z(f ) ( j2f).A.sinc 2 (f) . 3.9.3 Teorema da dualidade ou da simetria O teorema da dualidade provém da similaridade das integrais das transformadas de Fourier direta e inversa, e estabelece que, se x( t ) X( f ) , então X ( t ) x( f ) (3.43) Ou seja, existe uma dualidade entre os domínios do tempo e da frequência. O teorema se prova permutando-se t e f nas integrais de Fourier (3.10) e (3.12). Exemplo 3.7: Obter a transformada de Fourier de z( t ) A.sinc(2 wt ) , onde A e w são constantes, e cujo gráfico está mostrado na Fig.3.18 a). 83 ANÁLISE DE SINAIS APERIÓDICOS: TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO z(t) A Z(f) A/2w -1 2w 1 2w t -w 0 f w (a) (b) Figura 3.18 - Transformada de Fourier da função A sinc(2wt). Solução: Pode ser deduzido a partir da seção 3.1.1 que, x ( t ) B.rect ( t / ) X(f ) B.sinc(f) então aplicando-se o teorema da dualidade [B.sinc( t)] [X( t )] x (f ) B.rect (f / ) B.rect (f / ) Assim, fazendo B=A/2w e 2w=, obtém-se z( t ) A A f 2w.sinc(2 wt ) A.sinc(2 wt ) rect ( ). 2w 2w 2w onde o espectro está mostrado na Fig.3.18 b). 3.9.4 Translação em frequência A propriedade de translação em frequência ou modulação complexa, informa que uma defasagem no tempo está associada a um deslocamento de frequências do espectro e j2 f0 t x( t ) X( f f 0 ) (3.44) cuja demonstração emprega o teorema da dualidade aplicado à propriedade de deslocamento no tempo. Para observar os efeitos da translação de frequência, seja x(t) o espectro de banda limitada mostrado na Fig.3.19a). Na Fig.3.19b), encontra-se o espectro transladado. X(f-fo) X(f) módulo fase -w 0 (a) w módulo fase f 0 fo-w fo fo+w f (b) Figura 3.19 - Propriedade da translação em frequência. a) Espectro original. b) Espectro transladado. 84 SINAIS E SISTEMAS Conforme se observa, embora X(f) tenha largura espectral igual a w, o espectro transladado X(f-f0) tem largura 2w: a porção de frequência negativa de X(f) agora aparece como frequências positivas em X(f-f0). Além disso, como o sinal temporal não é mais real, o espectro X(f-f0) não exibe mais a simetria Hermitiana. 3.9.5 Escalonamento no tempo e frequência A propriedade de mudança de escala estabelece que x( a t ) 1 f X , para “a” constante | a| a (3.45) a qual reflete a fenômeno de espalhamento recíproco discutido em seções anteriores. Assim, sinais de curta duração temporal possuem espectros com elevadas larguras de banda, e vice-versa. 3.9.6 Propriedade das áreas Partindo-se das transformadas de Fourier direta e inversa, obtém-se as propriedades das áreas: X ( f ) x( t ) e j2 f t dt e X( 0) x( t ) dt x( t ) X( f ) e (3.46a) j2 f t df x( 0) X(f ) df (3.46b) Isto implica que X(0) corresponde à área sob a função x(t), um resultado equivalente àquele no caso periódico, onde c(0) é igual ao valor médio de x(t). Por outro lado, que x(0) corresponde à área líquida do espectro X(f). 3.9.7 Diferenciação e Integração no tempo Os efeitos da diferenciação ou integração de um sinal sobre o seu espectro são indicados pelas relações: d n x(t) ( j2f ) n X(f ) dt n (3.47) e t 1 x ()d j2f X(f ) X(0) (f ) 2 (3.48) respectivamente. Como se percebe, a diferenciação enriquece os componentes de altas frequências de um sinal, enquanto a integração suprime os componentes de alta frequência. Isto concorda com observações no domínio do tempo, que estabelecem 85 ANÁLISE DE SINAIS APERIÓDICOS: TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO que a diferenciação acentua as variações no tempo, enquanto as integrações as amenizam. Exemplo 3.8: Obter a transformada de Fourier da função pulso triangular w ( t ) A.tri( t ) 2 conforme estudado no Capítulo 1. Solução: O gráfico da função w(t) encontra-se na Fig.3.20 a). Recorrendo-se à função z(t) utilizada no exemplo 3.6, observa-se que w (t) 1 t z( ).d X(f) w(t) A 0 (a) t 2/ 0 1/ (b) Figura 3.20 - Transformada de Fourier do pulso triangular. -2/ -1/ f Com o auxílio do teorema da integração e do resultado obtido no exemplo 3.6, ou seja, Z(f ) ( j2f).A.sinc 2 (f) , tem-se W (f ) 1 1 Z(f ) A.sinc 2 (f) j2f cujo gráfico está desenhado na Fig.3.20 b). A transformada de Fourier de certas funções x(t) podem ser determinadas diferenciando-se esta função uma ou mais vezes, até que apareça uma descontinuidade do tipo degrau pela primeira vez. A próxima derivada deverá incluir um impulso nessa descontinuidade. A aplicação da propriedade da diferenciação permitirá a determinação de X(f). Exemplo 3.9: Avaliar a transformada de Fourier do trapézio x(t) mostrado na Fig.3.21 a). Solução: Nas Figs. 3.21 b) e c) são mostrados os gráficos das derivadas dx(t)/dt e d2x(t)/dt2 (verificar isto !). Por inspeção, nota-se que d2x A [( t b) ( t a ) ( t a ) ( t b)] 2 ba dt e assim, aplicando-se (3.47) 86 SINAIS E SISTEMAS ( j2f ) 2 X(f ) A [e j2 fb e j2 fa e j2 fa e j2 fb ] ba a) A x(t) -b -a b) 0 dx(t)/dt t a b A/(b-a) t 0 2 c) d x(t)/dt 2 A/(b-a) t 0 -A/(b-a) Figura 3.21 - Sinal x(t) para o exemplo 3.9 e suas derivadas. a qual, após algumas manipulações algébricas, obtém-se X (f ) 1A cos 2fa cos 2fb ba (2f ) 2 3.9.8 Diferenciação e integração em frequência A partir de (3.47), (3.48) e do teorema da dualidade obtém-se as propriedades de diferenciação e integração em frequência: j2t x( t ) d X( f ) df (3.49) e f x (0) x(t) ( t ) X( )d 2 j2t (3.50) respectivamente. 3.9.9 Convolução e multiplicação Um dos teoremas mais importantes na análise de sinais é o teorema da convolução, que é composto de duas partes, sendo que a primeira aborda a transformada de Fourier da convolução e, a segunda, da multiplicação de sinais. x1 ( t ) x 2 ( t ) X1 ( f ) X 2 ( f ) (3.51) 87 ANÁLISE DE SINAIS APERIÓDICOS: TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO x1 ( t ) x 2 ( t ) X1 ( f ) X 2 ( f ) (3.52) Assim, os teoremas estabelecem que a convolução no domínio do tempo se transforma em multiplicação no domínio da frequência, enquanto a multiplicação no domínio do tempo se transforma em convolução no domínio da frequência. Exemplo 3.10: O espectro de x2(t) Considere-se x(t) limitado em banda w como o espectro mostrado na Fig.3.22 a). Discutir o espectro de x2(t). Solução: Se X(f) for o espectro de x(t), então, o espectro de x2(t) deve ser resultado da convolução de X(f) com ele mesmo. Conforme foi discutido no Capítulo 1, se X(f) ocupa a faixa de largura w, o resultado de X(f)*X(f) deve ocupar 2w. O resultado está esboçado esquematicamente na Fig.3.22 b), ou seja, sem nenhum conhecimento específico sobre x(t), observa-se que x2(t) tem largura de banda 2w. X(f) -w 0 X*X(f) w f -2w 0 2w f (b) (a) Figura 3.22 - Aplicação do teorema de convolução. a) Espectro de x(t). b) O espectro de x2(t). 3.9.10 Modulação real Considere um sinal x(t) de banda limitada a B, como o mostrado na Fig.3.23a), multiplicado por um sinal senoidal com frequência f0 maior que 2B, como o da Fig.3.23 b), resultando em: y( t ) x( t ).cos 0 t como mostrado na Fig.3.23 c), onde nota-se que x(t) modula a amplitude da senóide. Este é um caso de modulação por amplitude, mais especificamente chamado de DSBSC. É interessante analisar-se o espectro do sinal modulado. Pela propriedade da convolução, o espectro do sinal y(t) é dado por: Y(f ) X(f ) {cos 0 t} ( f f 0 ) (f f 0 ) Y ( f ) X (f ) 2 X (f f 0 ) X ( f f 0 ) 2 2 88 SINAIS E SISTEMAS x(t) -B (a) f B cos0t (b) -f0 f0 f (c) -f0 f0 f x(t).cos0t Figura 3.23 - Modulação de uma portadora por um sinal x(t). Ou seja, ao multiplicar-se o sinal x(t) por uma senóide na frequência f0, o efeito causado em frequência é um deslocamento do espectro do sinal modulador x(t) para as frequências f0. Generalizando-se, a propriedade de modulação real estabelece que x ( t ). cos(2f 0 t ) e j e j X (f f 0 ) X (f f 0 ) 2 2 (3.53) (encoraja-se o leitor a comprovar isto). Esta propriedade é de extrema importância quando se estudam processos de modulação linear como, por exemplo, a modulação de amplitude (AM) nos sistemas de comunicação. Exemplo 3.11: Pulso de RF Uma função muito usada em comunicação é o pulso de RF (rádio-frequência), definido por z( t ) A.rect ( t / ). cos 0 t , e que encontra-se desenhado na Fig.3.24. Obter a transformada de Fourier de z(t). z(t) A f0 /2 /2 t Figura 3.24 - Pulso de RF. Solução: Aplicando-se a propriedade de modulação, obtém-se Z(f ) A A sinc(f f 0 ) sinc(f f 0 ) 2 2 89 ANÁLISE DE SINAIS APERIÓDICOS: TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO cujo espectro é mostrado na Fig.3.25. |Z(f)| A/2 0 -f0 f f0 Figura 3.25 - Espectro do pulso de RF. Observa-se que à medida que a largura do pulso de RF () aumenta, z(t) tende ao co-seno eterno. Simultaneamente, a magnitude de Z(f) aumenta e a largura dos pulsos sinc centrados em f0 diminui, tendendo-se ao impulso no limite (conforme visto no Capítulo 1). Nesta situação, o espectro corresponde ao da Fig.3.14. 3.10 TRANSFORMADAS NO LIMITE Veremos agora, o caso de algumas funções descontínuas, como a função sinal, ou que não são absolutamente integráveis, como a função constante e o degrau, mas que permitem o cálculo da transformada de Fourier como um processo limite. 3.10.1. Função sinal A função sinal, mostrada na Fig.3.26 a) é dada por 1, t 0 x ( t ) sgn( t ) 0, t 0 1, t 0 (3.54) Para fins de ilustração, vamos tentar obter a transformada de Fourier da função sinal, através da definição (3.12): 0 X (f ) (1) e j 2 ft dt (1) e j 2 ft 0 e j2 ft dt j2f 0 e j2 ft j2f 0 (atenção: cuidado para não aplicar lim e x 0 , quando x é imaginário puro !) x cos(2ft ) j.sen(2ft ) X (f ) j2f 0 cos(2ft ) j. sen(2ft ) j2f 0 Contudo, o valor de cos(x) para x não é definido (!!??). Portanto, a transformada de Fourier dessa função não pode ser determinada aplicando-se a definição diretamente. Porém, ela pode ser aplicada segundo um processo limite, como visto a seguir. 90 SINAIS E SISTEMAS Para o cálculo do espectro da função sinal, vamos considerar o seguinte pulso exponencial g(t), desenhado na Fig.3.26b): g( t ) e at u( t ) eat u( t ) , a 0 sgn(t) (3.55) g(t) 1 1 e-atu(t) t t 0 -1 -eatu(-t) (a) -1 (b) Figura 3.26 - Cálculo da transformada da função sinal. a) Função sinal. b) Funções exponenciais usadas para obter a função sinal no limite, quando “a” tende a zero. Pode-se observar que, à medida que “a” tende a zero, g(t) em (3.55) tende à função sinal (3.20), mostrado na Fig. 3.26 a), isto é x ( t ) sgn( t ) limg( t ) a 0 e portanto [ x ( t )] X(f ) [lim g( t )] lim [g( t )] lim G (f ) a 0 a 0 a 0 Como G (f ) g( t ) e 0 j2 ft G (f ) dt e e at j2 ft dt e at e j2 ft dt 0 1 1 (a j2f ) (a j2f ) j2 , a2 2 fica-se com j2 2 j 2 2 a 0 a X( f ) lim G ( f ) lim a0 Portanto, obtém-se mais um par de transformada de Fourier: sgn( t ) j 1 f (3.56) 3.10.2. Função constante Apesar de corresponder a um sinal extremamente simples, a função constante x(t)=A não é absolutamente integrável e nem permite que seu espectro seja determinado a partir de (3.12) (verificar isto !). Assim, deve-se aplicar o processo 91 ANÁLISE DE SINAIS APERIÓDICOS: TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO limite conforme visto no item anterior. Para isto, vamos considerar o par de transformadas de Fourier: A.rect ( t / ) A sin (f) . No limite, quando a largura do pulso de amplitude A tende ao infinito e, portanto, podemos afirmar que x ( t ) lim A.rect ( t / ) Considerando-se a transformada de Fourier de ambos os lados [ x ( t )] X(f ) [lim A.sinc(f / )] lim [A.rect ( t / )] lim[A.sin (f)] Chamando-se 1 / , observa-se que .1 f X(f ) A lim[ sinc( )] 0 e assim, a partir de resultados do Capítulo 1, observa-se que o termo entre colchetes é um impulso no limite. Portanto, obtém-se finalmente, um novo par de transformada de Fourier: A A.(f ) (3.57) cujos gráficos estão esboçados na Fig.3.27. A t 0 0 f Figura 3.27 - Transformada de Fourier da função constante. Este resultado já devia ser esperado pois informa, simplesmente, que o espectro da função constante (só apresenta componente DC) é constituído por um impulso na origem (é não-nulo apenas em f=0). Exemplo 3.12: Calcular a integral imprópria e j2 xy dy Solução: Basta recorrer à definição de transformada de Fourier (3.12), com x(t)=1, e empregar (3.57) com A=1: X(f ) [1] 1.e j2 ft dt (f ) , e assim, 92 e j2 xy dy ( x ) SINAIS E SISTEMAS 3.10.3. Degrau unitário O degrau unitário é definido por 1, t 0 x ( t ) u( t ) 0 , t 0 (3.58) e também não é absolutamente integrável. O leitor deve tentar calcular a transformada de Fourier do degrau usando a definição (3.12), a fim de concluir que ela não conduz a resultado definido. Porém, deve-se notar que x( t ) u ( t ) 1 sgn( t ) 2 (3.59) Assim, usando a propriedade de linearidade e o resultado (3.56), obtém-se 1 1 sgn( t ) (f ) X (f ) j 2 2 2 ou seja u(t) ( f ) 1 j 2 2f (3.60) O espectro da função degrau é mostrado na Fig.3.28. |X(f)| 2.5 2 1.5 1 0.5 0 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8 f arg{X(f)} 150 100 50 0 -50 -100 -150 -0.8 -0.6 -0.4 -0.2 0 f Figura 3.28 - Módulo e fase do espectro de um degrau unitário. Como o leitor perceberá, o conceito de transformada de Fourier e de suas propriedades constituirão ferramentas poderosas para análise de sistemas lineares invariantes no tempo (Capítulo 4) e amostragem de sinais (Capítulo 5). 93 ANÁLISE DE SINAIS APERIÓDICOS: TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO 3.11 EXERCÍCIOS 3.11.1. Na transformada de Fourier, com v(t)V(f): a). Mostre que se: i) v(t) for real e par, V(f) é real e par; ii) v(t) for real e ímpar, V(f) é imaginário e ímpar; iii) v(t) for imaginário e par, V(f) é imaginário e par; iv) v(t) for complexo e par, V(f) é complexo e par; v) v(t) for complexo e ímpar, V(f) é complexo e ímpar; b) Demonstre as seguintes relações: i) v(-t) V(-f); ii) v*(t) V*(-f); iii) v*(-t) V*(f); iv) v(t-) V(f)exp(-j2f); v) v(-t+) V(-f) exp(-j2f); vi) v*(-t+) V*(f) exp(-j2f); 3.11.2. A partir da definição, determinar a transformada de Fourier a t exponencial bilateral v( t ) e . da função 3.11.3. Demonstrar o teorema de Parseval (3.32). 3.11.4. Demonstrar os seguintes teoremas da transformada de Fourier: a) Dualidade; b) Retardo no tempo; c) Mudança de escala; d) Modulação complexa; e) Diferenciação. Sugestão: Consultar o livro do Carlson [3]. 3.11.5. Demonstrar que é necessário acrescentar um impulso unitário ao teorema da Integração para sinais cujas áreas líquidas são não nulas, isto é 1 t 1 v()d V(f ) j2f 2 (f ) 3.11.6. Dado z b ( t ) Arect( t/2 t/2 ) Arect( ) calcular a transformada de Fourier de w (t) t A(1 / ), 1 z b ( )d 0 . Desenhar os gráficos de zb(t), w(t) e seu espectro. 3.11.7. Demonstrar os teoremas da convolução 94 SINAIS E SISTEMAS v * w ( t ) V (f ) W (f ) v ( t ) w ( t ) V (f ) * W ( f ) 3.11.8. Comprovar a propriedade de modulação, partindo-se da propriedade de translação em frequência e da transformada de Fourier do co-seno. 3.11.9. Considere os sinais xp(t), x1(t) e x2(t), mostrados na Fig.P3.11.8 onde x1(t) e x2(t) podem ser obtidos a partir de xp(t). Mostre que X1(kf0) e X2(kf0), ou seja, os coeficientes Ck podem ser obtidos a partir de x1(t) ou x2(t). Ou seja, pode-se montar o sinal periódico de diversas maneiras, o que não vai afetar o resultado. xp(t) -T0 x1(t) T0 t -T0/2 T0/2 x2(t) t T0 t Figura P3.11.9. 3.11.10. Obter o valor da integral I 12 sinc(6 x ).dx 3.11.11. Obtenha o valor da seguinte integral, utilizando a relação de Parseval: I e 2 t u ( t ).dt 3.11.12. A partir do resultado obtido no exemplo anterior, e do teorema de energia de Parseval, mostrar que (a 2 x 2 ) 2 dx 3 0 4a 3.11.13. Determine a Transformada de Fourier de um pulso Gaussiano de área 1 t2 p ( t ) exp( ). unitária: 22 2 Sugestão: Usar as propriedades de diferenciação. 3.11.14. Determine a Transformada de Fourier de x(t)=sinc2t Dê a expressão e esboce o gráfico de X(f). 3.11.15. Calcule a transformada de Fourier do pulso: 2t 2 x ( t ) A cos 0 t , 0 T0 T0 expresse seu resultado em termos da função sinc e forneça um gráfico do módulo e da fase de X(f). 95 ANÁLISE DE SINAIS APERIÓDICOS: TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO 3.11.16. Este exercício tem como objetivo o estudo do impulso como o limite de algumas funções. Escreva a transformada de Fourier das seguintes funções abaixo, e fazer lim (0) no tempo e freqüência. Quais os sinais resultantes? Interprete os resultados nos domínios do tempo e da frequência. 3.11.17. Mostre que a transformada de Fourier inversa de (f) é igual a 1. 1 t 1 t b) sinc a) 3.11.18. Usando somente a transformada de Fourier do impulso unitário, e propriedades adequadas, encontre a transformada de Fourier dos mostrados na Fig.P3.11.18: x(t) x(t) 1 1 1 2 3 (a) t 1 t 2 t (b) x(t) x(t) 1 1 1 2 3 (c) 2 t t2 1 (d) Figura - P3.11.18. 3.11.19. Há várias maneiras de se estimar a banda essencial de sinais de banda ilimitada. Para um sinal passa-baixas, por exemplo, a banda essencial pode ser escolhida a partir da freqüência onde a amplitude do espectro atinge K% do seu valor de pico (normalmente em f=0), onde a escolha de K depende da aplicação. Para K=5, determine a banda essencial dos sinais: a) g( t ) e a t u( t ); a>0 b) g( t ) e a t ; a>0 3.11.20. Usando a técnica das diferenciações sucessivas determinar a transformada de Fourier do pulso co-senoidal levantado (raised cosine pulse): x(t) A t 1 cos .rect ( t / 2) 2 Sugestão: Livro do Carlson [3]. 96 SINAIS E SISTEMAS 3.11.21. Calcular a transformada de Fourier de (este é um sinal de FM, modulado por uma porta) v(f ) A cos c t A.rect ( t / ). cos c t A.rect ( t / ). cos 2 c t , onde =2/fc. Desenhar os gráficos de v(t) e seu espectro. 3.11.22. Calcular a transformada de Fourier da senóide amortecida: w ( t ) e at sen 0 t. u ( t ) . Desenhar os gráficos de v(t) e seu espectro. 3.11.23. Considere-se a função trem de impulsos no tempo definida por: rep T1 [( t )] (t nT ) n 1 c) Esboçar o gráfico da função rep T1 [( t )] . d) Calcular a Série de Fourier de rep T1 [( t )] . e) Mostrar que a Transformada de Fourier de rep T1 [( t )] é dada por {rep T1 [( t )]} 1 rep1 / T1 [(f )] . T1 f) Calcular graficamente e desenhar o resultado da convolução do trem de impulsos rep T1 [( t )] com uma função pulso retangular rect ( t / T2 ) , isto é, v(t)= rect ( t / T2 ) * rep T1 [( t )] , para T1>>T2, onde: 1 para rect ( t / T2 ) 0 para t T2 / 2 t T2 / 2 . g) Mostrar analiticamente que a Transformada de Fourier da função v(t) é dada por T [ v ( t )] 2 T1 sinc n nT2 n .(f ) . T1 T1 3.11.24. Uma análise grosseira do espectro do sinal de vídeo (TV em preto e branco) pode ser realizada adotando-se um modelo simplificado para tal sinal, conforme ilustrado na Fig.P3.11.21: 97 ANÁLISE DE SINAIS APERIÓDICOS: TRANSFORMADA DE FOURIER DE TEMPO CONTÍNUO Th Ta 0,7 V 0V -0,3 V Ts Tp Figura P3.11.24 onde o período do sinal é Th=63,5 ms e os demais valores aproximados são Ts=5 ms, Ta=11 ms e Tp=2 ms. Esta forma de onda representa uma tela branca. O pulso estreito de amplitude –0,3 V sincroniza as linhas na tela e o pulso de largura Ta é o chamado pulso de apagamento horizontal, sendo que o nível 0V representa o preto na imagem. Nesta análise, está se ignorando o apagamento e sinconização vertical. a) Representar matematicamente a forma de onda acima, como uma combinação linear de três termos: um nível DC e dois pulsos retangulares. Escolher a origem do tempo como melhor lhe convier e utilizar símbolos em vez de valores numéricos para os parâmetros temporais. b) Calcular o espectro do sinal e esboçar o espectro de magnitudes. 98 SINAIS E SISTEMAS CAPÍTULO 4: ANÁLISE DE SISTEMAS Este Capítulo tem por objetivo introduzir os conceitos de sistemas, discutir a resposta em frequência e apresentar alguns exemplos de sistemas elementares importantes. O leitor perceberá que a análise de sistemas constitui uma generalização da teoria de circuitos elétricos. A análise de circuitos trata das relações entre tensões e correntes; a análise de sistemas trata com relações entre sinais, que podem ser tensões, correntes, temperatura, pressão ou outra grandeza física que varie no tempo. Circuitos são descritos por diagramas de circuitos, que são interconexões de elementos idealizados (resistências, capacitâncias, indutâncias e fontes). Sistemas são descritos por diagramas de blocos, que são interconexões idealizadas de sistemas elementares. O objetivo da análise de circuitos é obter e interpretar relações entre tensões e correntes no circuito elétrico. O objetivo da análise de sistemas é obter e interpretar as relações entre sinais de entrada e saída no sistema. 4.1. INTRODUÇÃO Assim como sinais, encontramos sistemas em diversas situações do dia-a-dia. Um rádio é um sistema que converte as ondas eletromagnéticas captadas por sua antena em sinais sonoros audíveis. Dentro deste sistema rádio, existem subsistemas responsáveis por determinadas tarefas específicas, como por exemplo os alto-falantes, que convertem sinais elétricos em variações de pressão, que é o som. Este sistema é chamado de transdutor. Um outro sistema envolvido na recepção de ondas de rádio é um filtro que reduz ruídos e interferências que tendem a prejudicar a recepção. Um amplificador de áudio pode ser considerado outro sistema, cuja função é elevar/atenuar o nível de sinal. entrada SISTEMA x(t) saída y(t) S{.} y(t) = S {x(t)} Figura 4.1 - Representação de um sistema genérico. Portanto, um sistema pode ser visto como um processo, ou uma caixa-preta, que tem à sua entrada um ou mais sinais, e que produz um outro(s) sinal(is) na sua saída, ou, em outras palavras, produz uma transformação nos sinais de entrada. Matematicamente, é dito também que um sistema mapeia uma dada função (sinal de entrada) em outra (sinal de saída). Em outras ocasiões, um sistema é tratado como um 99 ANÁLISE DE SISTEMAS operador matemático S{ . }, que atua sobre o sinal de entrada para constituir a saída. Esquematicamente, pode-se representar um sistema como na Fig.4.1. De maneira genérica considera-se que a entrada do sistema é x(t) e a saída é y(t). 4.2. CARACTERÍSTICAS DE SISTEMAS Nesta seção são apresentadas as principais características de sistemas, e é dada especial atenção aos sistemas ditos lineares e invariantes no tempo (SLIT). Os sistemas considerados neste texto terão uma única entrada e uma única saída (SISO Single Input Single Output). 4.2.1 Sistemas com e sem memória Um sistema é chamado sem memória [2] ou estático [8] se a saída y(t), num determinado instante, depende da entrada x(t) apenas naquele instante, i.e., não depende de entradas anteriores nem posteriores. No caso contrário, o sistema é dito com memória ou dinâmico. Exemplo 4.1: Citar um exemplo de sistema sem memória e um com memória Solução: O sistema identidade y(t) = x(t) , é um exemplo de sistema sem memória pois uma saída num determinado instante t0, y(t0), depende apenas do valor da entrada nesse mesmo instante, isto é, de x(t0). Por outro lado, um sistema especificado por y(t) = x(t - 1) + 2x(t + 2) , constitui um sistema com memória, pois a saída no instante t2 = 2 s, por exemplo, depende das entradas em t1 = 1 s e em t3 = 3 s. Exemplo 4.2: Citar um exemplo prático de sistema sem memória e outro com memória Solução: Um divisor de tensão resistivo é um exemplo prático de um sistema sem memória: R1 x(t) R2 y(t)=x(t).R2/(R1+R2) Figura 4.2 - Exemplo de sistema sem memória Por outro lado, a relação entre a tensão e a corrente num capacitor representa um sistema com memória, pois a tensão depende não só da corrente no instante atual t, mas também de todos os valores de correntes desde - até t: x(t) t C 1 y( t ) x( )d C Figura 4.3 - Exemplo de sistema com memória Os exemplos anteriores são bastante ilustrativos pois permitem introduzir o conceito de estado/condições iniciais. A resposta de um sistema sem memória 100 SINAIS E SISTEMAS depende apenas da entrada x(t), ou seja, dada a entrada, a saída é determinada. Para um sistema com memória, a saída depende não só da entrada, mas das chamadas condições iniciais, ou estado do sistema. A resposta y(t) de um sistema com memória para t t 0 é determinada por [2]: condições iniciais em t t 0 , v ( t 0 ) entrada para t t 0 ou esquematicamente y( t ) x( t ) , t t 0 v(t 0 ) (4.1) A resposta do sistema pode ser dividida em duas partes: Uma devida às condições iniciais considerando a entrada zero. Esta, às vezes, é chamada de resposta a entrada zero ou resposta homogênea, yh(t). Uma devida somente à entrada, considerando condições iniciais nulas. Esta pode ser chamada de resposta forçada, yf(t). Dessa forma: y(t)=yf(t)+yh(t), e o mesmo sistema pode ter diferentes respostas à mesma entrada, dependendo das condições iniciais. Muitas vezes, considera-se que as condições iniciais são nulas. Exemplo 4.3: Especificar a resposta do sistema capacitor do exemplo 4.2, considerando-se as condições iniciais. Solução: Completando a análise do sistema com memória dado no exemplo 4.2, a tensão num capacitor depende da sua carga inicial (ou tensão inicial) no instante t t0: t 1 y( t ) x( ) d y( t 0 ) C t0 onde y(t) é a tensão e x(t) a corrente pelo capacitor. 4.2.2. Inversibilidade e sistemas inversos Um sistema é chamado inversível se entradas distintas levam a saídas distintas. Em outras palavras, conhecendo-se a saída, pode-se determinar a entrada de maneira única. Exemplo 4.4: Citar um exemplo de sistema inversível e outro não inversível. Solução: Um exemplo de sistema inversível é: y(t) = 2x(t) , cujo sistema inverso é z(t) = y(t) / 2 = x(t) 101 ANÁLISE DE SISTEMAS Um exemplo de sistema não-inversível é: y(t) = x 2 (t) , pois, dada uma saída, existe uma ambiguidade de sinal em relação à entrada. Por exemplo, à saída y=4, podem ser associadas as entradas x=-2 ou x=+2. 4.2.3. Causalidade (ou Realizabilidade) Um sistema é causal [2]-[4] ou realizável [8] se a saída no instante t depende apenas de valores da entrada para instantes de tempo menores ou igual a t, ou seja, a saída não pode depender de valores futuros da entrada. Exemplo 4.5: Citar um exemplo de ambos, um sistema causal e um não causal. Solução: Um sistema causal é y(t) = x(t) + x(t - 2) pois todas as entradas atuais (no instante t) dependem apenas de entradas atuais (nos instantes t) ou passadas (nos instantes t-2). Por outro lado, um sistema não-causal é y(t) = x(t + 1) pois uma saída avaliada no instante atual t segundos , depende da entrada em (t+1) segundos, e que portanto ainda não aconteceu. Todos os sistemas físicos são causais. Conforme será visto adiante, um filtro ideal é um sistema não-causal ou não-realizável fisicamente, e portanto não pode ser implementado com componentes reais. No projeto de um filtro prático, procura-se uma aproximação para um filtro ideal, mas respeitando-se o princípio da causalidade. A causalidade é importante quando trabalha-se com sistemas que operam em tempo real, como em sistemas de comunicações e sistemas de controle. Em aplicações onde não se necessita o processamento em tempo real, podem aparecer sistemas nãocausais [10]. Por exemplo, em sinais gravados (voz, geofísicos, imagem), pode-se utilizar toda a informação armazenada para determinar uma saída num determinado instante, o que pode ser considerado uma operação não-causal. 4.2.4. Estabilidade Um sistema estável é aquele onde pequenas entradas (de baixa amplitude) produzem saídas que não divergem. Uma outra definição é que entradas limitadas produzam saídas limitadas (BIBO - Bounded Input Bounded Output). Exemplo 4.6: Citar um exemplo de ambos, um sistema estável e um não estável. Solução: Um exemplo de sistema estável é: 102 SINAIS E SISTEMAS y(t) = 2x(t) pois, se x(t) é limitada, então, existe um número Mx, tal que, x ( t ) M x para todo t e, portanto, ocorre y( t ) 2 x ( t ) 2M x , independentemente de t. Um exemplo de um sistema instável é o acumulador, definido por: t y( t ) x ()d . Assim, por exemplo, se x( t ) u( t ) (degrau unitário), a qual é limitada (pois u(t)1 para todo t), observa-se que o resultado da integral, quando t, diverge e tende para +. Exemplo 4.7: Citar um exemplo prático de sistema estável e outro instável. Solução: Um sistema de som em um auditório (com microfone, amplificadores e caixa de som) é um exemplo de sistema estável, pois a saída do sistema é uma versão amplificada da voz do cantor. Por outro lado, o sistema pode tornar-se instável se um cantor em movimento ficar muito próximo ao alto-falante, e gerar o efeito de microfonia. Conforme percebe-se no exemplo anterior, é muito mais fácil provar que um sistema não é estável, do que o contrário, uma vez que basta apresentar um único contra-exemplo para comprovar a negação. Porém, para provar que um dado sistema é estável (ou sem memória, ou inversível, ou causal, etc), devem-se apresentar argumentos que valham para todos os instantes de tempo e para todos os sinais de entrada possíveis e imagináveis. 4.2.5. Invariância no tempo Um sistema é dito invariante no tempo se um atraso na entrada produz o mesmo atraso na saída. Um sistema variante no tempo é um sistema cujas características são alteradas com o tempo como, por exemplo, as alterações das propriedades de um circuito eletrônico quando a temperatura em torno dele varia significativamente [5]. Se uma entrada x(t) produz uma saída y(t), então, se o sistema é invariante no tempo, ocorrem S x ( t ) y( t ) S x ( t t 0 ) y( t t 0 ) (4.3) Como veremos a seguir, quando a invariância de um sistema é associada a linearidade permite-se estabelecer uma análise matemática extremamente elegante. Exemplo 4.8: Citar um exemplo de ambos, um sistema invariante e um não invariante. Solução: Como exemplo de sistema invariante, considere y( t ) sin x( t ) Chamando a saída y1(t) como a resposta a uma entrada x1(t), tem-se 103 ANÁLISE DE SISTEMAS y1 ( t ) sin x1 ( t ) Seja agora a entrada x2(t) x 2 ( t ) x1 ( t t 0 ) cuja correspondente saída é y2 ( t ) sin x2 ( t ) sin x1 ( t t 0 ) e como y1 ( t t 0 ) sin x1 ( t t 0 ) tem-se que y2 ( t ) y1 ( t t 0 ) e o sistema é invariante no tempo. Por outro lado, considere agora o sistema y( t ) t x( t ) e para uma entrada x1 ( t ) , y1 ( t ) t x1 ( t ) . Para uma entrada x 2 ( t ) x 1 ( t t 0 ) , tem-se a saída y2 ( t ) t x2 ( t ) t x1 ( t t 0 ) Como y1 ( t t 0 ) ( t t 0 ) x1 ( t t 0 ) y2 ( t ) e portanto o sistema não é invariante no tempo. Exemplo 4.9: Um sistema diferenciador é um dispositivo caracterizado pela relação y(t)=dx(t)/dt. Avaliar se o diferenciador é invariante no tempo. Solução: Vamos avaliar a resposta do diferenciador à uma entrada x1(t): y1 ( t ) dx 1 ( t ) . dt A resposta à x2(t) = x1(t-t0) será y2 (t) dx 2 ( t ) dx1 ( t t 0 ) dx1 ( t t 0 ) d( t t 0 ) . [ y1 ( t t 0 )(1 0)] dt dt d( t t 0 ) dt y1 ( t t 0 ) 104 SINAIS E SISTEMAS que evidencia que o sistema é invariante no tempo. 4.2.6. Linearidade Um sistema linear é aquele onde vale o princípio da superposição: se a entrada é uma combinação linear de diversos sinais, a saída será a combinação linear das respostas do sistema a cada um dos sinais de entrada. a) Linearidade para sistemas sem memória Para um sistema sem memória, a saída y(t) depende apenas da entrada x(t). Se as respostas às entradas x1(t) e x2(t) são y1(t)=S{x1(t)} e y2(t)=S{x2(t)}, respectivamente, então o sistema é linear se S x 1 ( t ) x 2 ( t ) S{y1 ( t )} S{y 2 ( t )} y1 ( t ) y 2 ( t ) (aditividade) (4.4) (homogeneidade) (4.5) e S a.x 1 ( t ) a.S{y1 ( t )} a.y1 ( t ) As duas condições acima, combinadas numa só, são o que se chama de princípio da superposição, que pode ser rescrito de maneira mais sucinta como S a 1 x 1 ( t ) a 2 x 2 ( t ) a 1 S x 1 ( t ) a 2 S x 2 ( t ) a 1 y1 ( t ) a 2 y 2 ( t ) (4.6) Exemplo 4.10: Avaliar se os sistemas abaixo são ou não lineares: a) y(t) = sin x(t) b) y( t ) x ( t ).sin t c) y( t ) ax ( t ) b , a, b constantes Solução: a) Fazendo x ( t ) a 1 x 1 ( t ) a 2 x 2 ( t ) , tem-se que S a 1 x 1 ( t ) sina 1 x 1 ( t ) , S a 2 x 2 ( t ) sina 2 x 2 ( t ) e S a 1 x 1 ( t ) a 2 x 2 ( t ) sina 1 x 1 ( t ) a 2 x 2 ( t ) Como sina 1 x 1 ( t ) a 2 x 2 ( t ) sin a 1 x 1 ( t ) sin a 2 x 2 ( t ) , tem-se que o sistema é não-linear. b) Neste caso calculam-se: 105 ANÁLISE DE SISTEMAS S a 1 x 1 ( t ) a 1 x 1 ( t ) sin (t ) , S a 2 x 2 ( t ) a 2 x 2 ( t ) sin (t ) e S a 1 x 1 ( t ) a 2 x 2 ( t ) a 1 x 1 ( t ) a 2 x 2 ( t ) sin ( t ) e observa-se facilmente que S a 1 x 1 ( t ) a 2 x 2 ( t ) S a 1 x 1 ( t ) S a 2 x 2 ( t ) e portanto o sistema é linear. c) No caso onde y( t ) ax ( t ) b , para a e b contantes, tem-se y1 ( t ) ax 1 ( t ) b y 2 ( t ) ax 2 ( t ) b S x 1 ( t ) x 2 ( t ) ax 1 ( t ) ax 2 ( t ) b y1 ( t ) y 2 ( t ) e, portanto, o sistema é não-linear. Sistemas de modulação em frequência (FM) respondem conforme o caso a) do exemplo 4.10 e, portanto, o processo de FM é não-linear. Sistemas de modulação em amplitude (AM) respondem conforme o caso b) e são, portanto, lineares. Sistemas como o descrito no caso c) são ditos incrementalmente lineares, pois respondem linearmente a diferenças na entrada, ou seja, y1 ( t ) y 2 ( t ) ax 1 ( t ) ax 2 ( t ) ax 1 ( t ) x 2 ( t ) a diferença na resposta entre duas entradas é uma função linear da diferença das entradas. Exemplo 4.11: Avaliar se o diferenciador y(t)=dx/dt é um sistema linear. Solução: Sejam y1(t) e y2(t) as respostas às entradas x1(t) e x2(t), respectivamente, de maneira que y1 ( t ) dx 1 ( t ) dx 2 ( t ) e y 2 (t) dt dt A resposta à entrada a1.x1(t) e a2.x2(t) é d a 1 x 1 ( t ) a 2 x 2 ( t ) a 1 dx 1 ( t ) a 2 dx 2 ( t ) a 1 y1 ( t ) a 2 y 2 ( t ) dt dt dt o que concorda com (4.6); portanto, o sistema é linear. 106 SINAIS E SISTEMAS b) Linearidade para sistemas com memória Para um sistema com memória, a saída não depende apenas da entrada, mas também das condições iniciais. Assim, as condições de aditividade e homogeneidade devem ser aplicadas também para as condições iniciais. Considere a saída yi(t), i=1, 2, para tt0, devido às condições iniciais vi(t0) e entradas xi(t) para tt0. Então para o sistema ser linear devem valer: y i ( t ), t t 0 x i ( t ), t t 0 v i (t 0 ) (4.7) Para condições iniciais v 1 ( t 0 ) v 2 ( t 0 ) e entrada x 1 ( t ) x 2 ( t ) , deve-se ter a saída y( t ) y1 ( t ) y 2 ( t ) para tt0 (condição de aditividade) v1 (t 0 ) v 2 (t 0 ) y1 ( t ) y1 ( t ), t t 0 x 1 ( t ) x 1 ( t ), t t 0 (4.8) A condição de homogeneidade, para uma constante “a”, fica: ay1 (t ), t t 0 ax1 (t ) , t t 0 av 1 ( t 0 ) (4.9) Combinando numa só condição, a 1y1 (t ) a 2 y 2 (t ), t t 0 a 1 x1 ( t ) a 2 x 2 ( t ) , t t 0 a 1v 1 (t 0 ) a 2 v 2 (t 0 ) (4.10) Exemplo 4.12: Considere o sistema RC série a seguir, com corrente de entrada x(t), e tensão de saída y(t). x(t) R y(t) C Figura 4.4 - Circuito RC série com condição inicial não-nula. t 1 Neste caso , a tensão de saída é y( t ) Rx ( t ) x ()d v c ( t 0 ) e, a condição C t0 inicial é a tensão no capacitor em t=t0. Avaliar se esse sistema é linear. Solução: Fazendo a análise para entradas a 1x1 (t ) e a 2 x 2 (t ) e condições iniciais a 1v c1 (t 0 ) e a 2 v c 2 (t 0 ) , tem-se: 107 ANÁLISE DE SISTEMAS t a 1 v c1 ( t 0 ) 1 y1 ( t ) R.a 1 x 1 ( t ) a 1 x 1 ()d a 1 v c1 ( t 0 ) , a 1x1 (t) C t0 t a 2 v c 2 ( t 0 ) 1 y ( t ) R . a x ( t ) a 2 x 2 ()d a 2 v c 2 ( t 0 ) e 2 2 2 a 2 x 2 (t) C t0 a 1 v c1 ( t 0 ) a 2 v c 2 ( t 0 ) a1x1 (t) a 2 x 2 (t ) y( t ) R a 1 x 1 ( t ) a 2 x 2 ( t ) t 1 a 1 x1 () a 2 x 2 ()d a 1 v c1 ( t 0 ) a 2 v c 2 ( t 0 ) C t0 e portanto conclui-se que o sistema é linear. Uma outra condição importante para um sistema ser linear é que, para entrada e condições iniciais nulas, a saída deve ser igual a zero: y ( t ) 0, t t 0 x(t ) 0 , t t 0 v (t 0 ) 0 (4.11) Assim, o sistema y( t ) a x ( t ) b é não-linear, pois para x(t)=0, y(t)=b. Na prática, quase todos os sistemas são algo não-lineares, porém, em muitos casos, a não-linearidade tem um efeito tão pequeno que pode ser desprezada. Muito frequentemente, o efeito de uma não-linearidade em um componente somente se torna evidente quando as entradas são muito grandes. Cita-se também, que qualquer sistema composto apenas por elementos lineares também é linear. Em sistemas de comunicação, por exemplo, os circuitos normalmente utilizados são sistemas lineares, invariantes no tempo, assintoticamente estáveis e sem energia armazenada no instante de excitação. Esta hipótese será adotada adiante, a menos que se diga o contrário. A partir desse ponto, a abreviatura SLIT, para designar sistemas lineares e invariantes no tempo, será utilizado de forma intensiva ao longo do texto. 4.3 RESPOSTA EM FREQUÊNCIA Considere-se um sistema que seja linear, invariante no tempo (SLIT) e assintoticamente estável, isto é, um sistema no qual pode-se aplicar o princípio de superposição, não há parâmetros variáveis no tempo e o comportamento natural decai com o tempo. Na Fig. 4.5 representa-se o diagrama de blocos desse sistema, onde x(t) é o sinal de entrada (ou excitação) e y(t) é o sinal de saída (ou resposta.). x(t) H(f) y(t) Figura 4.5 - Bloco usado para representar um sistema. 108 SINAIS E SISTEMAS No caso específico, da entrada exponencial complexa x ( t ) e jt , define-se a resposta em frequência do sistema, H(f), tal que y( t ) H(f ).x ( t ) (4.12) Portanto, o sinal de saída y(t) pode ser obtido, simplesmente, através do produto entre H(f) e x(t), realizado no domínio do tempo. Contudo, ressalta-se que esse procedimento é válido apenas para a entrada exponencial complexa. Conforme será visto adiante, no caso onde x(t) tem forma arbitrária, o cálculo de y(t) no domínio do tempo não é tão simples. Exemplo 4.13: Filtro RC passa-baixa A rede RC passa-baixa é mostrada na Fig.4.6; x(t) é a tensão de entrada e y(t) é a tensão de saída em condições de circuito aberto (sem carga). Obter a resposta em frequência desse filtro. Solução: A equação diferencial dessa rede é RC dy( t ) y( t ) x ( t ) e j2 ft dt R x(t) y(t) C Figura 4.6 - Filtro passa-baixa RC. Da teoria de equações diferenciais, sabe-se que a solução geral dessa equação é constituída por uma solução complementar/homogênea e uma solução particular/forçada. A solução complementar origina-se da análise do sistema homogêneo e deve apresentar um comportamento exponencial decrescente, anulandose em condição de regime estacionário. Portanto, preocupa-se apenas com a solução particular, a qual depende da forma específica da entrada x(t) (ou função forçante). No presente caso, sabe-se que tal solução tem forma y( t ) A.e j2 ft B.e j2 ft onde A e B são coeficientes a determinar. Substituindo-se esta expressão na equação diferencial, obtém-se RC.[A( j2f ).e j2 ft B( j2f ).e j2 ft ] [A.e j2 ft B.e j2 ft ] e j2 ft a partir da qual se extrai que y( t ) A 1 /(1 j2RCf ) e B=0 . Portanto, 1 1 .e j2 pft .x ( t ) 1 j2RCf 1 j2RCf 109 ANÁLISE DE SISTEMAS Finalmente, obtém-se a resposta em frequência H (f ) y( t ) 1 x ( t ) 1 j2RCf para x ( t ) e j2 ft . Conforme visto nesse exemplo, em geral, a resposta em frequência é uma grandeza complexa e, portanto, pode ser expressa na forma H(f ) H(f ) .e j arg[ H ( f )] (4.13) onde H(f) é o módulo e arg[H(f)] é o ângulo de fase. No exemplo a seguir, mostra-se que H(f) apresenta simetria Hermitiana em relação a f, isto é H(f ) H * (f ) H(f ) .e j. arg H ( f ) (4.14) a qual indica que o gráfico do módulo H(f) tem simetria par e, o da fase arg[H(f)], tem simetria ímpar. Exemplo 4.14: O regime permanente senoidal Determinar a resposta de um SLIT à excitação x ( t ) A x cos( 0 t x ) . Solução: Usando-se a identidade de Euler, observa-se que x(t) pode ser escrito como A A x ( t ) x e j x .e j0 t x e j x .e j0 t 2 2 donde percebe-se que cada parcela de x(t) constitui uma exponencial complexa, uma na frequência f0 e outra em –f0, cuja resposta pode ser obtida a partir de (4.12) A y( t ) H(f 0 ) x e j x 2 j 0 t A j .e H(f 0 ) x e x 2 j 0 t .e Embora H(f0) seja uma função complexa, em circuitos práticos, y(t) deve ser uma função real no tempo pois x(t) é real. Entretanto, isto será verdadeiro se, e somente se, H(f) for Hermitiana, conforme (4.14). Assim, substituindo-se (4.13), pode-se obter y ( t ) H (f 0 ) A x j( 0 t x arg H ( f 0 )) [e e j( 0 t x arg H ( f 0 )) ] 2 e, portanto, usando novamente a identidade de Euler, obtém-se a solução final y( t ) A y cos(0 t y ) onde A y H(f 0 ) .A x e y x arg [H(f 0 )] 110 SINAIS E SISTEMAS Apesar de ser um caso particular, o resultado do exemplo anterior, informando que a função H(f) é Hermitiana, pode ser estendido para qualquer rede real. Demonstrou-se que o sinal de saída de um SLIT, para uma excitação senoidal também é senoidal, na mesma frequência de entrada e diferindo somente na amplitude e no ângulo de fase, conforme é regularmente estudado em circuitos elétricos. Além disso, trabalhando-se apenas com as senóides de entrada e de saída, podem ser determinadas as características H(f) e arg[H(f)]. A partir desta propriedade, justificase o procedimento de levantar experimentalmente a resposta em frequência de sistemas usando-se sinais senoidais, mesmo que o sistema se destine a operar com sinais de natureza arbitrária. Nesta seção estudou-se o procedimento para obter o sinal de saída e a resposta em frequência de SLITs quando as entradas são exponenciais complexas ou sinais senoidais. Na próxima seção, estuda-se como obter esses sinais de saída para entradas arbitrárias. 4.4 RESPOSTA PARA SINAIS ARBITRÁRIOS Considere agora um sistema linear invariante no tempo (SLIT), com condições iniciais nulas em t=0. Aplicando à entrada um impulso unitário, (t), tem-se uma saída h(t), conforme o esquema da Fig.4.7: (t) h(t) SLIT Figura 4.7 - Sistema Linear invariante no Tempo com entrada impulsiva. A função h(t) é a resposta do sistema a um impulso unitário, ou simplesmente resposta impulsiva do sistema, ou seja h ( t ) S ( t ) (4.15) Além disso, como o sistema é invariante no tempo h ( t ) S ( t ) (4.16) Como foi visto no Capítulo 1, qualquer sinal x(t) pode ser escrito como a seguinte convolução com o impulso: x ( t ) x ( t ) ( t ) A resposta do sistema S{ . } para a entrada x(t) é, portanto, y( t ) S x ( t ) S x ( t ) ( t ) S x () ( t )d (4.17) 111 ANÁLISE DE SISTEMAS Como o presente sistema é linear, vale o princípio de superposição, e assim, pode-se permutar a ordem entre o operador S{ . } e a integral (somatório contínuo) x () S(t )d y( t ) (4.18) e portanto, a resposta do SLIT depende somente do conhecimento da resposta impulsiva. Por outro lado, aplicando-se (4.16) y( t ) x() h (t )d que é a integral de convolução: y( t ) x()h (t )d x(t ) h(t ) (4.19) Assim, chega-se ao importante resultado que, para se obter a saída de um SLIT a uma entrada x(t) qualquer, basta conhecer sua resposta impulsiva h(t) e efetuar a convolução indicada em (4.19). Em outras palavras, num SLIT (causal), a resposta impulsiva caracteriza completamente o sistema. Como a convolução é uma propriedade comutativa, também é possível escrever y( t ) h()x(t )d h (t ) x (t ) (4.20) Em geral, a resposta ao degrau é um resultado mais utilizado na prática que a resposta impulsiva. Chamando a resposta ao degrau de um SLIT de g(t): g( t ) S u ( t ) u(t) h(t) h(t) u(t) h()u(t )d Considerando agora a derivada da resposta ao degrau: dg ( t ) d h ()u ( t )d dt dt d h () dt u(t )d Como 112 d u (t ) ( t ) , dt (4.21) SINAIS E SISTEMAS dg ( t ) h ()( t )d h ( t ) ( t ) h ( t ) dt e portanto h(t) dg( t ) d S{u ( t )} dt dt (4.22) ou seja, pode-se obter a resposta impulsiva a partir da derivada no tempo da resposta ao degrau. 4.5 RESPOSTA IMPULSIVA E RESPOSTA EM FREQUÊNCIA Considere novamente um sistema linear invariante no tempo (SLIT), excitado por x ( t ) e j2 ft . Aplicando-se (4.20) obtém-se j 2 f ( t ) j 2 f h ( ). e d d .e j2 ft h ().e porém, o termo entre chaves é a transformada de Fourier de h(t), e assim y( t ) h ( t ) x ( t ) y( t ) [h ( t )].e j2 ft (4.23) Por outro lado, discutimos na seção 4.3 que a resposta em frequência H(f) é tal que y( t ) H(f ).e j2 ft (4.24) Assim, comparando-se as expressões (4.23) com (4.24) conclui-se que a resposta em frequência de um SLIT é dada pela transformada de Fourier da sua resposta impulsiva h(t): H(f ) [h ( t )] h (t )e j 2 ft dt (4.25) Portanto, fica estabelecido mais um par de transformada de Fourier, a saber: h ( t ) H (f ) (4.26) Como a saída y(t) de um SLIT, com entrada x(t) e resposta impulsiva h(t), é y( t ) x ( t ) h ( t ) , aplicando-se o teorema da convolução discutido no Capítulo 3, tem-se em frequência, Y (f ) X (f ) H (f ) (4.27) 113 ANÁLISE DE SISTEMAS informando que o espectro do sinal de saída do SLIT é obtido simplesmente multiplicando-se o espectro do sinal de entrada pela sua resposta em frequência. Na Fig.4.8 resumem-se os resultados obtidos para o SLIT. x(t) X(f) h(t) H(f) y(t)=x(t)*h(t) Y(f)=X(f) H(f) Figura 4.8 - Relações entre entrada e saída no tempo e frequência de um SLIT. Para sistemas reais, h(t) é uma função real e H(f) apresenta simetria Hermitiana (pois apresenta todas as propriedades da transformada de Fourier estudadas no Capítulo 3), ou seja, H (f ) H * ( f ) H (f ) H ( f ) (4.28) arg[H(f )] arg[H(f )] O módulo e a fase do espectro da saída y(t) ficam: Y ( f ) X ( f ) H (f ) arg[Y(f )] arg[X(f )] arg[H(f )] (4.29) A resposta em frequência de um sistema indica como será modificado o espectro de frequência (magnitude e fase) do sinal de entrada. Quando um sinal de informação é transmitido de um ponto a outro, o meio de transmissão pode ser visto como um sistema com resposta em frequência H(f). Neste caso, é desejável que não ocorram modificações no espectro original, ou seja, H(f) não deve distorcer o sinal transmitido. Já numa aplicação de filtragem, i.e., onde H(f) é um filtro (passa-baixas, por exemplo), é desejável que H(f) corte certas frequências do sinal de entrada com o objetivo de reduzir interferências e ruídos. Usando-se o teorema de energia de Parseval, verifica-se que a energia do sinal de saída do SLIT é Ey 2 (4.30) Y(f ) df A densidade espectral de energia do sinal de saída, Y(f)2, pode ser obtida a partir de (4.27) 2 2 Y (f ) H (f ) . X (f ) 2 (4.31) em termos da densidade espectral de energia de entrada, X(f)2. Antes de concluir esta seção, cabe aqui uma observação quanto à nomenclatura utilizada neste e em outros textos. A resposta em frequência de um 114 SINAIS E SISTEMAS sistema H(f), como já foi mencionado, indica como o sistema modifica a amplitude e a fase de um sinal senoidal na frequência f aplicado à sua entrada. Em alguns textos, H(f) pode ser chamada de função de transferência [3], [4] ou função de sistema [9]. No entanto, os autores desta publicação consideram melhor reservar a denominação de função de transferência (ou de sistema) a uma representação mais abrangente de um determinado sistema. Essa representação mais geral, para sistemas de tempo contínuo, é feita por meio da transformada de Laplace, na variável complexa s j2f . Num sistema linear e invariante no tempo, a entrada e a saída estão relacionadas por Y(s) X(s) H(s) , com X(s) e Y(s) sendo as transformadas de Laplace dos sinais de entrada e saída, respectivamente, e H(s) é a função de transferência do sistema. Para o caso particular onde s j2f , tem-se a resposta do sistema em regime permanente senoidal, e portanto a função de transferência se reduz à resposta em frequência do sistema. Em outras palavras, a resposta em frequência H(f), às vezes representada também por H( j) , é um caso particular obtido da função de transferência H(s), a partir da qual também se pode obter a resposta transitória do sistema. Em comunicações, geralmente tem-se o interesse de se trabalhar no regime permanente senoidal, e portanto a resposta em frequência é mais utilizada. Em sistemas de controle, pode-se ter um interesse maior em analisar a resposta transitória, para a qual a representação do sistema em termos da função de transferência é mais comum. Exemplo 4.15: Esboçar o espectro de magnitudes do filtro RC passa-baixa e determinar sua largura de banda. Solução: No exemplo (4.13) foi visto que a equação diferencial deste sistema é x ( t ) RC dy( t ) y( t ) dt Assim, aplicando-se a transformada de Fourier a ambos os lados dessa equação, obtém-se X(f ) RC( j2f ).Y(f ) Y(f ) e daí H (f ) 1 1 j2fRC O módulo de H(f) é H (f ) 1 1 (2fRC) 2 115 ANÁLISE DE SISTEMAS sendo que seu gráfico é mostrado na Fig.4.9. H(f) 1 1/ 2 0,707 -B 0 f B Figura 4.9 - Espectro de magnitudes do filtro RC passa-baixa. Aplicando-se o critério de largura de banda de –3dB=20.log10[1/ 2 ] , determina-se o valor de f =B tal que H (f ) 1 / 2 , obtendo-se B 1 2RC Aproveitando-se do resultado obtido no exemplo anterior, vamos avaliar a ação da filtragem passa-baixa sobre um dado sinal de entrada. Na Fig.4.10 ilustram-se três situações nas quais o sinal de entrada é mantido fixo, com largura de banda w, e varia-se a largura de banda B do filtro RC passa-baixa. O gráfico de Y(f) é obtido a partir de (4.29). No caso a) considera-se B>>w, e assim, H(f) varia muito pouco dentro da banda de sinal, isto é, H(f)1 para 0<f<w. Aplicando-se (4.29) obtém-se Y(f) = H(f). X(f) X(f) e, portanto, y(t) x(t), notando-se pouca distorção do sinal. No caso c) considera-se que B<<w, e assim, Y(f) H(f). X(0) para 0<f<w e, assim, y(t) X(0).h(t), sendo a saída semelhante à resposta impulsiva. No caso b) obtém-se um comportamento intermediário entre os casos anteriores. X(f) X(f) 0 w X(f) f 0 H(f) 1 f w 0 H(f) 1 f 0 Y(f) w (a) f B 0 f 0B Y(f) 0 w (b) f 0 w (c) Figura 4.10 - Análise espectral do filtro RC passa-baixa. a) B>>w. b) B w. c) B<<w. 116 f H(f) 1 Y(f) 0 w f SINAIS E SISTEMAS Exemplo 4.16: Esboçar o sinal de saída do filtro RC passa-baixa quando o sinal de entrada for a porta t /2 x ( t ) A.rect Solução: Em primeiro lugar calcula-se a resposta impulsiva desse filtro, invertendo-se a transformada de Fourier H(f) obtida no exemplo 4.15. O leitor poderá verificar que 1 RC 1 t / RC h ( t ) 1 . e u(t) RC 1 j2fRC RC sendo os gráficos de x(t) e h(t) mostrados na Fig.4.11. h(t) x(t) 1/RC A t 0 t 0 (a) (b) Figura 4.11 - Sinais para análise do filtro RC passa-baixa. a) Sinal de entrada. b) Resposta impusiva. A partir de (4.19) sabe-se que o sinal de saída desse filtro é dado pela convolução entre os sinais mostrados na Fig.4.11. y ( t ) x ( t ) * h ( t ) x ( ) h ( t ) d Encoraja-se o leitor a verificar que o resultado dessa convolução é t0 0, y( t ) A(1 e t / RC ), 0t A(1 e t / RC ).e ( t ) / RC , t A título de ilustração, apresentam-se na Fig.4.12 alguns gráficos do sinal de saída, quando a constante RC é mantida fixa e varia-se a largura da porta . y(t) y(t) A y(t) A 0 (a) t A 0 (b) t t 0 (c) Figura 4.12 - Análise temporral do filtro RC passa-baixa. a) >> RC. b) RC. c) << RC. Pela figura 4.12 a) percebe-se que, quando o valor da largura da porta for >> RC, o sinal de saída mantém alguma semelhança com o sinal de entrada original, 117 ANÁLISE DE SISTEMAS apresentando certa distorção nas subida e descida da função porta. Isto ocorre porque o conteúdo espectral associado às descontinuidades da função porta é elevado, e o filtro as suprime em certa quantidade, tornando o sinal de saída uma versão suavizada da entrada. Porém, esta semelhança diminui à medida que a constante RC aumenta, distorcendo severamente o sinal, como mostrado nos casos b) e c). 4.5.1 Associação de SLITs No Capítulo 3, verificou-se que a convolução satisfaz às propriedades associativa e distributiva. Quando essas informações são utilizadas juntamente com os resultados anteriores, obtém-se algumas regras de associação de SLITs. Em primeiro lugar, considere a associação em cascata mostrada na Fig.4.13. x(t) X(f) h1(t) H1(f) x(t)*h1(t) X(f).H1(f) h2(t) H2(f) y(t) x(t) Y(f) X(f) (a) h(t) H(f) y(t) Y(f) (b) Figura 4.13 - Associação em cascata de SLITs. a) Diagrama de blocos da associação em cascata. b) Sistema resultante. O sinal de saída da associação é dado por y( t ) x ( t ) * h 1 ( t ) h 2 ( t ) (4.32) porém, da propriedades associativa da convolução x ( t ) h 1 ( t ) h 2 ( t ) x ( t ) * h 1 ( t ) h 2 ( t ) y( t ) (4.33) Cujo resultado informa que a conexão em cascata de dois SLITs pode ser substituída por um sistema cuja resposta impulsiva é a convolução entre as respostas impulsivas individuais. No domínio da frequência, aplica-se o teorema da convolução a (4.33) obtendo-se Y(f ) X(f ).[H 1 (f ).H 2 (f )] H(f ).X(f ) (4.34) onde H(f ) H 1 (f ).H 2 (f ) (4.35) que informa que a resposta em frequência da associação em cascata é igual ao produto das respostas em frequência individuais. Por outro lado, no caso da associação em paralelo mostrada na Fig.4.14. Obtém-se que o sinal de saída será y( t ) x ( t ) * h 1 ( t ) x ( t ) h 2 ( t ) 118 (4.36) SINAIS E SISTEMAS porém, devido à propriedade distributiva da convolução x ( t ) h 1 ( t ) h 2 ( t ) x ( t ) * h 1 ( t ) x ( t ) h 2 ( t ) y( t ) (4.37) Este resultado informa que a associação em paralelo de dois SLITs é equivalente a um SLIT cuja resposta impulsiva é a soma das respostas impulsivas individuais. h1(t) H1(f) x(t) x(t)*h1(t) y(t) + X(f) h2(t) H2(f) Y(f) x(t) X(f) h(t) H(f) y(t) Y(f) x(t)*h2(t) (a) (b) Figura 4.14 - Associação em paralelo de SLITs. a) Diagrama de blocos da associação em paralelo. b) Sistema resultante. No domínio da frequência, obtém-se Y(f ) X(f ).[H 1 (f ) H 2 (f )] X(f ).H(f ) (4.38) ou seja H (f ) H 1 (f ) H 2 (f ) (4.39) a resposta em frequência da associação em pararelo é igual à soma das funções de transferência individuais. 4.5.2 Resposta impulsiva, estabilidade e causalidade Conforme estudado em seções anteriores, a verificação afirmativa de estabilidade e causalidade de um dado sistema exige que os testes sejam executados para toda e qualquer entrada possível, o que pode dificultar muito esta comprovação dependendo da natureza do sistema. Contudo, se for sabido a princípio que o sistema é SLIT, esta tarefa pode ser extremamente simplificada. De fato, pode-se demonstrar facilmente (vide exercícios) que: “para um sistema linear e invariante no tempo ser estável BIBO, é suficiente que a resposta impulsiva obedeça à seguinte condição [2]: | h(t ) | dt (4.40) ou seja, se a resposta impulsiva for absolutamente integrável, o sistema é estável”. Isto reduz a análise de estabilidade a uma verificação mais simples. Note que esta 119 ANÁLISE DE SISTEMAS também é uma condição suficiente para a existência da transformada de Fourier de h(t) . Relativamente à causalidade, pode ser demonstrado que: “a condição necessária e suficiente para que um SLIT seja causal é que sua resposta impulsiva, h(t), seja zero para t<0.” Ressalta-se que, a aplicação desta propriedade exige que h(t) possa ser determinada ou que seja conhecida previamente. Entretanto, nos casos onde h(t) é de difícil obtenção, porém, H(f) é conhecida, pode-se aplicar o critério de Paley-Wiener, que estabelece que: “a condição necessária para que um SLIT seja causal é que H(f) satisfaça a ln H(f ) 1 (2f ) df 0 e 2 2 H(f ) df . ” (4.41) Observe que este critério não satisfaz à condição de suficiência, uma vez que não leva em conta a fase de H(f), mas apenas o módulo H(f). Assim, podemos ter valores de H(f) idênticos, porém, com fases diferentes, sendo que um conduz a um sistema causal e outro não. 4.6 TRANSMISSÃO SEM DISTORÇÃO Considere o caso em que se deseja transmitir um sinal x(t) de um ponto a outro, através de um SLIT, sem distorção. Isto significa que a saída do sistema deve ter o mesmo formato da entrada, ou seja: y (t ) K x(t t d ) (4.42) onde K é uma constante e td um atraso. Analisando a expressão no domínio da frequência: Y ( f ) K X ( f ) e j2 f t d de onde se conclui que a resposta em frequência de um SLIT que não introduz distorção é: H (f ) Y (f ) K e j2 f t d X (f ) (4.43) e H (f ) K arg[H(f )] 2f t d (4.44) ou seja, H(f) é um sistema com amplitude constante e fase linear. Na Fig.4.15 estão especificadas as características espectrais, de módulo e fase, de um sistema sem distorção. 120 SINAIS E SISTEMAS |H(f)| K f arg[H(f)] -2 td f Figura 4.15 - Característica de sistema com fase linear. Na prática, essas condições não precisam ser satisfeitas em toda a faixa de frequência, mas apenas nas faixas de frequência de interesse do sinal de entrada. Assim, se X(f) tiver componentes de frequência até 100 kHz, então H(f) deve ter módulo constante e fase linear entre 0 e 100 kHz para que não introduza distorção no sinal. 4.6.1 Distorção linear e não-linear Quando o sistema considerado é linear, porém, a condição (4.44) não é satisfeita, diz-se que o sinal sofre distorção do tipo linear, a qual pode envolver a) distorção de amplitude: H(f ) K , ou b) distorção de fase: arg[H(f )] 2t d f . Na distorção linear, podem ocorrer diferenças na composição espectral do sinal de saída, Y(f), relativamente à do sinal de entrada, X(f), contudo, se a largura de banda de X(f) for Bx , a da saída será By Bx. Por outro lado, a distorção não-linear ocorre quando o sistema é não-linear como, por exemplo, no sistema y(t)=a1.x(t)+a2.x2(t). Conforme estudado na Capítulo 3, se x(t) tem largura de banda Bx, então, x2(t) terá largura de banda 2Bx. Ou seja, a saída contém componentes espectrais em frequências que não estavam presentes na entrada. Além disso, uma vez que os espectros associados a x(t) e x2(t) sejam superpostos, torna-se impossível separá-los através de simples filtragem. Outros efeitos, como o aparecimento de produtos de intermodulação, costumam acontecer quando o sistema é não-linear [3]. Ao contrário da distorção não-linear, discute-se no próximo item, que a distorção linear pode ser compensada. 4.6.2 Equalização de sistemas O processo de equalização pode ser aplicado para compensar os efeitos da distorção linear, desde que o sistema seja inversível. Na Fig.4.16 ilustra-se o diagrama de blocos do processo. 121 ANÁLISE DE SISTEMAS x(t) H(f) Heq(f) y(t) HT(f) Figura 4.16 - Processo de equalização. O procedimento consiste em associar um equalizador, com resposta em frequência Heq(f), em cascata com o sistema sob distorção H(f), a fim de que y(t) volte a ser uma réplica fiel de x(t). Assim, se HT(f) for a resposta em frequência do sistema da associação em cascata, aplica-se (4.35) obtendo-se H T (f ) H(f ).H eq (f ) (4.45) Deseja-se impor um comportamento global sem distorção, ou seja H(f ).H eq (f ) K.e j2 ft d (4.46) Portanto, Heq(f) deve ser sintetizado de tal forma a satisfazer H eq (f ) K.e j2 ft d K.e j2 ft d [H(f )]1 H (f ) (4.47) desde que H(f) seja inversível. Exemplo 4.17: Reflexões por multicaminhos Ao longo da propagação de um sinal de TV entre um transmissor e um receptor, por exemplo, podem ocorrer reflexões indesejáveis em obstáculos ao longo do percurso, fazendo com que o sinal recebido seja do tipo y( t ) K 1 x ( t t 1 ) K 2 x ( t t 2 ) onde x(t) é o sinal de entrada nesse sistema de transmissão, K1 e K2 são constantes (associados a atenuações de sinal), t1 é o tempo de propagação do feixe principal (que não sofre nenhuma reflexão), e t2>t1 é o retardo de tempo associado à porção de feixe secundário (que sofre reflexão e que também incide no receptor). Este fenômeno conduz ao conhecido aparecimento de imagens fantasmas no aparelho de TV. Projetar um sistema equalizador para que a recepção volte a ser satisfatória. Solução: A transformada de Fourier de y(t) será Y(f ) H(f ).X(f ) , onde H(f ) K 1e jt1 (1 K d e j ) sendo =2f, Kd=K2/K1 e =t2-t1>0 (encoraja-se o leitor a verificar isto !). Observe j t que, se =0, então, H (f ) K 1 (1 K d ).e 1 , e não há distorção. Assim, ocorre distorção sempre que A fim de compensar a distorção, deve-se providenciar um equalizador, com resposta em frequência, Heq(f), que satisfaça (4.47). Esta equação, por sua vez, conduz a 122 SINAIS E SISTEMAS H(f ) K.e jt d 1 H eq (f ) Assim, comparando-se as duas expressões de H(f) acima, verifica-se que a compensação acontecerá desde que K=K1, td=t1 e H eq (f ) 1 1 K d e j Nos casos onde a intensidade da reflexão seja baixa (K2<<K1), ocorre Kd<<1, e Heq(f) pode ser expandida numa série binomial: 1 1 a a 2 ..., a 1 , 1 a gerando-se H eq (f ) 1 K d .e j K d2 .e j2 e j [e j K d K d2 .e j ] onde utilizou-se apenas os três primeiros termos da série. Na Fig.4.17 ilustra-se uma forma de sintetizar Heq(f) descrito acima, usando-se blocos elementares, cuja estrutura é conhecida como filtro ou equalizador transversal. DEFASADOR DEFASADOR e-j e-j AMPLIFICADOR INVERSOR -Kd AMPLIFICADOR NÃO-INVERSOR + Kd2 + EQUALIZADOR Figura 4.17 - Diagrama de blocos do equalizador transversal. Neste exemplo, trabalhou-se com apenas três elementos da série de potência. Para uma maior equalização, pode-se trabalhar com mais elementos, o que implica em acrescentar mais defasadores, amplificadores e somadores no diagrama da Fig.4.17, segundo a seguinte relação de recorrência: o próximo amplificador, deve ser inversor com ganho K 3d , o próximo tem ganho K d4 , e assim por diante. 4.7 FILTROS IDEAIS Em seções anteriores já se comentou sobre o papel dos filtros no processamento de sinais como, por exemplo, o filtro RC passa-baixa. De modo geral, filtros são sistemas (ou redes) que exibem características seletivas em frequência. O estudo de filtros deve ser realizado em disciplinas específicas do curso de engenharia elétrica, por isso, não serão enfatizados neste texto. Contudo, uma classe de filtros que merece grande atenção é a dos filtros ideais, que possuem características de transmissão sem distorção ao longo da banda 123 ANÁLISE DE SISTEMAS passante, e resposta nula fora dessa banda. Assim, por exemplo, um filtro passa-baixa ideal, com largura de banda B, teria característica espectral conforme a mostrada na Fig.4.18. K 0 -B H (f ) B f arg[H(f)] Figura 4.18 - Característica de magnitude e fase do filtro passa-baixa ideal. Este filtro ideal pode ser descrito por H(f ) K.rect (f / 2B).e jt d , =2f (4.48) onde K e td são constantes. Entretanto, vamos mostrar que filtros ideais não são fisicamente realizáveis. De fato, se o sinal entrada do filtro for x(t)=(t), pode-se obter a resposta impulsiva desse filtro: h ( t ) 2KB.sinc[2B( t t d )] (4.49) e que encontra-se desenhada na Fig.4.19 h(t) 2BK 0 td t Figura 4.19 - Resposta impulsiva do filtro passa-baixa ideal. O sinal de entrada x(t)=(t) obviamente é aplicado em t=0, sendo nulo antes desse instante. Contudo, analisando-se a Fig.4.19, observa-se que já existia resposta h(t) antes mesmo de t=0, indicando que a resposta do sistema se dá antes da aplicação da excitação. Portanto, o filtro passa-baixa ideal é não-causal, i.e., não realizável. Na verdade, o filtro ideal não satisfaz o critério de Paley-Wiener, pois H(f)=0 para f>B, conforme ilustra a Fig.4.18, e assim, para esses valores de f, ocorre ln H(f ) , violando (4.41). Portanto, não pode ser causal. Este exemplo ilustra um outro resultado importante oriundo do teorema de Paley-Wiener que estabelece que: “um sinal limitado em banda não pode ser estritamente limitado no tempo” [6]. Apesar de termos tratado apenas com o filtro passa-baixa ideal, o resultado também é válido para os demais tipos de filtros ideais. 124 SINAIS E SISTEMAS A rigor, portanto, a idéia de filtro ideal deveria ser abandonada, porém, como constitui uma ferramenta muito poderosa para fins de análise matemática, não deve ser desprezada. Na verdade, embora sinais causais (limitados no tempo) não sejam estritamente limitados em banda, na prática, as amplitudes de seus espectros decaem à medida que f aumenta, e as componentes em frequências superiores podem ser desprezadas. Assim, basta construir filtros que transmitam as componentes espectrais que contenham a maior parte da energia do sinal. Em sistemas de comunicação existe uma transformação linear muito utilizada, cujo resultado da transformação ainda se encontra no domínio do tempo, sendo denominada de transformada de Hilbert. A próxima seção é dedicada ao estudo dessa nova transformada. 4.8 TRANSFORMADA DE HILBERT Estuda-se nessa seção a transformada de Hilbert, sob os pontos de vista temporal e espectral. Considere-se, inicialmente, um sistema cuja resposta em frequência, HQ(t), é definida por: H Q ( t ) j. sgn(f ) (4.50) cujo gráfico encontra-se desenhado na Fig. 4.20. HQ(t) +j f 0 -j Figura 4.20 - Característica espectral do filtro de Hilbert. Este sistema, denominado de filtro de Hilbert ou filtro de quadratura, basicamente desloca de -900 as fases das componentes de frequências positivas e, de +900, as negativas. Exemplo 4.18: O sinal x ( t ) cos 0 t (1 / 3). cos 3 0 t (1 / 5). cos 5 0 t passa por um filtro de Hilbert gerando o sinal y(t). Desenhar os gráficos de x(t) e y(t). Solução: O sinal de entrada x(t) pode ser rescrito como x(t) e j0 t e j0 t 1 e j30 t e j30 t 1 e j50 t e j50 t 2 3 2 5 2 O filtro de Hilbert acrescenta –900 a todas as frequências positivas, e +900 às negativas: y( t ) e j[ 0 90 0 ]t e j[ 0 90 2 0 ]t 1 e j[ 30 90 3 0 ]t e j[ 30 90 2 0 ]t 0 1 e j[ 50 t 90 ] e j[ 50 90 5 2 0 ]t a qual, após algumas manipulações algébricas, conduzem a 125 ANÁLISE DE SISTEMAS y( t ) sen 0 t (1 / 3). sen 30 t (1 / 5). sen 50 t cujo gráfico encontra-se desenhado na Fig.4.21. 1.00 x(t) 0.50 0.00 t -0.50 -1.00 (a) 2.00 y(t) 1.00 0.00 -1.00 -2.00 (b) Figura 4.21 - Ação do filtro de Hilbet sobre um sinal. a) Sinal de entrada x(t). b) Sinal de saída y(t). Como se observa através da figura, o filtro de Hilbert introduz uma distorção linear sobre o sinal de entrada, fazendo com que a uma onda aproximadamente quadrada se transforme numa onda aproximadamente triangular. De fato, pode ser mostrado que o filtro de Hilbert introduz picos na sua saída sempre que na entrada ocorram descontinuidades do tipo degrau. A transformada de Fourier inversa de HQ(f) corresponde à resposta impulsiva do filtro de Hilbert, e pode ser obtida recorrendo-se aos teoremas da diferenciação e da dualidade. Assim, se X(f) é a transformada de Fourier de x(t), conclui-se que [ j2tX( t )] dx (f ) dx (f ) df df (4.51) a partir da qual obtém-se X( t ) j 1 dx (f ) [ ] 2t df (4.52) A seguir, efetua-se uma mudança no nome da função temporal X(t) para hQ(t). Assim, torna-se natural trocar o nome de x(f) para HQ(f), tal que hQ(t) e HQ(f) formem um par de transformadas de Fourier. Portanto, 126 SINAIS E SISTEMAS h Q (t) j 1 dH Q (f ) [ ] 2t df (4.53) Escrevendo-se HQ(f) mostrada na Fig.4.20, numa forma mais adequada: H Q (f ) j. sgn(f ) j2u (f ) j (4.54) e substituindo-se (4.54) em (4.53), obtém-se h Q (t) du (f ) j 1 j 1 j2 j2.( t ) df 2t 2t (4.55) e daí, finalmente h Q (t) 1 t (4.56) é a resposta impulsiva do filtro de Hilbert. Considere-se, agora, a resposta de um sistema cuja resposta impulsiva é hQ(t), a uma entrada arbitrária v(t). Se v̂( t ) corresponder a esta saída, sabe-se, da teoria de sistemas lineares invariantes no tempo, que v̂( t ) h Q ( t ) * v( t ) (4.57) Substituindo-se hQ(t) e explicitando a integral de convolução, obtém-se v̂( t ) 1 v( ) d t (4.58) A integral (4.58) corresponde à transformada de Hilbert ou conjugada harmônica da função v(t), e também constitui uma função no domínio do tempo. Com uma mudança de variável, de t- para , (4.58) converte-se em v̂( t ) 1 v( t ) d (4.59) uma forma alternativa para calcular a transformada de Hilbert. Exemplo 4.19: Calcular a transformada de Hilbert da função v( t ) A. cos(t ) Solução: Aplicando-se a definição (4.59) e desenvolvendo o seno da soma, v̂( t ) A cos(t ). cos sen(t ). sen .d Esta integral pode ser avaliada, lembrando-se que 127 ANÁLISE DE SISTEMAS 0 sen x .dx x 2 e que f(x)=cos(x)/x é uma função ímpar, e assim, sua integral entre - e + é nula. Portanto, v̂( t ) A. sen(t ) A partir desse exemplo, conclui-se que a transformada de Hilbert de uma cosenóide equivale simplesmente a acrescentar –900 ao seu argumento, isto é: A cost = A cos(t) = A sen (t) (4.60) Este resultado já devia ser esperado no caso da função senoidal, em vista da própria definição da função de resposta em frequência, e da definição de HQ(t), que defasa de –900 as componentes de frequência positivas. Entretanto, ressalta-se que esta propriedade não é válida para sinais arbitrários, os quais devem obedecer a (4.58) ou (4.59). Exemplo 4.20: Calcular a transformada de Hilbert da função v( t ) A. sen(t ) Solução: Utilizando-se o resultado do exemplo 4.19, obtém-se A sent = Acost = A cos(t) = - A cos (t) A seguir, apresentam-se algumas propriedades da transformada de Hilbert, cujas demonstrações são deixadas a cargo do leitor, como exercício: a) v(t) = - v(t) b) v(t)+.w(t) = v(t) + . w(t) c) ^ vtvt d) d n v( t ) d n n v̂( t ) dt n dt (4.61a) (4.61b) (4.61c) (4.61d) Além dessas, também é importante a propriedade de otogonalidade entre v(t) e v̂( t ) , que estabelece que v( t ).v̂( t ) dt 0 1 T / 2 v( t ).v̂( t ) dt 0 T T T / 2 lim 128 (4.62 a) (4.62 b) SINAIS E SISTEMAS para sinais de energia e de potência, respectivamente. Pode-se demonstrar também, que a energia alternativamente, em termos da transformada de Hilbert: pode E v v( t ) dt v̂( t ) dt 2 2 ser avaliada, (4.63) Na Tabela 4.1 são apresentados pares de transformada de Hilbert para algumas funções consideradas relevantes: Tabela 4.1. Pares de transformada de Hilbert Função A 1 t sen(0 t ) sin (t ) e j 0 t (t) ( t 2 ) rect ( t / 1) 2 Transformada de Hilbert 0 ( t ) cos(0 t ) 1 t.sinc 2 (t ) 2 j e j 0 t 1 t t 2 ( t 2 ) 1 2t 1 ln 2t 1 Por fim, cita-se o importante teorema da transformada de Hilbert para o produto de duas funções: “Se v(t) e w(t) são sinais disjuntos em frequência, onde w(t) é passa-baixa e v(t) é passa-alta, então w(t).v(t) w ( t ).v̂( t ) (4.64) Exemplo 4.21: Transformada de Hilbert do sinal modulado Dado w(t) um sinal passa-baixa com W)f)=0 para f > , calcular a transformada de Hilbert do sinal modulado w ( t ). cos( p t ) , para fp>. Solução: Na Fig. 4.22 foram esboçados os espectros de w(t) e de cos(pt), evidenciando que são disjuntos em frequência desde que fp>. 129 ANÁLISE DE SISTEMAS [ w( t )] 0 (a) f [cos( p t )] -fp 0 f fp (b) Figura 4.22 – Sinais para o exemplo 4.21. Assim, aplicando o teorema da transformada de Hilbert do produto w(t).cos pt = w(t).cos pt = w(t). sen pt para fp>. Na sequência, apresentam-se alguns exercícios para que o leitor possa avaliar o aprendizado do assunto deste capítulo. 4.9 EXERCÍCIOS PROPOSTOS 4.9.1. A Fig.P4.9.1 mostra dois elementos de circuito, um resistor ôhmico no qual v(t)=R.i(t), e um capacitor no qual i(t)=C.dv(t)/dt. Sistemas dessa natureza foram estudados neste capítulo. Discutir e justificar que o filtro RC passa-baixas é um sistema linear. i(t) v(t) v(t) S{i(t)} resistor ôhmico i(t) S{v(t)} capacitor (a) (b) Fig. P4.9.1 4.9.2. Demonstrar que a condição necessária e suficiente para que um SLIT seja causal é que sua resposta impulsiva, h(t), seja zero para t<0 Sugestão: Ver o livro do Roden [6] 4.9.3. Demonstrar que para um sistema linear e invariante no tempo ser estável BIBO, é suficiente que a resposta impulsiva obedeça à seguinte condição: | h(t ) | dt 130 SINAIS E SISTEMAS 4.9.4. A Fig.P4.9.2 a) ilustra um segurador de ordem sero (zero-order hold), e a Fig. P4.9.2 b), o seu diagrama de blocos equivalente do sistema em termos de respostas em frequência. x(t) + y(t) RETARDO (a) x(t) H1(f)=1 + H3(f)=1/(j2f) y(t) H2(f)= e - j2 f (b) Figura P4.9.4. a) Mostrar que este sistema é SLIT b) Obter a resposta em frequência H(f) do sistema global realizando umaa análise da frequência c) Obter a resposta impulsiva do sistema global, h(t), e a partir daí a resposta em frequência. 4.9.5 Considere um sinal x(t) limitado em B Hz. Este sinal é aplicado a um SLIT com módulo e fase como indicados na figura P4.9.5. Determine a saída do sistema y(t) e Y(f) (analíticamente e graficamente). Note o efeito da distorção em amplitude causada pelo sistema. x(t) y(t) h(t) f f H ( f ) a 0 a1 cos B 2 B | H(f) | x(t) -B t X(f) B f arg{H ( f )} 2 t 0 f arg{H(f)} f -B B f Figura P4.9.5 4.9.6. Demonstrar as propriedades (6.61 a) à (6.61d). 4.9.7. Obter a transformada de Hilbert de x(t)=A.cos(t+), executando os cálculos no domínio da frequência. 131 ANÁLISE DE SISTEMAS 4.9.8. Demonstrar o teorema da transformada de Hilbert (4.64) do produto de duas funções disjuntas em frequência. 4.9.9. Seja a função retangular v( t ) A[u ( t ) u ( t )] a) Esboçar o gráfico de v(t); b) Usando a definição, demonstrar que v̂( t ) c) Esboçar o gráfico de v̂( t ) . Sugestão: Ver o livro do Carlson [3]. 132 A t ln ; t SINAIS E SISTEMAS CAPÍTULO 5: AMOSTRAGEM DE SINAIS Conforme estudado em capítulos anteriores, um sinal pode ser considerado como uma função que contém informação, em geral, a respeito do estado ou comportamento de um sistema físico. Embora os sinais possam ser representados de diferentes maneiras, em todos os casos a informação está contida na variação de algum atributo do sinal (amplitude, fase, etc). Vimos também que sinais de tempo contínuo (ou analógicos) são representados em função de uma variável independente (tempo) contínua. Por outro lado, sinais de tempo discreto são dependentes de variáveis (tempo) que só assumem valores discretos. Ressalta-se, contudo, que na maioria das situações, os sinais de tempo discreto constituem representações alternativas de sinais de tempo contínuo. De fato, será discutido neste capítulo que, sob determinadas restrições, um sinal de tempo contínuo pode ser precisamente representado por suas amostras. Afirma-se que todas as suas propriedades e informações podem ser preservadas [2], [3]. Este fato é no mínimo curioso, já que o sinal original é definido em todos os instantes de tempo, enquanto o sinal amostrado contém somente informações do sinal em instantes de tempo discretos. Será visto a seguir, que o sinal original pode ser reconstruído a partir da sequência de amostras com tanta exatidão quanto desejado, desde que se utilizem taxas de amostragem suficientes. Por exemplo, gráficos obtidos a partir de dados experimentais normalmente são registrados como curvas contínuas, embora apenas um número finito de pontos tenha sido usado para construí-lo. Fica evidente que se estes pontos ou amostras estiverem suficientemente próximos, um desenho de curva suave através dos mesmos permite interpolar valores intermediários com razoável grau de exatidão. A título de ilustração, cita-se que a amostragem é fundamental para que se possa manipular os sinais em computadores, na forma digital. Algumas vantagens que podem ser citadas são que o sinal digitalizado pode ser convenientemente armazenado em mídias confiáveis, para posterior processamento; em sistemas de telefonia digital, pode-se enviar, por um mesmo cabo de comunicação, como uma fibra óptica, milhares de canais telefônicos simultaneamente. Os sinais são amostrados e intercalados no tempo, numa operação conhecida como multiplexação por divisão no tempo (TDM) [3]. O sinal digital pode ser ainda processado de forma a aumentar a segurança (criptografia) e reduzir os erros na transmissão, o que seria mais difícil se o sinal fosse transmitido diretamente na forma analógica. Nota-se que a amostragem é a primeira etapa na utilização desses sistemas e técnicas digitais, e seu correto entendimento é fundamental para que o conteúdo da informação original seja preservado. 5.1. AMOSTRAGEM DE SINAIS Um exemplo simples de sistema prático de amostragem consiste na operação de chaveamento, mostrada na Fig.5.1. 133 AMOSTRAGEM DE SINAIS x(t) fa t 0 x(t) xa(t) xa(t) 0 (a) t T (c) (b) Figura 5.1 - Amostragem obtida através de chaveamento. a) Sinal analógico original. b) Sistema de chaveamento. c) Sinal amostrado. A chave comuta periodicamente entre dois contatos numa taxa de fa=1/T Hertz, onde T é o período de amostragem, estabelecendo um contato com o sinal de entrada durante um intervalo de tempo , e permanecendo em contato com o terra no restante do período T. Nas seções seguintes, o problema da amostragem por chaveamento será analisado em detalhes, antes porém, estuda-se o caso da amostragem ideal. 5.1.1 Amostragem ideal A amostragem ideal refere-se ao processo de amostragem no qual a largura das amostras são nulas, e tem por objetivo simplicar a análise matemática do problema. Na Figura 5.2, ilustra-se um processo de amostragem ideal, onde cada amostra é representada por um ponto em negrito. Sob certas condições, um determinado sinal é unicamente especificado por uma sequência de amostras equiespaçadas. Num caso mais geral, isso pode não ser verdade, pois podemos construir sinais distintos representados pela mesma sequência de amostra, como ilustrado pelos sinais em linha contínua e tracejada mostrados na Fig.5.2. Um dos objetivos deste capítulo, é estabelecer as condições para que essa ambiguidade não ocorra. -2T -T 0 T 2T 3T 4T 5T ... t Figura 5.2 - Dois sinais diferentes que possuem as mesmas amostras nos instantes t=nT. Se o intervalo de tempo das amostras na Fig.5.1, , for muito pequeno, podese empregar uma aproximação de primeira ordem, conforme esquematizado na Fig.5.3, onde cada pulso tem amplitude constante e na qual o sinal amostrado é: x a (nT) x ( t ) t nT x (nT) onde n=0, 1, 2, etc, especifica o índice da amostra dentro da sua sequência. 134 (5.1) SINAIS E SISTEMAS xa(t) t T -1 0 1 2 4 3 n Figura 5.3 - Aproximação em primeira ordem para o sinal amostrado. Cada amostra está associada ao índice n=0, 1, 2, etc. Por outro lado, vale lembrar que cada pulso estreito de largura pode ser escrito como um impulso no limite, e assim: 1 t nT ( t ) lim rect ( t nT) 0 ou seja, na amostragem ideal, cada pulso de amostra pode ser considerada como um impulso unitário. O valor da amostra, que antes era a amplitude do pulso, agora deve ser substituída pela área do impulso. Para estabelecer as condições de amostragem eficiente, consideremos a amostragem de um sinal x(t) por um trem de impulsos p(t): x a ( t ) x( t ) p ( t ) (5.3) onde p( t ) rep T [( t )] (t nT) (5.4) n e T é o período de amostragem. Substituindo-se (5.4) em (5.3) obtém-se x a ( t ) x ( t ). ( t nT) n x(t ).(t nT) n x(nT).(t nT) (5.5) n A fim de observar os sinais x(t), p(t) e xa(t) no domínio do tempo, têm-se os gráficos mostrados na Fig.5.4. Portanto, o sinal amostrado é um trem de impulsos cujas áreas são dadas pelos valores de x(t) nos instantes de amostragem, t=nT. Obviamente, qualquer impulso tem amplitude infinita, assim, a representação da Fig.5.4 d), na qual as amplitudes dos impulsos são moduladas por uma envoltória correspondente a x(t), é meramente esquemática e com objetivo pedagógico. Vamos agora à análise desses sinais no domínio da frequência, utilizando-se da transformada de Fourier dos sinais. 135 AMOSTRAGEM DE SINAIS x(t) xa(t) (a) p(t) (b) x(t) t p(t) (c) 1 -2T -T 0 x(0) xa(t) T 2T -T (d) x(2T) 0 t x(T) x(-T) -2T 4T 3T T 2T 3T t Figura 5.4 - Sinal amostrado no domínio do tempo. Analisando os sinais no domínio da frequência, vamos assumir que o sinal x(t) tenha banda limitada a B Hz, e que as amostras estejam suficientemente próximas. Como no domínio do tempo tem-se a multiplicação entre x(t) e p(t), utilizando a propriedade da convolução para (5.3), no domínio da frequência tem-se: X a ( f ) X( f ) P( f ) (5.6) onde a transformada de Fourier do trem de impulsos (5.4) é: P( f ) f a ( f nf a ) (5.7) n e fa 1 T (5.8) é a frequência de amostragem. Portanto, substituindo-se (5.7) em (5.6), fica-se com: X a ( f ) X( f ) * f a ( f nf a ) f a n X( f nf n a ) (5.9) Graficamente têm-se os diagramas, mostrados na Fig.5.5, para X(f), P(f) e Xa(f): 136 SINAIS E SISTEMAS X(f) 1 (a) -B B f P(f) fa ... fa -2fa fa fa -fa fa fa ... 2fa (b) f Xa(f)=X(f)*P(f) fa ... -2fa -fa-B -fa -fa+B -B ... B fa-B fa fa+B 2fa (c) f Figura 5.5 - Sinais amostrados. Representação em frequência. a) Espectro do sinal x(t), b) Espectro do trem de impulsos. c) Espectro do sinal amostrado. X(f) 1 -B B f Xa(f) fa ... ... -2fa -fa -B B fa fa 2fa f Xa(f) ... ... -2fa -fa -B B fa fa 2fa fa = 2B f Xa(f) ... ... -2fa fa > 2B -fa fa 2fa fa < 2B f Xa(f) 2fa ... ... -2fa -fa fa 2fa fa = B f Figura 5.6 - Espectros de sinais amostrados com diferentes taxas de amostragem. 137 AMOSTRAGEM DE SINAIS Nota-se que o espectro do sinal amostrado é composto por cópias do espectro de x(t), multiplicado por fa=1/T, e espaçadas de fa. Observando o gráfico do espectro do sinal amostrado, Xa(f), nota-se que se f a B B , ou fa 2B então o espectro do sinal x(t) pode ser recuperado passando-se o sinal amostrado por um filtro passa-baixas com ganho T e frequência de corte entre B e fa-B, conforme mostrado em linha tracejada na Fig.5.5. c). Já se alguma dessas condições não for satisfeita, ou seja, se o sinal não tiver banda limitada ou se as amostras não estiverem suficientemente próximas, não se consegue mais recuperar o sinal original. Num sinal com banda limitada e variando-se a frequência de amostragem, podem ocorrer as situações mostradas na Fig.5.6, para fa>2B, fa=2B, fa<2B e fa=B. Nota-se que, em situações onde fa2B, como na Figs. 5.6 d) e e), não é mais possível recuperar o espectro original devido à sobreposição causada pela subamostragem. Este é o efeito de "aliasing", onde frequências do espectro que deveriam ser elevadas acabam por aparecer em regiões de frequência mais baixa. Portanto, existe uma frequência de amostragem mínima a partir da qual o processo toma consistência. Isso dá origem ao consagrado teorema da amostragem, citado a seguir. O Teorema da Amostragem é o seguinte: Seja um sinal de banda limitada, com X(f)=0 para |f|>B. Então x(t) é unicamente determinado por suas amostras x(nT), n=0, 1, 2, 3, ... se 1 fa 2B onde f a T O sinal x(t) pode ser recuperado passando-se o sinal amostrado por um filtro passa-baixas ideal com frequência de corte fc: B fc fa B A frequência fa é a frequência de amostragem ou frequência de Nyquist, enquanto que a frequência 2B é comumente chamada de taxa de Nyquist. Os sinais utilizados na prática em geral são limitados no tempo e, portanto, não são limitados em frequência, o que à primeira vista impossibilitaria a utilização do teorema acima. Quando um tal sinal é amostrado, ocorre uma inevitável sobreposição de espectro, como mostrado esquematicamente na Fig.5.7. Apesar de não estar explicitado na Fig.5.7 (por motivo exclusivamente didático), nas regiões onde ocorre sobreposição de espectro os gráficos deveriam ser somados. Na reconstrução, as frequências originalmente fora da banda de mensagem aparecerão na saída do filtro, afetando uma porção significativa de espectro do sinal. 138 SINAIS E SISTEMAS X(f) -B 0 Xa(f) B f -B (a) f B 0 (b) Figura 5.7 - Efeito de aliasing. a) Espectro de sinal. b) Sobreposição espectral. O que se faz então é a limitação da banda dos sinais antes de se efetuar a amostragem, passando-os por um filtro passa-baixas, Haa(f), com frequência de corte fa/2, conforme ilustrado na Fig.5.8. Dessa forma, o sinal antes de ser amostrado apresenta banda fa/2. Este filtro é chamado de anti-aliasing. x(t), X(f) xa(t), Xa(f) Haa(f) filtro antialiasing p(t), P(f) X(f) 1 -B B f Haa(f) 1 ... -2fa -fa ... -fa/2 fa/2 fa 2fa f X(f).Haa(f) 1 -B B f Xa(f) fa ... ... -2fa -fa -fa/2 fa/2 fa 2fa f Figura 5.8 - Pré-filtragem do sinal antes de se efetuar a amostragem, para evitar problemas de aliasing. Um exemplo clássico em que se pode usar o filtro anti-aliasing é no processamento de sinal de áudio, os quais têm espectro que se estende desde 20 Hz até 20 kHz. Contudo, no caso particular de sinais de voz, sabe-se que se a banda for limitada entre 200 Hz a 4 kHz, ainda preserva-se mais de 90% da inteligibilidade da mensagem. Portanto, um filtro passa-baixa com B=4 kHz seria suficiente. 139 AMOSTRAGEM DE SINAIS Assim, se o conteúdo espectral do sinal, acima de uma certa frequência B, for reduzido ou sem importância, é aconselhável suprimi-lo. Mesmo numa situação genérica, afirma-se que a supressão da porção de espectro para f B causa menos dano ao sinal recuperado, do que se permitir que o aliasing ocorra [3]. Como na prática, contudo, não se pode implementar filtros ideais, deve-se estabelecer especificações para o filtro de modo a ter-se uma atenuação mínima em fa/2, por exemplo igual a 60 dB. Assim, o efeito do aliasing não é eliminado, mas bastante reduzido. 5.1.2 Efeito de subamostagem sobre sinais senoidais Considere o sinal senoidal x( t ) 2 cos 0 t , com frequência angular 0=2f0. Amostrando este sinal com uma frequência de amostragem fa, vamos observar o que acontece com o espectro do sinal amostrado e do sinal reconstruído, segundo os diagramas mostrados na Fig.5.9. Nota-se que, à medida que se reduz a frequência de amostragem, as imagens em |fa-f0| vão se aproximando-se dos impulsos em f0 . Quando fa<2f0, ocorre o efeito de aliasing, onde a linha que deveria representar uma frequência (fa-f0)>f0, está sendo vista como uma frequência menor que f0. X(f) 1 1 -f0 f0 f Xa(f) fa -(fa+f0) -fa fa -(fa-f0) fa fa -fa/2 -f0 f0 fa fa/2 fa-f0 (a) fa=4f0 fa fa fa+f0 f Xa(f) fa (b) fa=3f0 fa fa -fa f Xa(f) fa fa -fa fa (c) fa=1,5f0 f Xa(f) 2fa 2fa -fa fa (d) fa=f0 f Figura 5.9 - Espectro do sinal x(t); Espectro do sinal amostrado com diferentes frequências de amostragem. 140 SINAIS E SISTEMAS Considerando o sinal reconstruído, xr(t), após passar por um filtro passa-baixas com frequência de corte fa/2, em cada um dos casos mostrados na Fig.5.9, fica-se com (o leitor deve verificar isto em detalhes): a) x r ( t ) cos 0 t x( t ) b) x r ( t ) cos 0 t x( t ) c) x r ( t ) cos(a 0 ) t x( t ) d) x r ( t ) cos(a 0 ) t x( t ) Nos casos (c) e (d), ocorreu aliasing, e o sinal reconstruído possui frequência mais baixa que o sinal original. Em particular, no caso (d), teoricamente ter-se-ia na saída reconstruída um sinal DC constante com amplitude 2. 5.2 RECONSTRUÇÃO DO SINAL Verificou-se que a recuperação do sinal original a partir das suas amostras é obtida a partir da filtragem do sinal amostrado por um filtro passa-baixas ideal com frequência de corte fa/2. Este filtro de reconstrução, com resposta em frequência Hr(t), é esquematizado na Fig.5.10. Analisando esta operação no domínio do tempo, tem-se que o sinal reconstruído é obtido a partir da convolução entre o sinal amostrado e a resposta impulsiva do filtro de reconstrução. sinal amostrado Xa(f) xa(t) Filtro de reconstrução Hr(f) hr(t) sinal reconstruído Xr(f)=Xa(f).Hr(f) xr(t)=xa(t)*hr(t) Figura 5.10 - Reconstrução do sinal amostrado. Conforme discutido anteriormente, a resposta em frequência do filtro ideal de reconstrução deve ser: T,| f | f a / 2 H r (f ) 0,| f | f a / 2 (5.10) Assim, calculando-se a transformada de Fourier inversa de (5.10), obtém-se que a resposta impulsiva do filtro é: t h r ( t ) sinc( f a t ) sinc T (5.11) O sinal reconstruído é obtido da convolução entre o sinal amostrado e a resposta impulsiva do filtro de reconstrução. x r (t) h r (t) * x a (t) h r (t) * x (nT).(t nT) n x(nT).h n r ( t nT) (5.12) na qual, substituindo-se (5.11), conduz a 141 AMOSTRAGEM DE SINAIS x r (t) t nT x ( nT ). sinc x (nT).sincf a t n T n n (5.13) O resultado (5.13) será um sinal composto por uma superposição de funções sinc deslocadas de nT , onde pode-se observar que: A contribuição da função sinc deslocada de nT e calculada no ponto t=nT tem valor igual ao da amostra de x(t) em t=nT; A contribuição das funções sinc para um dado valor de n nos instantes kT, kn, é igual a zero, pois são os pontos onde a função sinc é igual a zero; Fora dos instantes nT, as infinitas funções sinc se sobrepõem para resultar nos valores de x(t) nesses instantes. sinc(t/T) t -4T -3T -2T -T 0 T 2T 3T 4T ... xa(t) ... ... -T 0 T 2T 3T 4T 5T ... t xr(t) t Figura 5.11 - Resposta impulsiva do filtro de reconstrução ideal, sinal amostrado e sinal reconstruído, obtido da superposição de infinitas funções sinc. Como se observa, as funções sinc se sobrepõem e interpolam os valores de x(t) entre os instantes de amostragem. Por esta razão, um filtro passa-baixa de reconstrução também é denominado de filtro de interpolação. 5.3 AMOSTRAGEM POR PULSOS A amostragem por impulsos ideais é bastante útil para se apresentar os conceitos fundamentais relacionados com a amostragem de sinais. No entanto, na 142 SINAIS E SISTEMAS prática não se consegue implementar circuitos que produzam impulsos, mas sim pulsos de duração finita. Considere um sinal x(t) de banda limitada a B Hz (ou que tenha passado por um filtro anti-aliasing) e um trem de pulsos de amostragem com duração e período T=1/fa, como mostrado na Fig.5.12. O sinal amostrado xa(t) pode ser expresso matematicamente pela multiplicação dos dois sinais x(t) e p(t) na figura: x(t) t p(t) t T xa(t) t Figura 5.12 - Sinal x(t) de banda limitada, trem de pulsos de amostragem e sinal amostrado. Note que o sinal amostrado é composto por pulsos cujas amplitudes acompanham a amplitude de x(t) durante segundos. Esta é a amostragem sem retenção. Analisando os sinais no domínio da frequência, tem-se: x( t ) X( f ) p( t ) P( f ) f sinc(f k ).( f kf k a a a (5.14) ) x a ( t ) x( t ). p( t ) X a ( f ) X( f ) P( f ) f a sinc(f k ). X( f kf a k a ) onde os espectros X(f), P(f) e Xa(f) são mostrados na Fig.5.13. X(f) 1 -B B f P(f) fa sinc( fa) fa ... -2fa fa sinc(2 fa) ... -fa fa 2fa f Xa(f)=X(f)*P(f) fa ... -2fa -fa-B -fa -fa+B -B B ... fa-B fa fa+B 2fa f Figura 5.13 - Espectro do sinal amostrado com um trem de pulsos. 143 AMOSTRAGEM DE SINAIS Observa-se que o resultado, visualizado no domínio da frequência, é muito parecido com a amostragem com impulsos, mas onde a área dos impulsos em f=kfa não é igual a fa, mas igual a f a sinc( f a k). O sinal original ainda pode ser recuperado através de um filtro passa-baixas com frequência de corte e ganho adequados. Tem-se outro caso de interesse quando considera-se a amostragem e retenção do sinal (sample and hold), como mostrado na Fig.5.14. Neste caso, a amplitude do sinal amostrado deve permanecer constante durante uma certa duração de tempo, por exemplo para que possa ser utilizado por um conversor A/D [10]. xa(t) t Figura 5.14 - Amostragem com retenção: a amplitude do pulso permanece constante por um tempo. p(t) 1 t Figura 5.15 - Pulso p(t) com amplitude unitária e largura . Pode-se escrever o sinal amostrado com o auxílio do pulso mostrado na Fig.5.15, como: x( kT).p( t kT) x a (t) (5.15) k onde t /2 p( t ) rect (5.16) A partir da propriedade do impulso unitário, sabe-se que p( t kT) p( t ) ( t kT) (5.17) e assim, fica-se com x a (t) onde 144 k k x (kT)p(t ) (t kT) p(t ) x(kT)(t kT) p(t ) x (t ) (5.18) SINAIS E SISTEMAS x ( t) k k x( kT) ( t kT) x( t ) ( t kT) (5.19) Analisando os sinais (5.16), (5.17) e (5.19) no domínio da frequência: X a (f ) P(f ).X (f ) P(f ) sinc(f )e j2 f 2 (5.20) X (f ) X(f ) f a (f kf a ) f a X(f kf a ) k k e portanto, o espectro do sinal amostrado (5.18) é X a ( f ) f a sinc(f ) e j2 f 2 X( f kf k a ) (5.21) cujo módulo é X a ( f ) f a sinc( f ) X( f kf a ) (5.22) k Os espectros de X(f), X(f), P(f) e Xa(f) encontram-se desenhados na Fig.5.16. X(f) 1 -B B f X(f) fa ... -2fa -fa-B -fa -fa+B -B ... B fa-B fa fa+B 2fa f | P(f) | ... ... -1/ f 1/ | Xa(f) | fa ... ... -fa -B B fa f Figura 5.16 - Espectros considerando amostragem com retenção. 145 AMOSTRAGEM DE SINAIS Pela figura, observa-se que o espectro do sinal original sofre uma distorção causada pela multiplicação pela função sinc(f). Quanto menor o valor de , mais o pulso p(t) se aproxima de uma função impulsiva, e o efeito é reduzido. Quanto maior o valor de (<1/fa), maior este efeito. Em particular, se =1/fa, tem-se os espectros: X(f) 1 -B B f | P(f) | ... ... -1/ | Xa(f) | f 1/ = fa fa ... ... -fa -B fa B f Figura 5.17 - Amostragem com retenção considerando =1/fa. Nos casos citados, como pode ser observado pelos espectros, continua valendo o teorema da amostragem. O filtro de reconstrução deve extrair somente a porção do espectro de Xa(f) centrado na origem e com f fa/2, isto é, o termo para k=0 em (5.21): X a ( f ) f a sinc(f ) e j2 f 2 X( f ) , | f | f a / 2 se não existir aliasing. (5.23) Contudo, no caso de amostragem com retenção, o filtro de reconstrução, Hr(f), deve possuir uma resposta em frequência que compense o efeito de distorção introduzida pela função sinc na amostragem. | Hr(f) | 1/ fa -fa/2 fa/2 f arg[Hr(f)] f Figura 5.18 - Resposta em frequência do filtro de reconstrução ideal no caso de amostragem com retenção. 146 SINAIS E SISTEMAS O sinal reconstruído deve ser obtido por: X r ( f ) X a ( f ). H r ( f ) X( f ) e portanto j2 f e 2 H r (f ) , | f | fa / 2 f a sinc(f ) (5.24) cujas características de módulo e fase encontram-se mostradas na Fig.5.18. 5.4 EXERCÍCIOS 5.4.1. A amostragem corresponde ao processo de representação de um sinal contínuo no tempo por meio de amostras (sinal de tempo discreto), e é muito utilizada no processamento digital de sinais como, por exemplo, no armazenamento, transmissão e tratamento digital de voz e imagem, sistemas digitais de controle, sensoriamento remoto e outros. Dado um sinal analógico x(t), o sinal de tempo discreto é obtido fazendo-se v( t ) x ( t ).rep To [( t )] , onde repTo[(t)] é um trem de impulsos com período T0. Para uma função genérica w(t), estritamente limitada no tempo, define-se um trem de funções w(t) com período T0, pela relação: rep To [ w ( t )] w (t nT ) . n 0 Mostrar que a Transformada de Fourier do sinal amostrado v(t) é V (f ) 1 rep 1 [X(f )] , T0 To onde X(f) é o espectro de x(t). 5.4.2. Há várias maneiras de se estimar a banda essencial de sinais de banda ilimitada. Para um sinal passa-baixas, por exemplo, a banda essencial pode ser escolhida a partir da freqüência onde a amplitude do espectro atinge K% do seu valor de pico (normalmente em f=0), onde a escolha de K depende da aplicação. Para K=5, determine a banda essencial dos sinais: a) g( t ) e a t u( t ); a>0 b) g( t ) e a t ; a>0 Qual a mínima freqüência de amostragem que poderia ser utilizada nos casos acima? 147 AMOSTRAGEM DE SINAIS 5.4.3. Utilizando um filtro de reconstrução ideal, tem-se a perfeita reconstrução do sinal amostrado. Na prática, um filtro de reconstrução ideal não é implementável. Suponha então que a seguinte função represente a resposta impulsiva de um filtro de reconstrução: haa(t) 1 -T T Figura P5.4.1. t a) Determine a resposta em frequência do filtro (transformada de Fourier de haa(t)). b) Mostre que, utilizando este filtro, faz-se a reconstrução do sinal amostrado utilizando interpolação linear. 5.4.4. Considere um sinal passa-banda cujo espectro está indicado na Fig.P5.4.4., para f1>(f2-f1). Determine se é possível recuperar o sinal original e o filtro de reconstrução se forem utilizadas as seguintes frequências de amostragem: a) b) c) d) e) fa=3f2 fa=2f2 fa=f2 fa=f2 – f1 fa=f1 X(f) 1 -f2 -f1 0 f1 f2 f Figura P5.4.4. Qual a conclusão a que se chega, em relação à frequência de amostragem e o conteúdo de frequência do sinal ? 148 SINAIS E SISTEMAS CAPÍTULO 6: CORRELAÇÃO DE SINAIS O conceito de correlação de sinais e sua relação com as densidades espectrais de energia e de potência são bastante úteis em comunicações. Na realidade, pode-se verificar que as funções de correlação constituem um ponto de vista adicional para analisar sinais e sistemas. As correlações se baseiam nos conceitos de médias temporais e sinais de energia e de potência. Inclusive, os sinais considerados não precisam apresentar transformadas de Fourier definidas. Com isso, a densidade espectral permite tratar com uma classe mais ampla de modelos de sinais, incluindo-se a classe de sinais aleatórios. Neste capítulo, contudo, são desenvolvidos os tópicos sobre correlação de sinais não-aleatórios, com o objetivo de fornecer subsídios aos estudos de correlação de sinais aleatórios posteriores. Discute-se também, as relações entre correlações de entrada e saída de um SLIT e o teorema de Wiener-Kinchine. 6.1. DENSIDADES ESPECTRAIS DE POTÊNCIA E DE ENERGIA Em capítulos anteriores discutiu-se que para um sinal de energia, através da relação de Parseval, tem-se que: Ex 2 x ( t ) dt X (f ) 2 df (6.1) a qual é uma quantidade finita e corresponde à energia do sinal. Nota-se que |X(f)|2 tem unidade de energia/frequência, e portanto é adequado chamar esta função de Densidade Espectral de Energia, Gx(f): G x (f ) X ( f ) 2 (6.2) pois integrando-se Gx(f), tem-se a energia do sinal x(t), ou Gx(f) representa a densidade de energia do sinal para cada frequência. Exemplo 6.1: Considerando x ( t ) A. ( t / ) A.rect ( t / ) , determinar a sua densidade espectral de energia. Solução: Conforme visto no Capítulo 3, X(f ) A.sinc(f) e então, como a densidade espectral de energia obedece a (6.2), obtém-se G x (f ) A 2 2 .sinc 2 (f) 149 CORRELAÇÃO DE SINAIS Para um sinal de potência, é razoável falar em termos de Densidade Espectral de Potência, Sx(f), que representa a distribuição de potência em função da frequência. Assim, se T/2 1 Px S x (f ) df lim x ( t )x * ( t ) dt T T T / 2 (6.3) for finito, Px corresponderá à potência do sinal. Entretanto, ao contrário da densidade espectral de energia, Gx, cujo cálculo já encontra-se bem estabelecido através de (6.2), a determinação da densidade espectral de potência, Sx, ainda precisa ser mais detalhadamente discutida. Neste ponto do texto, vamos alertar que, para fins de simplificar a notação, usaremos a mesma representação Gx(f), tanto para a densidade espectral de energia quanto para a de potência, a menos que se diga o contrário. Nas seções seguintes são definidas as funções de correlação cruzada e de autocorrelação. Como existe uma distinção entre sinais de potência e de energia, estuda-se um caso de cada vez. 6.2. CORRELAÇÃO DE SINAIS DE POTÊNCIA Antes de prosseguir, é conveniente discutir alguns tópicos preliminares como a definição de valor médio no tempo e de produto escalar de funções. O leitor poderá perceber, que trata-se da generalização dos conceitos vistos no Capítulo 2. 6.2.1. Valor médio temporal O valor médio de um sinal de potência é calculado através da seguinte integral: x ( t ) lim T 1 T/2 x ( t ).dt T T / 2 (6.4) Sendo x(t), x1(t) e x2(t) sinais de potência, pode-se verificar que a operação de valor médio temporal possui as seguintes propriedades * a) x * (t) x(t) b) x(t t d ) x(t) (6.5b) c) a 1x1 (t) a 2 x 2 (t) a 1 x1 (t) a 2 x 2 (t) (6.5c) (6.5a) 6.2.2. Produto escalar Se v(t) e w(t) são sinais de potência, define-se o produto escalar de v(t) e w(t) pela integral de valor médio: v( t ).w * ( t ) lim T 150 1 T/2 v( t ).w * ( t ).dt T / 2 T (6.6) SINAIS E SISTEMAS a qual fornece uma indicativa sobre o grau de similaridade entre v(t) e w(t), conforme já foi detalhadamente discutido no Capítulo 2. Recorrendo-se à desigualdade de Schwarz, da física matemática, verifica-se que o produto escalar obedece a [2]-[4]: 2 v( t ).w * ( t ) Pv Pw (6.7) onde a condição de igualdade nesta relação ocorre quando v(t) e w(t) são proporcionais, ou seja, v(t) = K.w(t), onde K é constante. Isto informa que o produto escalar é máximo quando os sinais são proporcionais ou similares, o que concorda com resultados de capítulos anteriores. Em termos de produto escalar, a potência do sinal de potência (6.3) pode ser rescrita como: Px T/2 1 2 x ( t )x * ( t ) dt x ( t )x * ( t ) x ( t ) T T T / 2 G x (f ) df lim (6.8) 6.2.3. Função de Correlação cruzada A correlação cruzada dos sinais v(t) e w(t) é definida através do seguinte produto escalar: R vw () v( t ).w * ( t ) v( t ).w * ( t ) (6.9) resultando numa função de , uma vez que a variável muda t desaparece da análise após o cálculo da integral de média temporal. Ao contrário do produto escalar simples, a correlação cruzada tem um grau a mais de utilidade, pois informa sobre similaridades (ou diferenças) entre os sinais v(t) e w(t-), sendo este último deslocado continuamente no tempo. A seguir, são apresentadas algumas propriedades importantes da correlação cruzada: a) 2 R vw () Pv Pw b) R wv () R *vw () (6.10a) (6.10b) Em particular, o resultado em b) informa que as funções Rvw e Rwv não são iguais. 6.2.4. Função de autocorrelação A função de autocorrelação do sinal v(t) ou w(t) é definida como um caso particular da correlação cruzada, quando v(t)=w(t), isto é R v () R vv () v( t ).v * ( t ) v( t ).v * ( t ) (6.11) 151 CORRELAÇÃO DE SINAIS e informa sobre a variação temporal de v(t), pelo menos em termos de média temporal. Assim, se R v () é elevado, pode-se inferir que v(t-) é bastante similar a v(t), para um dado valor de . Algumas propriedades importantes da autocorrelação são: a) R v (0) Pv (6.12a) b) R v () R v (0) (6.12b) c) R v () R *v () d) Se v(t) é real, então Rv() é real e par e) Se v(t) é periódica, então Rv() é periódica. (6.12c) (6.12d) (6.12e) A propriedade a) informa que o valor da autocorrelação na origem corresponde à potência do sinal. A propriedade b) implica em que a função de autocorrelação apresenta seu valor máximo na origem. A propriedade c) informa que a autocorrelação exibe simetria Hermitiana. Uma propriedade adicional, e que também tem grande importância, refere-se à autocorrelação da superposição de duas funções. Assim, se z(t) for z ( t ) v( t ) w ( t ) (6.13) então, sua autocorrelação obedece a R z () R v () R w () [R vw () R wv ()] (6.14) cuja demonstração deixa-se a cargo do leitor [3]. No caso em que v(t) e w(t) são descorrelacionados para todo , ou seja, quando Rvw()=Rwv()=0, a propriedade (6.14) conduz a R z () R v () R w () (6.15) Neste caso, fazendo =0 e usando (6.12 a), obtém-se Pz Pv Pw (6.16) Isto permite concluir que numa superposição de sinais v(t) e w(t), a superposição de potências só ocorre para sinais descorrelacionados. Exemplo 6.2: j t j t Considere-se os sinais v( t ) C v e v e ( t ) C w e w , onde Cv e Cw são constantes complexas. Calcular a correlação cruzada de v(t) e w(t) e a autocorrelação de v(t). Solução: Aplicando-se (6.9), calcula-se R vw () [C v e jv t ].[C w e jw ( t ) ]* C v C *w e jw e jv t .e jw t 152 SINAIS E SISTEMAS Antes de prosseguir, vamos avaliar a seguinte relação de ortogonalidade entre fasores: e jv t .e jw t lim T 1 T/2 T T / 2 e j( v w ) t .dt lim sinc T ( v w )T 2 a partir da qual se conclui que 0, se w v e jv t .e jw t 1, se w v Substituindo-se essa informação na expressão para Rvw() acima, conclui-se que se w v 0, R vw () * j v C v C w e , se w v Isto evidencia que os fasores são descorrelacionados, a menos que tenham mesma frequência. A função de autocorrelação de v(t) pode ser deduzida desta última: 2 R v () [C v e jv t ].[C v e jv ( t ) ]* C v e jv Exemplo 6.3: Calcular a função autocorrelação do sinal co-senoidal: z( t ) A. cos(0 t ) . Solução: Vamos rescrever z(t) na forma de somas de funções exponenciais complexas z( t ) A j j0 t A j j0 t e e e e v( t ) w ( t ) 2 2 Então, podemos aplicar os resultados do exemplo 6.2 para avaliar a autocorrelação de z(t). Como vw, as correlações cruzadas Rvw()=Rwv()=0. Assim, aplicando-se os resultados obtidos para autocorrelação de exponenciais complexas (fasores): R z () R v () R w () R vw () R wv () R z () A 2 j j j0 t A 2 j j j0 t e e e e e e 4 4 A2 cos 0 2 que constitui uma função real, par e periódica. A potência contida em z(t) é Pz R z (0) A 2 / 2 , como já era esperado. 6.3. CORRELAÇÃO ENTRE SINAIS DE ENERGIA No caso de sinais de energia, o valor médio do sinal como definido em (6.4) resulta nulo, e a definição de produto escalar deve ser alterada. Assim, define-se o produto escalar entre os sinais de energia v(t) e w(t) como 153 CORRELAÇÃO DE SINAIS v( t ).w * ( t ) v( t ).w * ( t ).dt (6.17) Isto posto, definem-se as funções de correlação cruzada e de autocorrelação entre os sinais de energia, v(t) e w(t), de forma similar ao caso de sinais de potência: R vw () v( t ).w * ( t ) v( t ).w * ( t ).dt R v () R vv () v( t ).v * ( t ) v( t ).v * ( t ).dt Como a operação de integração (6.18a) (6.18b) v( t ).dt apresenta as mesmas propriedades matemáticas da operação de média temporal em (6.5), todas as propriedades deduzidas para a correlação de sinais de potência se mantêm, bastando substituir a potência Pv pela energia Ev. 2 R vw () E v E w (6.19a) b) R wv () R *vw () c) R v (0) E v (6.19b) (6.19c) d) R v () R v (0) (6.19d) e) R v () R *v () f) Se v(t) é real, então Rv() é real e par c) R z () R v () R w () [R vw () R wv ()] (6.19e) (6.19f) (6.19g) a) Em particular, o caso da propriedade (6.19c), permite concluir que a área sob a curva de Gv(f), a qual sabe-se que corresponde à energia Ev, também corresponde a Rv(0). Algumas propriedades exclusivas podem ser citadas para os sinais de energia, comparando-se a função de correlação com a operação de convolução. Partindo-se de (6.18 a), e fazendo-se as trocas: z(t)=w*(-t) e t=, resulta R vw () v( ).z( ).d v() * z() (6.20) já que a integral acima corresponde à convolução entre v(t) e z(t). Portanto, apresentam-se as seguintes propriedades adicionais, válidas para sinais de energia: R vw () v() * w * () (6.21a) R v () v() * v * () (6.21b) Além disso, recorrendo-se ao teorema de Parseval, mostra-se também: R vw (0) v( t ).w * ( t ).dt V (f ).W * (f ).df 2 2 R v (0) E v v( t ) .dt V(f ) .df 154 (6.22a) (6.22b) SINAIS E SISTEMAS Inserindo-se as informações Ev=Rv(0) e Ew=Rw(0) em (6.19 a), pode-se obter versão do teorema de Schwarz no domínio da frequência: 2 * V (f ).W (f ).df V (f ) df . W (f ) df 2 2 (6.23) A condição de igualdade na relação acima só ocorre quando V(f) e W(f) forem proporcionais. Este teorema é muito útil no estudo de filtros casados em comunicações digitais. 6.4. CORRELAÇÃO ENTRE ENTRADA E SAÍDA EM SLIT Os resultados que serão apresentados nesta seção serão válidos tanto para sinais de energia quanto de potência. Porém, pela facilidade de notação, algumas demonstrações serão executadas apenas para o caso de sinais de energia. Seja um sistema linear, invariante no tempo (SLIT) e estável, com entrada x(t), saída y(t) e resposta impulsiva h(t), como aquele ilustrado na Fig.6.1. x(t) X(f) y(t)=x(t)*h(t) Y(f)=X(f) H(f) h(t) H(f) Figura 6.1 - Relações entre entrada e saída de um SLIT. Empregando-se resultados do Capítulo 4, sobre análise de SLITs, calcula-se a densidade espectral de energia/potência associada ao sinal de saída 2 2 2 2 G y ( f ) Y ( f ) X (f ) H (f ) X (f ) H ( f ) G x ( f ) H ( f ) 2 (6.24) ou seja, a energia/potência do sinal de saída depende da energia do sinal de entrada e da resposta em frequência do sistema. Portanto as relações de energia e potência num SLIT podem ser representadas como na Fig.6.2: Y(f)=X(f).H(f) X(f) H(f) Gx(f) Gy(f)=Gx(f).|H(f)|2 Figura 6.2 - Relações de energia e potência entre entrada e saída em frequência de um SLIT. Aplicando-se a propriedade descrita em (6.19c) para o sinal y(t), e contando com o auxílio de (6.24) obtém-se que R y (0) G y (f ).df H (f ) .G x (f ).df 2 (6.25) Nos itens a seguir, procede-se à análise temporal das correlações de entrada e saída do SLIT, conforme esquematizado na Fig.6.3. Vamos assumir que x(t) e y(t) são sinais de energia, tal que possamos usar a notação compacta de produto escalar (6.17). 155 CORRELAÇÃO DE SINAIS A condição de sistema estável assegura que y(t) será do mesmo tipo que x(t), ou seja, outro sinal de energia. Conforme já foi observado, os resultados obtidos também poderão ser aplicados para sinais de potência. x(t) Rx() y(t) Ry() h(t) H(f) Figura 6.3 - Relação entre autocorrelação de entrada e saída do SLIT. Vamos, então, proceder ao cálculo da correlação cruzada de x(t) e y(t): R yx () y( t ).x * ( t ) [h ( t ) * x ( t )].x * ( t ) (6.26) Substituindo-se a integral de convolução em (6.26) obtém-se R yx () h ().x ( t ).d. x * ( t ) h (). x ( t ).x * ( t ) .d (6.27) Como v( t ) v( t ) para qualquer o produto escalar em (6.27) torna-se x ( t ).x * ( t ) x ( t ).x * ( t ) x ( t ).x * [ t ( )] R x ( ) (6.28) e portanto R yx () h ().R x ( ).d (6.29) a qual corresponde a uma integral de convolução na variável , isto é R yx () h () * R x () (6.30) Ressalta-se que uma convolução no domínio- é executada de forma similar àquelas para o domínio-t, bem como, goza de todas as propriedades dessas últimas. Procedendo de forma semelhante, mostra-se que R y () y( t ).y * ( t ) h * () y( t ).x * ( t ) .d (6.31) donde deduz-se também que y( t ).x * ( t ) R yx ( ) (6.32) Efetuando-se a mudança de variável: , obtém-se que (6.31) e (6.32) conduzem a 156 SINAIS E SISTEMAS R y () h * ().R yx ( ).d (6.33) ou seja R y () h * ( ) * R yx () (6.34) Portanto, substituindo-se (6.30) em (6.34), tem-se R y () h * ( ) * h () * R x () (6.35) que estabelece a relação entre as autocorrelações de entrada e saída. Na próxima seção, investiga-se um teorema de extrema importância na análise de sinais, em particular, no estudo de ruído, denominado de teorema de WienerKinchine. 6.5 O TEOREMA DE WIENER-KINCHINE O teorema de Wiener-Kinchine estabelece uma importante relação entre a densidade espectral de energia/potência e a função de autocorrelação. Objetivamente, o teorema estabelece que: G v (f ) [R v ()] R v ().e j2 f d (6.36a) e R v () 1 [G v (f )] G v (f ).e j2 f df (6.36b) onde [ . ] atua como a transformada de Fourier aplicada a funções no domínio-. Ou seja, o teorema estabelece mais um par de transformada de Fourier: R v () G v (f ) (6.37) A demonstração do teorema pode ser realizada rapidamente, para sinais de energia. Assim, vamos avaliar a transformada de Fourier inversa: 1 G v (f ) 1 V(f ) V * (f ) 1 V(f ) 1 V * (f ) (6.38) onde se empregou (6.2) e o teorema da convolução. A partir das propriedades da transformada de Fourier, (6.38) se converte em 1 {G v (f )} v() v() v() v( ) d R v () (6.39) onde a integral de convolução também corresponde à definição de autocorrelação, o que conclui a demonstração. 157 CORRELAÇÃO DE SINAIS Exemplo 6.4: Aplicar o teorema de Wiener-Kinchine para obter o espectro de potência de z( t ) A. cos(0 t ) . Solução: Conforme foi visto no exemplo 6.2, R z () A2 cos 0 , e assim 2 A2 A2 A2 ( f f 0 ) ( f f 0 ) cos 0 G v (f ) 2 2 2 cujo gráfico encontra-se desenhado na Fig.6.4. Este resultado obviamente já era esperado. Gz(f) A2/4 -f0 A2/4 0 f0 f Figura 6.4 - Espectro de potência do sinal z(t). 6.6. EXERCÍCIOS 6.6.1. Prove (6.10 b). 6.6.2 Demonstrar a equação (6.14) do texto. Sugestão: Ver o livro do Carlson [3]. 6.6.3. Use (6.2) para calcular a densidade espectral, a autocorrelação e a energia de sinal quando x ( t ) A.sinc[2 W.( t t d )] 6.6.4. Considere o filtro “comb” (pente) mostrado na Fig. P6.6.4. Pede-se determinar a) Sua resposta impulsiva h(t) b) Sua resposta em frequência H(f) 2 c) Esboçar o gráfico de H(f ) d) A expressão da autocorrelação de saída em função da autocorrelação de entrada Rx() usando (6.35) e) A expressão da energia/potência de saída. + x(t) + atraso Figura P6.6.4. 158 - y(t) SINAIS E SISTEMAS 6.6.5. Se x ( t ) A g( t ) , onde a média temporal de g(t) é zero, ou seja, 1 T/2 g( t ) lim g( t ).dt 0 , então: T T T / 2 a) b) c) d) O sinal x(t) é um sinal de energia ou de potência? Calcule a função de autocorrelação R x () ; Calcule a densidade espectral de energia/potência de G x (f ) ; A energia/potência de x(t). 6.6.6. Obter a densidade espectral, a autocorrelação e a potência de sinal quando x ( t ) A 1 cos( 0 t 1 ) A 2 cos(2 0 t 2 ) . 6.6.7. Um sinal binário aleatório x(t) é mostrado na Fig. P6.6.7. Um bit 1 é transmitido por um pulso p(t), que tem amplitude A e largura T0/2, e, um bit 0 é transmitido na ausência de pulso. Os bits 1’s e 0’s ocorrem aleatoriamente, e a ocorrência de 1 e 0 é igualmente provável. Determinar Rx() e a densidade espectral de potência Gx(f) se um dígito binário é transmitido a cada T0 segundos. 1 0 0 1 0 1 1 1 0 1 t T0 T0/2 Figura P6.6.7. 6.6.8. Obter o valor quadrático médio da tensão de saída y(t) da rede RC mostrada na Fig.P6.6.8. se a tensão de entrada tem uma densidade espectral de potência Gx(f) dada por: a) Gx(f)=K; b) Gx(f)=rect(f/) c) Gx(f)=[ff]] Em cada caso, identifique a natureza do sinal de entrada e calcule a potência (valor quadrático médio) do sinal de entrada. 2 x(t) 1F 2 y(t) Figura P6.6.8. 159 CORRELAÇÃO DE SINAIS 160 SINAIS E SISTEMAS Bibliografia: [1] Schwartz, M. & Shaw, L., Signal Processing: Discrete Spectral Analysis, Detection, and Estimation, McGraw-Hill, 1975. [2] Oppenheim, A.V. , Willsky, A.S. and Young, I.T., Signals and Systems, Prentice- Hall Signal Processing Series, 1983. [3] Carlson, A.B., Communication Systems – An Introduction to Signal and Noise in Electrical Communication, Third edition, McGraw-Hill, 1986. [4] Lathi, B.P., Sistemas de Comunicação, Editora Guanabara, 1979 [5] Close, C.M., Circuitos Lineares, vol.1, Ed da Universidade de São Paulo e Livros Técnicos e Científicos Ed. S.A., 1975. [6] Roden, M.S., Analog and Digital Communication Systems, Fourth edition, Prentice Hall, 1996. [7] Spiegel, M.R., Análise de Fourier, McGraw-Hill, 1976. [8] Glisson, T.H., Introduction to System Analysis, McGraw-Hill, 1985. [9] Papoulis, A., Signal Analysis, McGraw-Hill International Editions, 1984. [10] Oppenheim, A.V. & Schafer, R.W., Discrete-Time Signal Processing, Second Edition, Prentice Hall, USA, 1999. 161