·

Engenharia de Energia ·

Circuitos Elétricos 3

Envie sua pergunta para a IA e receba a resposta na hora

Fazer Pergunta

Texto de pré-visualização

Sistemas de Comunicações Analógicos e Digitais Modernos BP Lathi Zhi Ding QUARTA EDIÇÃO LTC SISTEMAS DE COMUNICAÇÕES ANALÓGICOS E DIGITAIS MODERNOS Quarta Edição O GEN Grupo Editorial Nacional maior plataforma editorial brasileira no segmento científico técnico e profissional publica conteúdos nas áreas de ciências exatas humanas jurídicas da saúde e sociais aplicadas além de prover serviços direcionados à educação continuada e à preparação para concursos As editoras que integram o GEN das mais respeitadas no mercado editorial construíram catálogos inigualáveis com obras decisivas para a formação acadêmica e o aperfeiçoamento de várias gerações de profissionais e estudantes tendo se tornado sinônimo de qualidade e seriedade A missão do GEN e dos núcleos de conteúdo que o compõem é prover a melhor informação científica e distribuíla de maneira flexível e conveniente a preços justos gerando benefícios e servindo a autores docentes livreiros funcionários colaboradores e acionistas Nosso comportamento ético incondicional e nossa responsabilidade social e ambiental são reforçados pela natureza educacional de nossa atividade e dão sustentabilidade ao crescimento contínuo e à rentabilidade do grupo SISTEMAS DE COMUNICAÇÕES ANALÓGICOS E DIGITAIS MODERNOS Quarta Edição B P Lathi Professor Emérito da California State University Sacramento Zhi Ding Professor da University of California Davis Tradução J R Souza PhD Professor Adjunto da Universidade do Estado do Rio de Janeiro UERJ Revisão Técnica José Alexandre Nalon Mestre em Engenharia Elétrica pela UNICAMP Professor do Centro Universitário Salesiano de São Paulo UNISAL Os autores e a editora empenharamse para citar adequadamente e dar o devido crédito a todos os detentores dos direitos autorais de qualquer material utilizado neste livro dispondose a possíveis acertos caso inadvertidamente a identificação de algum deles tenha sido omitida Não é responsabilidade da editora nem dos autores a ocorrência de eventuais perdas ou danos a pessoas ou bens que tenham origem no uso desta publicação Apesar dos melhores esforços dos autores do tradutor da editora e dos revisores é inevitável que surjam erros no texto Assim são bemvindas as comunicações de usuários sobre correções ou sugestões referentes ao conteúdo ou ao nível pedagógico que auxiliem o aprimoramento de edições futuras Os comentários dos leitores podem ser encaminhados à LTC Livros Técnicos e Científicos Editora pelo email faleconoscogrupogencombr MODERN DIGITAL AND ANALOG COMMUNICATION SYSTEMS INTERNATIONAL FOURTH EDITION Copyright 1983 by CBS College Publishing 1989 by B P Lathi Saunders College Publishing a division of Holt Rinehart and Winston Inc 1995 1998 2010 by B P Lathi All rights reserved MODERN DIGITAL AND ANALOG COMMUNICATION SYSTEMS INTERNATIONAL FOURTH EDITION was originally published in English in 2009 This translation is published by arrangement with Oxford University Press MODERN DIGITAL AND ANALOG COMMUNICATION SYSTEMS INTERNATIONAL FOURTH EDITION foi editada originalmente em inglês em 2009 Esta tradução é uma publicação por acordo com a Oxford University Press Direitos exclusivos para a língua portuguesa Copyright 2012 by LTC Livros Técnicos e Científicos Editora Ltda Uma editora integrante do GEN Grupo Editorial Nacional Reservados todos os direitos É proibida a duplicação ou reprodução deste volume no todo ou em parte sob quaisquer formas ou por quaisquer meios eletrônico mecânico gravação fotocópia distribuição na internet ou outros sem permissão expressa da editora Travessa do Ouvidor 11 Rio de Janeiro RJ CEP 20040040 Tels 2135430770 1150800770 Fax 2135430896 faleconoscogrupogencombr wwwgrupogencombr Capa Dan Niver Foto de Capa Robert Churchill IStockphotocom Produção digital Geethik CIPBRASIL CATALOGAÇÃONAFONTE SINDICATO NACIONAL DOS EDITORES DE LIVROS RJ L379s Lathi B P Bhagwandas Pannalal 1933 Sistemas de comunicações analógicos e digitais modernos B P Lathi Zhi Ding tradução J R Souza revisão técnica José Alexandre Nalon Reimpr Rio de Janeiro LTC 2019 il 28 cm Tradução de Modern digital and analog communication systems 4th ed Apêndice Inclui bibliografia e índice ISBN 9788521636069 1 Sistemas de telecomunicação 2 Comunicações digitais I Ding Zhi 1962 II Título 120450 CDD 621382 CDU 62139 1 2 3 4 5 6 7 8 9 10 11 12 13 14 A B C D E SUMÁRIO GERAL Prefácio Introdução Sinais e Espaço de Sinais Análise e Transmissão de Sinais Modulações e Demodulações em Amplitude Modulações e Demodulações em Ângulo Amostragem e Conversão AnalógicoDigital Princípios de Transmissão de Dados Digitais Fundamentos da Teoria da Probabilidade Processos Aleatórios e Análise Espectral Análise de Desempenho de Sistemas de Comunicações Digitais Comunicações por Espalhamento Espectral Comunicações Digitais com Canais Sujeitos a Distorção Linear Introdução à Teoria da Informação Códigos Corretores de Erro Ortogonalidade de Alguns Conjuntos de Sinais Desigualdade de CauchySchwarz Ortogonalização de GramSchmidt de um Conjunto de Vetores Propriedades Básicas Matrizes e Operações com Matrizes Miscelâneas 1 11 12 121 122 123 124 13 131 132 14 141 142 143 15 16 2 21 22 221 222 223 224 225 23 24 241 242 243 244 SUMÁRIO PREFÁCIO INTRODUÇÃO SISTEMAS DE COMUNICAÇÃO MENSAGENS ANALÓGICAS E MENSAGENS DIGITAIS Imunidade de Sinais Digitais ao Ruído Viabilidade de Repetidores Regenerativos sem Distorção Conversão AnalógicoDigital AD Modulação por Codificação de Pulsos Uma Representação Digital EFEITO RELAÇÃO SINALRUÍDO E CAPACIDADE DO CANAL Largura de Banda e Potência de Sinal Capacidade do Canal e Taxa de Dados MODULAÇÃO E DETECÇÃO Facilidade de RadiaçãoTransmissão Transmissão Simultânea de Múltiplos Sinais Multiplexação Demodulação CODIFICAÇÕES DIGITAIS DE FONTE E PARA CORREÇÃO DE ERROS BREVE REVISÃO HISTÓRICA DE TELECOMUNICAÇÕES MODERNAS SINAIS E ESPAÇO DE SINAIS TAMANHO DE UM SINAL CLASSIFICAÇÃO DE SINAIS Sinais em Tempo Contínuo e Sinais em Tempo Discreto Sinais Analógicos e Sinais Digitais Sinais Periódicos e Sinais Aperiódicos Sinais de Energia e Sinais de Potência Sinais Determinísticos e Sinais Aleatórios SINAL IMPULSO UNITÁRIO ANALOGIA ENTRE SINAIS E VETORES Componente de um Vetor na Direção de Outro Vetor Decomposição de um Sinal e Componentes de um Sinal Espaço Complexo de Sinais e Ortogonalidade Energia da Soma de Sinais Ortogonais 25 251 252 26 261 262 263 27 28 3 31 32 33 331 332 333 334 335 336 337 34 341 342 35 36 361 362 363 364 37 371 372 373 374 375 38 381 382 383 384 CORRELAÇÃO DE SINAIS Funções de Correlação Função de Autocorrelação CONJUNTO ORTOGONAL DE SINAIS Espaço Vetorial Ortogonal Espaço Ortogonal de Sinais Teorema de Parseval SÉRIE DE FOURIER EXPONENCIAL EXERCÍCIOS COM O MATLAB ANÁLISE E TRANSMISSÃO DE SINAIS REPRESENTAÇÃO DE SINAIS APERIÓDICOS ATRAVÉS DA INTEGRAL DE FOURIER TRANSFORMADAS DE ALGUMAS FUNÇÕES ÚTEIS ALGUMAS PROPRIEDADES DA TRANSFORMADA DE FOURIER Dualidade TempoFrequência Propriedade de Dualidade Propriedade de Dilatação no Tempo Propriedade de Translação no Tempo Propriedade de Translação na Frequência Teorema da Convolução Diferenciação e Integração no Domínio do Tempo TRANSMISSÃO DE SINAL EM UM SISTEMA LINEAR Distorção do Sinal Durante a Transmissão Transmissão sem Distorção FILTROS IDEAIS VERSUS FILTROS PRÁTICOS DISTORÇÃO DE SINAL EM UM CANAL DE COMUNICAÇÃO Distorção Linear Distorção Causada por Não Linearidades do Canal Distorção Causada por Efeitos de Multipercurso Canais com Desvanecimento ENERGIA E DENSIDADE ESPECTRAL DE ENERGIA DE SINAIS Teorema de Parseval Densidade Espectral de Energia ESD Largura de Banda Essencial de um Sinal Energia de Sinais Modulados Função de Autocorrelação Temporal e Densidade Espectral de Energia POTÊNCIA E DENSIDADE ESPECTRAL DE POTÊNCIA DE SINAIS Densidade Espectral de Potência PSD Função de Autocorrelação Temporal de Sinais de Potência Densidades Espectrais de Potência de Entrada e de Saída PSD de Sinais Modulados 39 310 4 41 42 43 44 45 46 47 48 49 5 51 52 53 54 55 56 57 58 6 61 611 612 613 614 615 62 621 622 623 624 63 64 641 CÁLCULO NUMÉRICO DA TRANSFORMADA DE FOURIER A DFT EXERCÍCIOS COM O MATLAB MODULAÇÕES E DEMODULAÇÕES EM AMPLITUDE COMUNICAÇÃO EM BANDA BASE VERSUS COMUNICAÇÃO POR PORTADORA MODULAÇÃO EM AMPLITUDE COM BANDA LATERAL DUPLA MODULAÇÃO EM AMPLITUDE AM MODULAÇÕES EM AMPLITUDE COM EFICIÊNCIA DE LARGURA DE BANDA MODULAÇÕES EM AMPLITUDE BANDA LATERAL VESTIGIAL VSB SINCRONIZAÇÃO DA PORTADORA LOCAL MULTIPLEXAÇÃO POR DIVISÃO EM FREQUÊNCIA FDM MALHA DE CAPTURA DE FASE PHASE LOCKED LOOP PLL E ALGUMAS APLICAÇÕES EXERCÍCIOS COM O MATLAB MODULAÇÕES E DEMODULAÇÕES EM ÂNGULO MODULAÇÃO NÃO LINEAR LARGURA DE BANDA DE ONDAS MODULADAS EM ÂNGULO GERAÇÃO DE ONDAS FM DEMODULAÇÃO DE SINAIS FM EFEITOS DE DISTORÇÃO NÃO LINEAR E INTERFERÊNCIA RECEPTORES ANALÓGICOS AMFM SUPERHETERÓDINOS SISTEMAS DE DIFUSÃO FM EXERCÍCIOS COM O MATLAB AMOSTRAGEM E CONVERSÃO ANALÓGICODIGITAL TEOREMA DA AMOSTRAGEM Reconstrução de Sinais a partir de Amostras Uniformes Questões Práticas Relativas à Amostragem e à Reconstrução de Sinais Máxima Taxa de Informação Duas Porções de Informação por Segundo por Hertz Análise de Amostragem Prática Não Ideal Algumas Aplicações do Teorema da Amostragem MODULAÇÃO POR CODIFICAÇÃO DE PULSO PCM Vantagens de Comunicação Digital Quantização Princípio da Taxação Progressiva Quantização Não Uniforme Largura de Banda de Transmissão e SNR de Saída TELEFONIA DIGITAL PCM EM SISTEMAS DE PORTADORAS MULTIPLEXAÇÃO DIGITAL Formato de Sinal 642 643 65 66 67 68 681 69 7 71 711 712 713 714 72 721 722 723 724 725 73 731 732 733 734 735 736 737 74 75 751 752 753 76 77 78 781 782 783 Canais Assíncronos e Preenchimento de Bits Hierarquia Digital Plesiócrona Quase Síncrona MODULAÇÃO POR CODIFICAÇÃO DE PULSO DIFERENCIAL DPCM PCM DIFERENCIAL ADAPTATIVA ADPCM MODULAÇÃO DELTA VOCODERS E COMPRESSÃO DE VÍDEO Vocoders com Codificação de Predição Linear EXERCÍCIOS COM O MATLAB PRINCÍPIOS DE TRANSMISSÃO DE DADOS DIGITAIS SISTEMAS DE COMUNICAÇÃO DIGITAL Fonte Codificador de Linha Multiplexador Repetidor Regenerador CODIFICAÇÃO DE LINHA PSD de Diversos Códigos de Linha Sinalização Polar Construção de um Nulo DC na PSD via Formatação de Pulso Sinalização OnOff Sinalização Bipolar FORMATAÇÃO DE PULSO Interferências Intersimbólicas ISI e Efeitos Primeiro Critério de Nyquist para ISI Nula ISI Controlada ou Sinalização de Resposta Parcial Exemplo de Pulso Duobinário Relações de Pulsos entre Sinalizações com ISI Zero Duobinária e Duobinária Modificada Detecção de Sinalização Duobinária e Codificação Diferencial Geração de Pulsos EMBARALHAMENTO SCRAMBLING DE DADOS RECEPTORES DIGITAIS E REPETIDORES REGENERATIVOS Equalizadores Extração de Temporização Detecção de Erro DIAGRAMAS DE OLHO UMA FERRAMENTA ÚTIL PAM SINALIZAÇÃO MÁRIA EM BANDA BASE PARA TAXA DE DADOS MAIS ELEVADA SISTEMAS DIGITAIS COM PORTADORA Modulações Binárias Básicas com Portadora PSD de Modulação Digital com Portadora Relações entre Modulações Analógica e Digital com Portadora 784 79 710 8 81 82 83 84 85 86 87 9 91 92 93 94 95 96 97 98 99 10 101 1011 1012 102 1021 1022 103 104 1041 1042 105 1051 1052 1053 Demodulação MODULAÇÃO DIGITAL MÁRIA COM PORTADORA EXERCÍCIOS COM O MATLAB FUNDAMENTOS DA TEORIA DA PROBABILIDADE CONCEITO DE PROBABILIDADE VARIÁVEIS ALEATÓRIAS MÉDIAS VALORES MÉDIOS ESTATÍSTICAS OS CORRELAÇÃO ESTIMAÇÃO QUADRÁTICA MÉDIA LINEAR SOMA DE VARIÁVEIS ALEATÓRIAS TEOREMA DO LIMITE CENTRAL PROCESSOS ALEATÓRIOS E ANÁLISE ESPECTRAL DE VARIÁVEL ALEATÓRIA A PROCESSO ALEATÓRIO CLASSIFICAÇÃO DE PROCESSOS ALEATÓRIOS DENSIDADE ESPECTRAL DE POTÊNCIA PROCESSOS ALEATÓRIOS MÚLTIPLOS TRANSMISSÃO DE PROCESSOS ALEATÓRIOS POR MEIO DE SISTEMAS LINEARES APLICAÇÃO FILTRAGEM ÓTIMA FILTRO DE WIENERHOPF APLICAÇÃO ANÁLISE DE DESEMPENHO DE SISTEMAS ANALÓGICOS EM BANDABASE APLICAÇÃO SISTEMAS ÓTIMOS DE PRÉÊNFASEDEÊNFASE PROCESSOS ALEATÓRIOS PASSAFAIXA ANÁLISE DE DESEMPENHO DE SISTEMAS DE COMUNICAÇÕES DIGITAIS DETECTOR LINEAR ÓTIMO PARA SINALIZAÇÃO POLAR BINÁRIA Limiar de Detecção Binária Filtro Receptor Ótimo Filtro Casado SINALIZAÇÃO BINÁRIA GENÉRICA Análise de Receptor Linear Ótimo Análise de Desempenho de Sistemas Binários Genéricos RECEPTORES COERENTES PARA MODULAÇÕES DIGITAIS COM PORTADORA ANÁLISE DE DETECÇÃO ÓTIMA NO ESPAÇO DE SINAIS Espaço Geométrico de Sinais Espaço de Sinais e Base de Sinais DECOMPOSIÇÃO VETORIAL DE PROCESSOS ALEATÓRIOS DE RUÍDO BRANCO Determinação de Funções de Base para um Processo Aleatório Representação Geométrica de Processos de Ruído Branco Ruído Gaussiano Branco 1054 106 1061 1062 1063 1064 1065 1066 107 108 1081 1082 109 1010 1011 1012 11 111 112 113 114 115 116 117 118 1181 1182 1183 119 12 121 122 1221 1222 123 1231 1232 Propriedades de Processos Aleatórios Gaussianos RECEPTOR ÓTIMO PARA CANAIS COM RUÍDO GAUSSIANO BRANCO Representações Geométricas Dimensionalidade do Espaço de Sinais de Detecção Espaço de Sinais e Procedimento de Decisão Simplificados Regiões de Decisão e Probabilidade de Erro Sinalização Multiamplitude PAM Análise QAM Mária EXPRESSÃO GERAL PARA A PROBABILIDADE DE ERRO DE RECEPTORES ÓTIMOS CONJUNTOS EQUIVALENTES DE SINAIS Conjunto de Sinais de Mínima Energia Conjunto de Sinais Simplex RUÍDO DE CANAL NÃO BRANCO COLORIDO OUTROS CRITÉRIOS ÚTEIS DE DESEMPENHO DETECÇÃO NÃO COERENTE EXERCÍCIOS DE MATLAB COMUNICAÇÕES POR ESPALHAMENTO ESPECTRAL SISTEMAS DE ESPALHAMENTO ESPECTRAL POR SALTOS EM FREQUÊNCIA FHSS SISTEMAS FHSS MULTIUSUÁRIO E DESEMPENHO APLICAÇÕES DE FHSS ESPALHAMENTO ESPECTRAL POR SEQUÊNCIA DIRETA CARACTERÍSTICAS DE RESILIÊNCIA DE DSSS MÚLTIPLO ACESSO POR DIVISÃO DE CÓDIGO CDMA DE DSSS DETECÇÃO MULTIUSUÁRIO MUD SISTEMAS CDMA DSSS PRÁTICOS MODERNOS CDMA em Redes de Telefonia Celular CDMA no Sistema de Posicionamento Global GPS Padrão IEEE 80211b para LAN Sem Fio EXERCÍCIOS COM O MATLAB COMUNICAÇÕES DIGITAIS COM CANAIS SUJEITOS A DISTORÇÃO LINEAR DISTORÇÕES LINEARES EM CANAIS SEM FIO DE MULTIPERCURSO EQUALIZAÇÃO DO CANAL NO RECEPTOR Filtro Antimascaramento versus Filtro Casado Estimação da Sequência de Máxima Verossimilhança MLSE EQUALIZAÇÃO LINEAR COM ESPAÇAMENTO T TSE TSE com Forçamento a Zero Projeto de TSE com Base em MMSE 124 1241 1242 125 126 127 1271 1272 1273 1274 1275 128 129 1210 1211 1212 13 131 132 133 134 135 136 137 138 1381 1382 1383 139 14 141 142 143 144 145 146 1461 EQUALIZADORES LINEARES FRACIONALMENTE ESPAÇADOS FSE Modelo Uma Entrada Múltiplas Saídas SIMO Configurações de FSE ESTIMAÇÃO DE CANAL EQUALIZADOR COM REALIMENTAÇÃO DE DECISÃO COMUNICAÇÕES OFDM MULTIPORTADORA Princípios de OFDM Ruído em Canal OFDM OFDM com Preenchimento de Zeros Redundância de Prefixo Cíclico em OFDM Equalização OFDM MODULAÇÕES MULTITONS DISCRETOS DMT APLICAÇÕES PRÁTICAS DE OFDM E DMT EQUALIZAÇÃO CEGA E IDENTIFICAÇÃO DISTORÇÕES EM CANAL VARIANTE NO TEMPO DEVIDO À MOBILIDADE EXERCÍCIOS COM O MATLAB INTRODUÇÃO À TEORIA DA INFORMAÇÃO MEDIDA DE INFORMAÇÃO CODIFICAÇÃO DE FONTE COMUNICAÇÃO SEM ERRO EM UM CANAL RUIDOSO CAPACIDADE DE CANAL DE UM CANAL DISCRETO SEM MEMÓRIA CAPACIDADE DE CANAL DE UM CANAL CONTÍNUO SEM MEMÓRIA EQUAÇÃO DE SHANNON E SISTEMAS DE COMUNICAÇÃO PRÁTICOS CAPACIDADE DE CANAL SELETIVO EM FREQUÊNCIA SISTEMAS DE COMUNICAÇÃO COM MÚLTIPLAS ENTRADAS E MÚLTIPLAS SAÍDAS Capacidade de Canais MIMO Transmissor sem Conhecimento do Canal Transmissor com Conhecimento do Canal EXERCÍCIOS COM O MATLAB CÓDIGOS CORRETORES DE ERRO VISÃO GERAL REDUNDÂNCIA PARA CORREÇÃO DE ERRO CÓDIGOS DE BLOCOS LINEARES CÓDIGOS CÍCLICOS EFEITOS DA CORREÇÃO DE ERRO CÓDIGOS CONVOLUCIONAIS Codificador Convolucional 1462 147 148 149 1410 1411 1412 1413 A A1 A2 B C D D1 D2 D3 D4 D5 D6 D7 E E1 E2 E3 E4 E5 E6 E7 Decodificação de Códigos Convolucionais DIAGRAMA EM TRELIÇAS DE CÓDIGOS DE BLOCOS COMBINAÇÃO E ENTRELAÇAMENTO DE CÓDIGOS DECODIFICAÇÃO SUAVE ALGORITMO DE VITERBI COM SAÍDA SUAVE SOVA CÓDIGOSTURBO CÓDIGOS VERIFICADORES DE PARIDADE DE BAIXA DENSIDADE LDPC EXERCÍCIOS COM O MATLAB ORTOGONALIDADE DE ALGUNS CONJUNTOS DE SINAIS Ortogonalidade do Conjunto de Sinais Trigonométricos Ortogonalidade do Conjunto de Sinais Exponenciais DESIGUALDADE DE CAUCHYSCHWARZ ORTOGONALIZAÇÃO DE GRAMSCHMIDT DE UM CONJUNTO DE VETORES PROPRIEDADES BÁSICAS MATRIZES E OPERAÇÕES COM MATRIZES NOTAÇÃO PRODUTO DE MATRIZES E SUAS PROPRIEDADES MATRIZES IDENTIDADE E DIAGONAL DETERMINANTE DE MATRIZ QUADRADA TRAÇO AUTODECOMPOSIÇÃO MATRIZES QUADRADAS HERMITIANAS ESPECIAIS MISCELÂNEA REGRA DE LHÔPITAL SÉRIES DE TAYLOR E DE MACLAURIN SÉRIES DE POTÊNCIAS SOMAS NÚMEROS COMPLEXOS IDENTIDADES TRIGONOMÉTRICAS INTEGRAIS INDEFINIDAS O PREFÁCIO principal objetivo desta quarta edição é atender ao enorme progresso tecnológico em sistemas de comunicação ocorrido ao longo da década desde o lançamento da terceira edição Ao mesmo tempo novos pacotes de software e ferramentas de ensino se tornaram disponíveis facilitando a apresentação de exemplos ricos e ilustrativos assim como mais oportunidades experimentais para os estudantes Nesta nova edição grandes mudanças foram implementadas para incorporar esses recentes avanços tecnológicos na área de telecomunicações Para aguçar o interesse dos estudantes e permitir que relacionem os conteúdos de cursos a experiências com ferramentas de comunicação com maior facilidade apresentaremos informações relevantes sobre a operação e as características de sistemas celulares redes locais sem fio LANs e serviços de internet com fio linha digital de assinantes DSL entre outros Revisão Importante Diversas alterações importantes foram motivadas pela necessidade de enfatizar os fundamentos de sistemas de comunicação digital que permeiam nossa vida diária Em especial devido às disseminadas aplicações de novas tecnologias como espalhamento espectral e multiplexação por divisão em frequências ortogonais OFDM acrescentamos dois novos capítulos sobre espalhamento espectral Capítulo 11 e sobre canais seletivos em frequência e sistemas OFDM Capítulo 12 Como exemplos práticos desses sistemas elaboramos um texto introdutório básico sobre os atuais padrões de comunicação sem fio incluindo sistemas celulares e redes de área local LANs sem fio baseadas no padrão IEEE 802111abgn Adicionalmente incluímos um resumo das mais modernas tecnologias de modems e serviços DSL De certo modo a teoria e a forma de codificar a informação também foram transformadas pelo progresso em diversas áreas importantes Nesta obra incluímos os princípios básicos da tecnologia de sistemas com múltiplas entradas e saídas MIMO que passou a ter amplo uso comercial Cobrimos ainda diversas inovações excelentes na codificação para corrigir erros incluindo decodificação suave códigosturbo e códigos de verificação de paridade de baixa densidade LDPC Para tornar o aprendizado mais aprimorado e dar aos estudantes a oportunidade de treinamento experimental baseado em computador apresentamos exemplos relevantes e exercícios em MATLAB nos capítulos o que aumenta a qualidade do conteúdo abordado mediante o uso de experiências práticas Organização A obra inicia tradicionalmente com a revisão de fundamentos de sinais e sistemas e prossegue com os tópicos de comunicação essenciais modulações analógica e digital por codificação de pulsos A seguir mencionamos as ferramentas básicas da teoria da probabilidade e de processos aleatórios que são usados em todo o texto para análise e projeto de sistemas de comunicação digital Após cobrir os fundamentos destes sistemas os dois últimos capítulos apresentam uma abordagem superficial da teoria da informação e dos princípios de códigos corretores de erros O ideal seria que o conteúdo deste livro fosse dividido em dois cursos um sobre a operação básica de sistemas de comunicação e outro sobre a análise de sistemas modernos de comunicação sujeitos a ruído e a outras distorções No primeiro a base seria as ferramentas de análise determinística como séries de Fourier transformadas de Fourier e teorema da amostragem enquanto no segundo seriam cobertas as ferramentas de probabilidade e de processos aleatórios para tratar a imprevisibilidade de sinais de mensagens e ruídos Todavia atualmente dada a grande variedade de cursos pode ser difícil incluir dois semestres básicos sobre comunicação no programa típico de engenharia Algumas universidades exigem como prérequisito um curso de probabilidade e processos aleatórios o que permite que as duas áreas sejam cobertas razoavelmente bem em uma única disciplina de um semestre Este livro foi projetado para ser adotado tanto em um curso de um semestre no qual se enfatizam os aspectos determinísticos de sistemas de comunicação com uma abordagem superficial dada aos efeitos de ruído e interferência da mesma forma que em um curso que estude os aspectos determinísticos e probabilísticos de sistemas de comunicação O livro é autossuficiente e provê toda a teoria básica de probabilidade e processos aleatórios Entretanto como dissemos se o objetivo for cobrir os aspectos determinísticos e probabilísticos referentes a esses sistemas em um semestre é altamente desejável que os estudantes já tenham bom conhecimento de probabilidade O Capítulo 1 apresenta um panorama dos sistemas de comunicação Explicamos de forma qualitativa e heurística todos os conceitos importantes relativos à teoria da comunicação Isso atrai os estudantes de cursos que cobrem genericamente esse tópico Com este estímulo eles se entusiasmam a estudar nos Capítulos 2 e 3 a ferramenta de análise de sinais nesses capítulos os estudantes aprendem a ver um sinal como um vetor e a pensar no espectro de Fourier como uma forma de representar um sinal em termos de suas componentes vetoriais Os Capítulos 4 e 5 discutem modulações em amplitude linear e em ângulo não linear respectivamente Na era digital muitos professores acham que a modulação deveria ter menos relevância Consideramos que ela é mais uma ferramenta essencial de processamento de sinais do que um método de comunicação ela será sempre necessária tanto na área de comunicação digital ou analógica como em vários outros campos da engenharia elétrica Por conseguinte desprezála pode significar a ausência de uma perspectiva O Capítulo 6 que serve como um elo entre comunicações analógicas e digitais descreve o processo de conversão analógicodigital ADC Ele detalha amostragem modulação por codificação de pulsos incluindo DPCM modulação delta codificação de voz vocoder codificação e compressão de imagemvídeo O Capítulo 7 discute os princípios e técnicas empregados em modulação digital introduzindo o conceito de distorção de canal e apresentando a equalização como uma forma eficaz de compensar a distorção Os Capítulos 8 e 9 apresentam aspectos básicos das teorias de probabilidade e de processos aleatórios que representam a segunda ferramenta necessária ao estudo de sistemas de comunicação Todo o esforço é feito para motivar os estudantes e assim conserválos à medida que avançam na leitura dos capítulos para isto sempre que possível apresentamos aplicações para problemas de comunicação O Capítulo 10 trata da análise de sistemas de comunicação digital na presença de ruídos incluindo a detecção ótima de sinais O Capítulo 11 prioriza as comunicações por espalhamento espectral O Capítulo 12 apresenta diversas técnicas práticas que podem ser empregadas no combate a distorções reais de canais abordando tanto a equalização de canal como a tecnologia OFDM amplamente utilizada O Capítulo 13 oferece um tutorial sobre teoria da informação Por fim o Capítulo 14 discute os princípios e importantes aspectos práticos da codificação para controle de erro Um de nossos objetivos ao escrever este livro foi tornar prazeroso o aprendizado ou pelo menos tornálo uma experiência menos intimidadora para os estudantes nesse sentido cuidamos para apresentar o assunto de forma clara compreensível e logicamente organizada Sempre que possível esforçamonos para apresentar visões esclarecedoras mais do que compreensíveis bem como explicações heurísticas de resultados teóricos Incluímos também vários exemplos que auxiliam no entendimento de resultados abstratos Mesmo que o sucesso em atingir esse objetivo seja parcial nosso esforço terá valido a pena Um Mundo Completamente Novo Assim que publicamos a terceira edição em 1998 surgiram importantes desenvolvimentos tecnológicos Primeiro a telefonia celular se tornou profundamente enraizada na vida das pessoas seja nos centros urbanos ou nos subúrbios tanto na maioria dos países desenvolvidos quanto nos em desenvolvimento Em 1998 pouquíssimos estudantes dispunham de pagers e de telefones celulares Hoje praticamente todos têm um celular Segundo em 1998 a maioria das conexões domésticas de internet era feita em baixa velocidade 288 kbits via modems para linhas telefônicas discadas Atualmente a maioria dos estudantes se conecta ao ciberespaço por meio de serviços DSL ou a cabo Além disso as redes LAN sem fio fizeram com que termos esotéricos como IEEE 80211 se tornassem corriqueiros Grande parte dos estudantes já explorou essas tecnologias Devido aos enormes avanços tecnológicos a nova geração de estudantes tem grande interesse em estudálos e aprender como implementálos Eles anseiam por compreender como e onde podem contribuir para essa indústria Tanto entusiasmo deve ser proveitosamente estimulado e explorado Esta nova edição permitirá que o próprio professor recorde alguns tópicos ou que prepare material de leitura para que os estudantes possam assimilar informações relevantes Esses objetivos podem ser alcançados com o destaque dos aspectos digitais do texto e a incorporação das mais conhecidas tecnologias digitais com e sem fio Uso do Livro em Cursos Juntos temos mais de 55 anos de experiência de ensino e lecionamos em grandes universidades em cursos com duração de um trimestre ou de um semestre De forma complementar as experiências pessoais dos estudantes relacionadas a sistemas de comunicação se multiplicaram continuamente desde a década de 1960 ao século XXI saindo dos simples aparelhos de rádio até o acesso fácil a redes LAN sem fio aos dispositivos celulares às estações de rádio via satélite e aos serviços domésticos de internet Em consequência mais e mais estudantes têm interesse em aprender como esses aparelhos eletrônicos tão comuns funcionam Considerando essa importante necessidade e nossa experiência de ensino revimos essa edição visando adequála apropriadamente às diferentes configurações de programas de estudo Em todos os casos uma abordagem básica deve ensinar os fundamentos de comunicações analógicas e digitais Capítulos 1 a 7 Curso de Um Semestre sem grande conhecimento de probabilidade Em muitos programas de estudo os estudantes de graduação não utilizam ferramentas simples de probabilidade até chegarem aos cursos de comunicação Em geral isso ocorre porque as instituições os forçam a fazer um curso introdutório de estatística desvinculado das necessidades da área de engenharia Este texto é adequado aos estudantes com essa formação Os primeiros sete capítulos constituem uma cobertura abrangente de modernos sistemas de comunicação analógica e digital tendo em vista o típico estudante de engenharia Um curso como este pode ser lecionado em um semestre 40 a 45 horasaula Com base na premissa de que os estudantes tenham adquirido conhecimento consistente de análise de Fourier em um curso anterior obrigatório sobre sinais e sistemas a maior parte dos três capítulos iniciais pode ser tratada como revisão em uma semana O resto do semestre pode ser totalmente dedicado ao estudo dos Capítulos 4 a 7 com cobertura parcial dos sistemas práticos dos Capítulos 11 e 12 para aumentar o interesse dos estudantes Curso de Um Semestre com grande conhecimento de probabilidade No caso de programas de estudo que reforçaram o estudo inicial de teoria da probabilidade uma cobertura mais abrangente de comunicações digitais pode ser alcançada em um semestre A teoria da probabilidade pode ser ensinada com maior rigor no contexto da análise de sinais e sistemas cf George R Cooper e Clare D McGillem Probabilistic Methods of Signal and System Analysis Oxford University Press 1999 Nesse cenário além dos Capítulos 1 a 7 o Capítulo 10 e a parte do Capítulo 12 sobre equalização também podem ser lecionados em um semestre desde que os estudantes dominem o conteúdo de probabilidade permitindo que se restrinja a cobertura dos Capítulos 8 a 9 a algumas poucas horas Os estudantes que completarem este curso estarão bem preparados para ingressar no mercado de trabalho de telecomunicações ou em cursos de pósgraduação Série de Dois Semestres sem um curso separado de probabilidade Todo o texto pode ser integral e detalhadamente coberto em dois semestres no caso de programas de estudo sem um curso prévio de probabilidade Em outras palavras para uma série de dois cursos o objetivo é ensinar sistemas de comunicações e os fundamentos de probabilidades Em uma era em que numerosos cursos devem ser acomodados no programa de engenharia é difícil alocar cursos de dois semestres direcionados apenas para comunicações Contudo a maioria das universidades oferece um curso autônomo de probabilidade oferecido por professores sem formação em engenharia Nesse cenário seria preferível incluir toda a teoria da probabilidade nos dois cursos de comunicações Assim para cursos de dois semestres a cobertura pode ser dividida da seguinte forma Primeiro semestre Capítulos 1 a 7 Sinais e Sistemas de Comunicação Segundo semestre Capítulos 8 a12 Modernos Sistemas de Comunicação Digital Curso de Um Trimestre com grande conhecimento de probabilidade Em um sistema trimestral os estudantes devem fazer um curso anterior de probabilidade e estatística em um nível avançado cf Cooper e McGillem Probabilistic Methods of Signal and System Analysis Também devem dominar a análise de Fourier Em um trimestre as aulas podem tratar dos fundamentos de sistemas de comunicações analógico e digital Capítulos 3 a 7 e com os Capítulos 10 e 11 de análise de sistemas de comunicação digital e comunicações por espalhamento espectral respectivamente Curso de Um Trimestre sem grande conhecimento de probabilidade No caso raro de estudantes com pouco conhecimento de probabilidade é importante que eles aprendam os fundamentos de sistemas de comunicação Sugerimos que o curso não se proponha a analisar os sistemas de comunicação digital Em vez disso a cobertura básica sem conhecimento de probabilidade pode ser feita com o ensino da operação de sistemas analógicos e digitais Capítulos 1 a 7 e a discussão em alto nível de sistemas sem fio por espalhamento espectral Capítulo 11 Série de Dois Trimestres com conhecimento básico de probabilidade Ao contrário do curso de um trimestre uma série de dois trimestres pode ser bem projetada para ensinar a maior parte do conteúdo importante sobre sistemas de comunicação e sua análise Todo o texto pode ser ensinado em dois trimestres caso o programa de estudo inclua alguma cobertura preliminar de análise de Fourier e probabilidades Em essência se os Capítulos 1 a 3 e o Capítulo 8 forem vistos como parcialmente novos e parcialmente de revisão a cobertura pode ser feita da seguinte forma Primeiro trimestre Capítulos 1 a 9 Sistemas de Comunicação e Análise Segundo trimestre Capítulos 10 a 14 Sistemas de Comunicação Digital MATLAB e Experimentos de Laboratório Como muitas universidades não mais dispõem de laboratórios físicos para comunicações para auxiliar o aprendizado o livro inclui exercícios sobre sistemas de comunicação baseados em MATLAB Utilizando a tela do computador e medidas de taxa de erro de bits os estudantes podem projetar sistemas modificar seus parâmetros e avaliar os efeitos sobre o desempenho dos sistemas de comunicação Desta forma os estudantes podem aprender de forma autônoma como projetar e realizar simulações com sistemas de comunicação Agradecimentos Primeiro os autores agradecem a todos os estudantes que tiveram em todos esses anos Esta edição não seria possível sem os comentários e sugestões fornecidos pelos nossos estudantes e sem as discussões que tivemos com eles Os autores agradecem a todos os revisores por fornecerem valorosa ajuda no aprimoramento do texto Por fim os autores também agradecem ao professor Norman Morrison da University of Cape Town por sugerir um novo exercício E823 nesta edição BP Lathi Zhi Ding Material Suplementar Este livro conta com o seguinte material suplementar Ilustrações da obra em formato de apresentação restrito a docentes O acesso ao material suplementar é gratuito Basta que o leitor se cadastre em nosso site wwwgrupogencombr faça seu login e clique em GENIO no menu superior do lado direito É rápido e fácil Caso haja alguma mudança no sistema ou dificuldade de acesso entre em contato conosco gendigitalgrupogencombr A 11 o longo da última década a rápida expansão das tecnologias de comunicação digital foi simplesmente impressionante A internet uma palavra e conceito inicialmente familiares apenas a técnicos e à comunidade científica permeou todos os aspectos da vida das pessoas Na sociedade moderna é difícil encontrar qualquer indivíduo que não tenha sido influenciado pelas novas tecnologias de comunicação dos telefones celulares ao Bluetooth Este livro examina os princípios básicos de comunicação por sinais elétricos Antes dos tempos modernos mensagens eram transportadas por corredores pombos correio luzes e fogo Estes esquemas eram adequados às distâncias e taxas de dados da época Na maior parte do mundo esses modos de comunicação foram substituídos por sistemas elétricos de comunicação capazes de transmitir sinais por distâncias muito maiores até a planetas e galáxias distantes e à velocidade da luz A comunicação elétrica é confiável e econômica e as tecnologias nela empregadas aumentam a produtividade e a conservação de energia Com crescente frequência as reuniões de trabalho são conduzidas via teleconferência economizando tempo e energia que seriam gastos com viagens A comunicação ubíqua permite que o gerenciamento e a coordenação de participantes de um projeto sejam feitos em tempo real de qualquer ponto do globo O correio eletrônico está substituindo rapidamente os mais custosos e lentos correioslesma O comércio eletrônico também reduziu alguns custos e atrasos associados à venda e os consumidores passaram a ter mais informação sobre novos produtos e suas características As formas tradicionais de mídia como televisão rádio e jornais evoluíram rapidamente nos últimos anos para se adequar às novas tecnologias de comunicação e de redes e delas tirar maior proveito O objetivo deste livro é prover o conhecimento técnico fundamental de que necessitarão os engenheiros e técnicos de comunicações da próxima geração para que sejam capazes de projetar sistemas de comunicação ainda melhores no futuro SISTEMAS DE COMUNICAÇÃO A Figura 11 ilustra três sistemas de comunicação típicos uma conexão entre telefones de linha discada e celular um sistema de difusão de TV e uma rede sem fio de computadores Devido aos numerosos exemplos sistemas de comunicação seria uma tolice tentar estudar neste livro os detalhes de todos os tipos de sistemas de comunicação A forma mais eficiente e eficaz de aprender comunicações é estudar os principais blocos fundamentais que são comuns a praticamente todos os sistemas de comunicação Assim os alunos não apenas aprendem o funcionamento dos sistemas existentes que estudaram mas o que é mais importante podem adquirir o conhecimento básico necessário para projetar e analisar sistemas novos e não mencionados neste livro Para iniciar é essencial definir um modelo para um típico sistema de comunicação como mostrado na Figura 12 Os principais componentes de um sistema de comunicação são os seguintes Figura 11 Alguns exemplos de sistemas de comunicação A fonte origina uma mensagem como uma fala humana uma imagem de televisão uma mensagem de correio eletrônico ou algum dado Se o dado for não elétrico por exemplo fala humana texto de correio eletrônico vídeo de televisão deve ser convertido por um transdutor de entrada em uma forma de onda elétrica referida como sinal em banda base ou sinal de mensagem dispositivos físicos que realizam essa conversão são por exemplo microfone teclado de computador câmera fotográficafilmadora digital 12 Figura 12 Sistema de comunicação O transmissor modifica o sinal em banda base para transmissão eficiente O transmissor pode consistir em um ou mais subsistemas conversor AD codificador e modulador De forma semelhante o receptor pode ser um demodulador um decodificador e um conversor DA O canal é um meio de escolha no qual os sinais elétricos na saída do transmissor são transportados ao longo de uma dada distância Um canal típico pode ser um par de fios de cobre trançados telefone e DSL cabo coaxial televisão e internet fibra óptica ou enlace de rádio Além disso um canal também pode ser uma conexão ponto a ponto em uma malha de canais interconectados que formam uma rede de comunicação O receptor processa o sinal recebido do canal revertendo as modificações feitas pelo transmissor no sinal e removendo as distorções feitas pelo canal A saída do receptor é alimentada ao transdutor de saída que converte o sinal elétrico à sua forma original a mensagem O destino é a unidade à qual a mensagem é endereçada Um canal é um meio físico que se comporta parcialmente como um filtro que em geral atenua o sinal e distorce as formas de onda transmitidas A atenuação do sinal aumenta com o comprimento do canal variando de uma pequena porcentagem no caso de curtas distâncias a ordens de magnitude no caso de comunicação interplanetária A distorção das formas de onda dos sinais tem origem em fenômenos físicos como ganhos dependentes da frequência efeitos de multipercurso e deslocamento Doppler Por exemplo um canal seletivo em frequência causa diferentes valores de atenuação e de deslocamento de fase a diferentes componentes de frequência do sinal Um pulso quadrado é arredondado ou espalhado durante a transmissão por um canal passa baixas Distorções desse tipo denominadas distorções lineares podem ser parcialmente corrigidas no receptor por um equalizador com características de ganho e fase complementares às do canal Os canais também podem causar distorção não linear através de atenuação que varia com a amplitude do sinal Tais distorções também podem ser parcialmente corrigidas no receptor por um equalizador de características complementares Caso as distorções do canal sejam conhecidas também podem ser précompensadas por transmissores com a aplicação de prédistorções dependentes do canal Em um ambiente prático sinais que passam por canais de comunicação não apenas sofrem distorções do canal mas também são corrompidos ao longo do percurso por interferências e perturbações indesejáveis agrupadas no abrangente termo ruído Esses sinais interferentes são aleatórios e imprevisíveis e suas fontes são externas e internas O ruído externo inclui sinais interferentes transmitidos em canais vizinhos ruído gerado pelo homem por meio de comutadores defeituosos em equipamentos elétricos radiação proveniente da ignição de automóveis lâmpadas fluorescentes ou ruído natural advindo de raios fornos de microondas e emissões de telefones celulares assim como tempestades elétricas e radiação intergaláctica Um cuidado adequado no projeto do sistema pode reduzir ou em alguns casos até mesmo eliminar o ruído externo Já o ruído interno resulta da agitação térmica de partículas carregadas em condutores emissão espontânea difusão ou recombinação de portadores de carga em dispositivos eletrônicos Seus efeitos podem ser reduzidos com cuidado adequado mas jamais eliminados O ruído é um dos fatores fundamentais que limitam a taxa de comunicação Em sistemas de comunicação práticos portanto o canal distorce o sinal e o ruído se acumula ao longo do percurso Pior ainda a intensidade do sinal diminui com a distância enquanto o nível de ruído se mantém estacionário independentemente do afastamento desde o transmissor Em consequência a qualidade do sinal se deteriora continuamente enquanto transpõe o comprimento do canal A amplificação do sinal recebido para compensar a atenuação não é útil pois o ruído será amplificado na mesma proporção de modo que na melhor das hipóteses a qualidade do sinal fica inalterada Esses são os desafios importantes que devemos enfrentar no projeto de modernos sistemas de comunicação MENSAGENS ANALÓGICAS E MENSAGENS DIGITAIS As mensagens são digitais ou analógicas Mensagens digitais são combinações ordenadas de uma quantidade finita de símbolos ou de palavras de código Por exemplo o inglês imprenso consiste em 26 letras 10 números um espaço e diversos caracteres de pontuação e de acentuação Com isso um documento de texto escrito em inglês é uma mensagem digital construída a partir de um teclado ASCII de 128 símbolos A fala humana também é uma mensagem digital pois é constituída de um vocabulário finito em alguma linguagem As notas musicais também são digitais embora o som da música seja analógico Da mesma forma uma 121 mensagem telegráfica em código Morse é uma mensagem digital construída a partir de um conjunto de apenas dois símbolos traço e ponto Consequentemente é uma mensagem binária ou seja de apenas dois símbolos Uma mensagem digital construída com M símbolos é denominada mensagem Mária Mensagens analógicas são caracterizadas por dados cujos valores variam em um intervalo contínuo e são definidas em um período contínuo de tempo Por exemplo a temperatura ou a pressão atmosférica de um certo local ao longo do tempo pode variar em um intervalo contínuo e pode assumir um número infinito incontável de valores possíveis Uma peça musical gravada por um pianista também é um sinal analógico De modo semelhante a amplitude de uma particular forma de onda de voz varia em um intervalo contínuo Em um dado intervalo de tempo existe um número infinito de diferentes possíveis formas de onda de voz em contraste com apenas um número finito de possíveis mensagens digitais Imunidade de Sinais Digitais ao Ruído Não é segredo mesmo para um observador casual que toda vez que alguém examina os mais recentes produtos de comunicação eletrônica uma tecnologia digital mais nova e melhor substitui a velha tecnologia analógica Na última década os telefones celulares completaram a transformação da primeira geração analógica AMPS na atual segunda geração por exemplo GSM CDMA e sua descendente digital a terceira geração por exemplo WCDMA Mais visível nas residências a tecnologia de vídeo digital DVD tornou o sistema analógico de VHS praticamente obsoleto A televisão digital dá prosseguimento ao ataque digital à tecnologia de vídeo analógico removendo o último remanescente da televisão em cores É razoável perguntar por que as tecnologias digitais são melhores A resposta está associada a aspectos econômicos e à qualidade A motivação econômica é a facilidade de adoção dos versáteis poderosos e baratos microprocessadores digitais de alta velocidade Ainda mais importante no que diz respeito ao nível de qualidade uma característica proeminente das comunicações digitais é a maior imunidade de sinais digitais ao ruído e a interferências As mensagens digitais são transmitidas como um conjunto finito de formas de ondas elétricas Em outras palavras uma mensagem digital é gerada a partir de um alfabeto finito e cada caractere no alfabeto pode ser representado por uma forma de onda ou por uma combinação sequencial de formas de onda Por exemplo no envio de uma mensagem em código Morse um traço pode ser transmitido por um pulso elétrico de amplitude A2 e o ponto por um pulso de amplitude negativa A2 Fig 13a Em um caso Mário M pulsos ou formas de onda elétricos são usados cada um dos M pulsos representa um dos M símbolos possíveis Após a transmissão o receptor deve extrair a mensagem do sinal distorcido e ruidoso na saída do canal É mais fácil em geral extrair mensagens de sinais digitais que de sinais analógicos pois a decisão digital deve pertencer a um alfabeto de tamanho finito Consideremos um caso binário dois símbolos são codificados como pulsos retangulares de amplitudes A2 e A2 A única decisão no receptor consiste em escolher entre dois possíveis pulsos recebidos detalhes da forma do pulso não são relevantes Um alfabeto finito resulta em imunidade ao ruído e a interferências A decisão de um receptor pode ser feita com razoável certeza mesmo se os pulsos forem afetados por distorção modesta e ruído Fig 13 A mensagem digital na Fig 13a é distorcida pelo canal como ilustrado na Fig 13b Contudo caso a distorção não seja muito grande os dados podem ser recuperados sem erro pois basta uma simples decisão binária o pulso recebido é positivo ou negativo A Fig 13c mostra os mesmos dados com distorção do canal e ruído Os dados podem ser recuperados corretamente desde que a distorção e o ruído estejam dentro de certos limites Em contraste em uma mensagem analógica a própria forma de onda transporta a informação desejada e mesmo uma pequena distorção ou interferência será percebida no sinal recebido Fica claro que um sistema de comunicação digital é mais robusto que um sistema de comunicação analógico pois suporta melhor ruído e distorção desde que estes se mantenham dentro de um limite Figura 13 a Sinal transmitido b Sinal distorcido recebido sem ruído c Sinal distorcido recebido com ruídod Sinal regenerado com atraso 122 123 Viabilidade de Repetidores Regenerativos sem Distorção Uma das principais razões para a qualidade superior de sistemas digitais em relação a sistemas analógicos é a viabilidade de implementação nos primeiros de repetidores e nós de rede regenerativos Em um sistema digital estações repetidoras são posicionadas ao longo do percurso de comunicação a distancias curtas o bastante para assegurar que ruído e distorção permaneçam dentro de um limite Isso permite a detecção de pulsos com grande precisão Em cada estação repetidora ou nó da rede os pulsos que chegam são detectados de modo que pulsos novos e limpos são retransmitidos à próxima estação repetidora ou nó Esse processo evita o acúmulo de ruído e distorção ao longo do percurso pois limpa os pulsos a intervalos regulares entre repetidores Desta forma mensagens podem ser transmitidas por distâncias mais longas com maior precisão A aplicação de regeneração sem distorção por meio de repetidores é bastante disseminada em sistemas de comunicação de longas distâncias e em nós de redes grandes e possivelmente heterogêneas Em sistemas analógicos sinais e ruído em uma mesma largura de banda não podem ser separados Nesses casos regeneradores consistem basicamente em filtros e amplificadores e não são regenerativos Portanto é impossível evitar acúmulo de ruído e distorção na banda passante ao longo do percurso Em consequência a distorção e a interferência de ruído podem se acumular por todo o percurso de transmissão à medida que o sinal transpõe a rede Para piorar o problema o sinal é continuamente atenuado no percurso da transmissão Assim com o aumento da distância o sinal se torna mais fraco enquanto a distorção e o ruído se acumulam mais Por fim o sinal destruído por distorção e ruído tornase irreconhecível A amplificação é de pouca valia pois amplifica igualmente o sinal e o ruído Em consequência a distância que uma mensagem analógica pode percorrer para ainda ser recebida com sucesso é limitada pela potência do primeiro transmissor Apesar dessas limitações a comunicação analógica foi no passado amplamente utilizada com sucesso para comunicações de curtas e médias distâncias Hoje com o advento da comunicação por fibras ópticas e a dramática redução de custos alcançada na fabricação de circuitos digitais de alta velocidade e de dispositivos digitais de armazenamento de dados praticamente todos os novos sistemas de comunicação instalados são digitais Contudo alguns antigos sistemas de comunicação analógicos ainda estão em uso incluindo os empregados na difusão de rádio AM e FM Conversão AnalógicoDigital AD Apesar da diferença entre sinais analógicos e digitais há uma base comum entre os dois a conversão de mensagens analógicas em sinais digitais conversão AD O conversor analógicodigital AD um dispositivo essencial em eletrônica permite que sistemas de comunicação digital transportem sinais analógicos como áudio e vídeo Em geral sinais analógicos são contínuos no tempo e em um intervalo de valores ou seja têm valores em cada instante de tempo e seus valores podem ter qualquer amplitude no dado intervalo Sinais digitais por sua vez existem apenas em momentos discretos no tempo e podem assumir somente um número finito de valores A conversão AD jamais é 100 precisa Contudo como a percepção humana não exige precisão infinita a conversão AD pode de modo efetivo capturar a informação necessária de uma fonte analógica para a transmissão do sinal digital A conversão AD se dá em dois passos um sinal em tempo contínuo é amostrado para produzir um sinal em tempo discreto cujas amplitudes contínuas são então quantizadas em níveis discretos de sinal Primeiro o espectro de um sinal indica as magnitudes relativas das diversas componentes de frequência O teorema da amostragem Capítulo 6 afirma que se a mais alta frequência no espectro do sinal for B em hertz o sinal pode ser reconstruído a partir das amostras discretas tomadas a uma taxa uniforme não menor que 2B amostras por segundo Isso significa que para preservar a informação de um sinal em tempo contínuo basta transmitir apenas suas amostras Fig 14 Entretanto os valores das amostras ainda não estão na forma digital pois assumem valores em um intervalo contínuo Então o segundo passo da quantização é efetuado Por meio da quantização cada amostra é aproximada ou arredondada ao nível de quantização mais próximo como ilustrado na Fig 14 Como a precisão da percepção humana é limitada a quantização feita com granularidade suficiente não compromete a qualidade do sinal Se as amplitudes do sinal de mensagem mt tiverem valores no intervalo m p m p o quantizador parte esse intervalo em L subintervalos Cada amostra de amplitude é aproximada ao valor médio do subintervalo que a contém e passa a ser representada por um dos L números A informação é então digitalizada dessa forma Após os dois passos de amostragem e quantização a conversão analógicodigital AD se completa O sinal quantizado é uma aproximação do sinal original A precisão do sinal quantizado pode ser aumentada a qualquer grau desejado por meio do aumento do número de níveis L Para a inteligibilidade de sinais de voz por exemplo é suficiente tomar L 8 ou 16 Para uso comercial L 32 é um valor mínimo para comunicação telefônica L 128 e 256 são valores típicos Um típico sinal binário distorcido com ruído adquirido ao longo do canal é ilustrado na Fig 13 Se A for suficientemente grande em comparação às amplitudes de ruído o receptor ainda pode distinguir corretamente entre os dois pulsos A amplitude dos pulsos é em geral 5 a 10 vezes a amplitude rms do ruído Com um valor tão alto para a relação sinalruído SNR signal tonoise ratio a probabilidade de erro no receptor é menor que 10 6 ou seja em média o receptor cometerá menos que um erro a cada milhão de pulsos Portanto o efeito aleatório de ruído e distorção do canal é praticamente eliminado Quando sinais analógicos são transmitidos na forma digital algum erro ou incerteza no sinal recebido pode ser causado pela quantização além do ruído e das interferências do canal 124 Figura 14 Conversão analógicadigital de um sinal A incerteza ou o erro causado pela quantização pode ser reduzido a qualquer valor desejado através do aumento de L Além disso o uso de repetidores regenerativos permite a transmissão de sinais ao longo de distâncias muito maiores do que seria possível com sinais analógicos Como veremos mais adiante no texto o preço de todos esses benefícios da comunicação digital é pago em termos de maiores complexidade de processamento e largura de banda de transmissão Modulação por Codificação de Pulsos Uma Representação Digital Uma vez completada a conversão AD a mensagem analógica original é representada por uma sequência de amostras cada uma assumindo um dos L níveis de quantização preestabelecidos A transmissão dessa sequência quantizada é tarefa de sistemas de comunicação digital Formas de onda de sinal devem então ser usadas para representar a sequência de amostras quantizadas no processo de transmissão Do mesmo modo um dispositivo digital de armazenamento também precisa representar as amostras como formas de onda de sinal A modulação por codificação de pulsos PCM pulsecoded modulation é um mecanismo muito simples e comumente empregado para este propósito Primeiro um bit de informação se refere a um dígito binário 1 ou 0 A ideia por trás de PCM é representar cada amostra quantizada por uma combinação ordenada de dois pulsos básicos p 1t para representar o bit 1 e p 0t para representar o bit 0 Como cada um dos possíveis L valores de amostra pode ser escrito como uma sequência de bits de comprimento log 2 L cada amostra pode assim ser mapeada em uma sequência curta de pulsos que representa a sequência binária de bits Por exemplo se L 16 cada nível de quantização pode ser descrito de forma única por 4 bits Se empregarmos dois pulsos básicos p 1t A2 e p 0t A2 Uma sequência de quatro desses pulsos resulta em 2 x 2 x 2 x 2 16 padrões distintos como ilustrado na Fig 15 Podemos alocar um padrão a cada um dos 16 valores quantizados a serem transmitidos Cada amostra quantizada é então codificada em uma sequência de quatro pulsos binários Esse é o princípio da transmissão PCM em que a sinalização é efetuada por meio de apenas dois pulsos ou símbolos básicos O caso binário é de grande importância prática devido à sua simplicidade e facilidade de detecção A maior parte da comunicação digital da atualidade é binária Embora PCM tenha sido inventada por P M Rainey em 1926 e redescoberta por A H Reeves em 1939 apenas na década de 1960 o grupo Bell System instalou o primeiro enlace de comunicação a utilizar PCM para transmissão de voz O custo e o tamanho de circuitos a válvulas foram o principal impedimento para o emprego de PCM até a descoberta de dispositivos semicondutores PCM se tornou prática com o advento do transistor Dessa discussão sobre PCM chegamos a uma conclusão interessante e até certo ponto nada óbvia qualquer comunicação possível pode ser transmitida por meio de um mínimo de dois símbolos Assim com apenas uma sequência adequada de piscadas de olho podemos transmitir qualquer mensagem seja uma conversa um livro um filme ou uma ópera Todos os possíveis detalhes como os variados tons de cores de objetos timbres de voz etc reproduzíveis em uma tela de cinema ou na televisão colorida de alta definição podem ser transmitidos sem perda de precisão por meras piscadas de um olho 13 131 Figura 15 Exemplo de codificação PCM EFEITO RELAÇÃO SINALRUÍDO E CAPACIDADE DO CANAL No projeto de sistemas de comunicação são essenciais o entendimento e a análise de fatores importantes como características do sinal e do canal amplitude relativa de ruído número máximo de bits por segundo que pode ser transmitido por um canal e principalmente a qualidade do sinal Largura de Banda e Potência de Sinal Em um dado sistema de comunicação digital os parâmetros e as limitações físicas fundamentais que controlam a taxa de transmissão e qualidade do canal são a largura de banda B e a potência de sinal P S Em capítulos posteriores esses parâmetros serão discutidos em detalhes tanto qualitativa como quantitativamente Por ora nosso objetivo é discutilos apenas de modo qualitativo A largura de banda de um canal é o intervalo de frequências que ele é capaz de transmitir com razoável fidelidade Por exemplo se um canal transmite com razoável fidelidade um sinal cujas componentes de frequência variam de 0 Hz dc a um máximo de 5000 Hz 5 kHz a largura de banda B do canal é 5 kHz Da mesma forma cada sinal tem uma largura de banda que mede a separação máxima entre suas componentes de frequência Quanto mais rápidas as variações de um sinal maior sua frequência máxima e maior sua largura de banda Sinais ricos em conteúdo que variam rapidamente como os associados a cenas de batalhas em um vídeo têm maior largura de banda do que sinais maçantes que variam lentamente como os de uma novela diurna ou de um vídeo de um animal dormindo Um sinal pode ser transmitido com sucesso através de um canal se a largura de banda do canal for maior que a do sinal 132 Para entendermos o papel de B consideremos a possibilidade de um aumento na velocidade de transmissão por meio da compressão do sinal no tempo A compressão do sinal no tempo por um fator de 2 permite que ele seja transmitido na metade do tempo de modo que a velocidade taxa de transmissão dobra Contudo a compressão do sinal no tempo por um fator de 2 faz com que o sinal se agite duas vezes mais rápido o que também dobra as frequências de seus componentes Muitas pessoas já experimentaram esse efeito tocando fitas de áudio no dobro da velocidade normal fazendo com que as vozes das pessoas soassem como a fala esganiçada de personagens de desenho animado Para transmitir o sinal comprimido sem distorção a largura de banda do canal também deve ser dobrada Portanto a taxa de transmissão de informação que um canal pode acomodar com sucesso é diretamente proporcional a B De modo mais genérico se um canal de largura de banda B pode transmitir N pulsos por segundo para transmitir KN pulsos por segundo com a mesma tecnologia é necessário um canal com largura de banda KB Em outras palavras o número de pulsos por segundo que pode ser transmitido através de um canal é diretamente proporcional à sua largura de banda B A potência de sinal P S desempenha duplo papel na transmissão Primeiro P S está relacionada à qualidade de transmissão O aumento de P S reforça o pulso de sinal e diminui os efeitos do ruído e interferência do canal Na verdade a qualidade de sistemas de comunicação analógicos e digitais varia com a relação sinalruído SNR Em qualquer situação um valor mínimo da SNR no receptor é necessário para comunicação com qualidade Portanto um grande valor da potência de sinal P S permite que o sistema mantenha uma SNR mínima ao longo de uma distância maior garantindo comunicação com qualidade com um alcance maior O segundo papel da potência de sinal é menos óbvio embora igualmente importante Do ponto de vista da teoria da informação a largura de banda B e a potência de sinal P S são até certo ponto intercambiáveis ou seja para manter determinada taxa e precisão de transmissão de informação podemos negociar entre os valores de P S e B Assim podemos reduzir B se estivermos dispostos a aumentar P S ou podemos diminuir P S se uma maior largura de banda B estiver disponível A prova rigorosa dessa afirmação será apresentada no Capítulo 13 Em resumo os dois principais recursos para comunicação são a largura de banda e a potência transmitida Em um dado canal de comunicação um recurso pode ser mais valioso que o outro e o esquema de comunicação deve ser projetado levando isso em consideração Um típico canal telefônico por exemplo tem largura de banda limitada 3 kHz mas maior liberdade em relação à potência Em naves espaciais por sua vez a largura de banda disponível é enorme mas a potência é severamente limitada Portanto as soluções de comunicação para esses dois casos são radicalmente distintas Capacidade do Canal e Taxa de Dados A largura de banda do canal limita as larguras de banda de sinais que podem ser transmitidos com sucesso enquanto a relação sinalruído SNR no receptor determina a qualidade da recuperação dos sinais transmitidos Uma maior SNR significa que o pulso de sinal transmitido pode usar mais níveis de sinais o que permite o transporte de um número maior de bits em cada transmissão de pulso Uma maior largura de banda B também significa que podemos transmitir mais pulsos variação mais rápida ao longo do canal Em consequência SNR e largura de banda B afetam a vazão do canal A máxima vazão que pode ser transportada de modo confiável por um canal é denominada capacidade do canal Um dos tipos de canais mais comumente encontrados é conhecido como canal com ruído gaussiano branco aditivo AWGN Additive White Gaussian Noise O modelo de canal AWGN assume que a única distorção presente é ruído gaussiano branco aditivo com largura de banda finita B Esse modelo ideal acomoda aplicações com canal sem distorção e provê um limite superior de desempenho para canais genéricos sujeitos a distorções A capacidade do canal AWGN com largura de banda limitada foi estabelecida de forma brilhante na equação de Shannon Nessa equação a capacidade do canal C representa o limite superior da taxa de transmissão de informação por segundo Em outras palavras C é o máximo número de bits que podem ser transmitidos por segundo com uma probabilidade de erro arbitrariamente próxima de zero ou seja a transmissão é tão confiável quanto desejarmos Contudo a capacidade apenas ressalta essa possibilidade pois não especifica como pode ser implementada É importante ressaltar que é impossível transmitir a uma taxa superior a essa sem incorrer em erros A equação de Shannon deixa bem clara a limitação imposta à taxa de comunicação por B e pela SNR Se não houvesse ruído no canal o que corresponderia a SNR a capacidade C seria e a taxa de comunicação poderia ser arbitrariamente alta Poderíamos então transmitir qualquer quantidade de informação em um canal sem ruído Essa afirmação pode ser comprovada com facilidade Se o ruído fosse zero não haveria incerteza na amplitude do pulso recebido e o receptor seria capaz de detectar qualquer amplitude de pulso sem erro A menor separação entre amplitudes de pulsos pode ser tão pequena quanto desejarmos e para um dado pulso qualquer teríamos disponível um número infinito de níveis próximos Poderíamos alocar um nível a cada mensagem possível Como um número infinito de níveis estaria disponível seria possível alocar um nível a cada mensagem concebível A implementação de um código desse tipo pode não ser prática mas isso não é relevante nesta argumentação O importante aqui é que se o ruído fosse zero a comunicação deixaria de ser um problema ao menos em teoria A implementação de um esquema como esse seria difícil pois requereria a geração e detecção de pulsos com amplitudes precisas As dificuldades práticas decorrentes imporiam um limite sobre a taxa de comunicação Vale a pena ressaltar que o resultado de Shannon que representa um limite superior para a taxa de comunicação em um canal seria 14 141 alcançável somente com um sistema de complexidade monstruosa e impraticável e o atraso temporal na recepção tenderia ao infinito Sistemas práticos operam a taxas inferiores à de Shannon Em resumo a equação de capacidade de Shannon demonstra de modo qualitativo os papéis básicos desempenhados por B e SNR na limitação do desempenho de um sistema de comunicações Esses dois parâmetros representam então a principal limitação sobre a taxa de comunicação A possibilidade da troca de valores entre esses dois parâmetros básicos também é demonstrada pela equação de Shannon Como exemplo prático da troca de valores entre SNR e a largura de banda B consideremos o cenário em que um homem de voz suave fala um pouco rápido demais e não conseguimos entender completamente o que diz Isso significa que como ouvintes nossa largura de banda B é muito pequena e em consequência a capacidade C não é alta o bastante para acomodar as frases faladas rapidamente Contudo se o homem puder falar mais alto aumentando a potência e portanto a SNR é provável que o entendamos melhor sem nenhuma outra alteração Tal exemplo ilustra o conceito de permuta de recursos entre SNR e B Vale notar que no entanto essa relação não é linear Dobrar o volume do orador permite que ele fale um pouco mais rápido mas não duas vezes mais rápido Esse efeito de permuta desigual é totalmente capturado na equação de Shannon Eq 11 na qual a duplicação da SNR não pode sempre compensar a perda de 50 em B MODULAÇÃO E DETECÇÃO Sinais analógicos gerados por fontes de mensagens ou sinais digitais gerados por meio da conversão AD de sinais analógicos são em geral referidos como sinais em banda base pois têm natureza passabaixos Sinais em banda base podem ser transmitidos diretamente por meio de um canal apropriado por exemplo telefone fax Contudo dependendo das características do canal e do sinal no domínio da frequência sinais em banda base produzidos por diversas fontes de informação nem sempre são adequados à transmissão direta através de um dado canal Quando as bandas de frequências do sinal e do canal não coincidem exatamente os canais não podem ser deslocados em frequência Portanto as mensagens devem ser deslocadas para as bandas de frequências adequadas aos canais Sinais de mensagem devem em consequência ser modificados para que a transmissão se torne possível Nesse processo de conversão conhecido como modulação o sinal em banda base é usado para modificar isto é modular algum parâmetro de uma portadora de sinal de radiofrequência RF Uma portadora é uma senoide de alta frequência Através da modulação um dos parâmetros da portadora senoidal como amplitude frequência ou fase é variado proporcionalmente ao sinal em banda base mt Dessa forma temos modulação em amplitude AM amplitude modulation modulação em frequência FM frequency modulation e modulação em fase PM phase modulation A Fig 16 ilustra um sinal em banda base mt e as correspondentes formas de onda AM e FM Na modulação AM a amplitude da portadora varia em proporção a mt na modulação FM a frequência da portadora varia em proporção a mt Para reconstruir o sinal em banda base no receptor o sinal modulado deve passar por um processo reverso denominado demodulação Como mencionado a modulação é utilizada para permitir a transmissão Algumas das principais razões para a modulação são discutidas a seguir Facilidade de RadiaçãoTransmissão Para radiação eficiente de energia eletromagnética a antena radiante deve ter dimensões que sejam da ordem de uma fração ou mais do comprimento de onda do sinal de excitação Para muitos sinais em banda base os comprimentos de onda são demasiadamente grandes para dimensões razoáveis de antenas Por exemplo a potência em um sinal de voz é concentrada em frequências no intervalo de 100 a 3000 MHz Os correspondentes comprimentos de onda variam de 100 a 3000 km Esses longos comprimentos de onda requerem antenas cujas dimensões são demasiadamente grandes para ser construídas Com a modulação de uma portadora transladamos o espectro do sinal para as vizinhanças da frequência da portadora que corresponde a um comprimento de onda muito menor Por exemplo uma portadora de 10 MHz tem um comprimento de onda de apenas 30 m e sua transmissão pode ser feita com uma antena com dimensões da ordem de 3 m Nesse sentido a modulação corresponde a fazer o sinal em banda base pegar uma carona com uma senoide de alta frequência portadora A portadora e o sinal em banda base também podem ser comparados a uma pedra e a um pedaço de papel Se jogarmos o papel no ar ele não irá muito longe Contudo se embrulharmos uma pedra portadora com ele poderá ser lançado a uma distância muito maior 142 Figura 16 Modulação a portadora b sinal modulante em banda base c onda modulada em amplitude d onda modulada em frequência Transmissão Simultânea de Múltiplos Sinais Multiplexação A modulação também permite que múltiplos sinais sejam transmitidos ao mesmo tempo em uma mesma área geográfica sem interferência mútua direta Um exemplo simples disso são as diversas estações de televisão transportadas por um mesmo cabo ou pelo ar até os receptores de TV nas casas das pessoas Sem modulação múltiplos sinais de vídeo interferirão uns com os outros pois todos os sinais de vídeo em banda base têm a mesma largura de banda Portanto sem modulação a TV a cabo ou pelo ar seria limitada a uma estação em uma dada região o que seria um protocolo com grandes perdas pois a largura de banda do canal é muitas vezes maior que a do sinal Uma forma de resolver esse problema é o uso de modulação Podemos usar as várias estações de TV para modular portadoras de distintas frequências dessa forma cada sinal é transladado a uma faixa de frequências diferentes Se as diversas portadoras forem suficientemente espaçadas em frequência os espectros dos sinais modulados conhecidos como canais de TV não se sobreporão e portanto não haverá interferência entre os mesmos No receptor aparelho de TV um filtro passafaixa sintonizável poderá selecionar a desejada estação ou canal de TV Esse método de transmissão de vários sinais simultaneamente em faixas de frequências que não se sobrepõem é conhecido como multiplexação por divisão em frequência FDM frequency divison multiplexing Um esquema semelhante também é empregado na difusão de rádio AM e FM A largura de banda do canal é compartilhada por diversos sinais sem nenhuma sobreposição Outro método de multiplexar vários sinais é conhecido como multiplexação por divisão no tempo TDM time division multiplexing Esse método é adequado quando um sinal tem a forma de um trem de pulsos como em PCM Quando os pulsos 143 15 têm as larguras reduzidas os espaços vazios entre pulsos de um sinal são preenchidos por pulsos de outros sinais Assim entrelaçando os trens de pulsos dos vários sinais em uma ordem específica o tempo de transmissão é compartilhado por um certo número de sinais No receptor os trens de pulsos correspondentes aos diversos sinais são separados Demodulação Uma vez que múltiplos sinais tenham chegado ao receptor o sinal desejado deve ser detectado e sua forma original em banda base recuperada Notemos que por conta da FDM o primeiro estágio de um demodulador em geral requer um filtro passafaixa de modo que o receptor possa selecionar o sinal modulado em uma banda de frequências predeterminada especificada pela estação transmissora ou canal Depois que um dado sinal modulado tenha sido isolado o demodulador deve converter a variação de amplitude frequência ou fase da portadora de volta ao sinal de tensão em banda base Para os três esquemas básicos de modulação AM FM e PM os correspondentes demoduladores devem ser projetados de modo que a tensão de saída do detector varie proporcionalmente à amplitude frequência ou fase respectivamente do sinal modulado de entrada Após a implementação de circuitos com tais características de resposta o demodulador pode converter os sinais modulados de RF de volta aos sinais em banda base que representam a mensagem original seja ela de áudio vídeo ou dados CODIFICAÇÕES DIGITAIS DE FONTE E PARA CORREÇÃO DE ERROS Como mencionado a relação sinalruído SNR e a largura da banda são dois fatores que determinam o desempenho de uma dada comunicação Diferentemente do que se passa em sistemas de comunicação analógica sistemas digitais em geral adotam medidas agressivas para reduzir a taxa de dados da fonte e combater o ruído do canal Em particular a codificação da fonte é aplicada para gerar o menor número possível de bits para uma mensagem sem sacrificar a precisão da detecção O combate aos erros advindos de ruído e interferências por sua vez requer a introdução sistemática de redundância no transmissor da qual o receptor pode se valer para corrigir erros causados por distorção do canal e ruído Esse processo é conhecido como codificação para correção de erros no transmissor e decodificação para correção de erros no receptor Codificação de fonte e codificação para correção de erros são dois estágios sucessivos em um sistema de comunicação digital e atuam em uma batalha sem fim Por um lado o trabalho da codificação de fonte consiste em remover o máximo possível de redundância de uma mensagem de modo a encurtar a sequência de mensagens digitais a ser transmitida O objetivo da codificação de fonte é utilizar a menor largura de banda possível sem considerar ruído e interferência do canal Por outro lado a codificação para correção de erros introduz redundância de forma intencional e inteligente para que se erros ocorrerem na detecção a redundância possa ajudar a corrigir os mais frequentes Aleatoriedade Redundância e Codificação de Fonte Para entender a codificação de fonte é importante que primeiro discutamos o papel da aleatoriedade em comunicações Como observado o ruído do canal é um importante fator que limita o desempenho da comunicação pois é aleatório e não pode ser removido por predição A aleatoriedade também está intimamente associada aos sinais desejados em comunicações Na verdade ela é a essência das comunicações significa imprevisibilidade ou incerteza de uma mensagem de fonte Se uma fonte não tivesse imprevisibilidade como aquele amigo que sempre quer repetir a mesma história de como fui abduzido por um alienígena a mensagem seria previamente conhecida e não conteria nenhuma informação Do mesmo modo se uma pessoa pisca transmite alguma informação em um dado contexto Contudo se a pessoa piscar continuamente com a regularidade de um relógio as piscadas não transmitirão nenhuma informação Em resumo um sinal previsível não é aleatório e é completamente redundante Portanto uma mensagem conterá informação somente se for imprevisível Maior previsibilidade significa maior redundância e em consequência menos informação Em contraste sinais aleatórios têm mais imprevisibilidade ou menos previsibilidade e contêm mais informação A codificação de fonte reduz a redundância com base na previsibilidade da fonte da mensagem O objetivo da codificação de fonte é representar o sinal da fonte por meio de códigos que sejam tão curtos quanto possível Códigos mais curtos são mais eficientes pois exigem menor tempo de transmissão a uma dada taxa de dados Portanto no processo de codificação e transmissão da parte imprevisível e aleatória do sinal a codificação de fonte deve remover a redundância do sinal As mensagens mais previsíveis contêm mais redundância e requerem códigos mais curtos mensagens menos previsíveis contêm mais informação e devem ser codificadas com códigos mais longos Com a representação de mensagens mais previsíveis por meio de códigos mais curtos e de mensagens menos previsíveis com códigos mais longos obtemos uma codificação de fonte mais eficiente Consideremos o código Morse por exemplo nesse código diferentes combinações de traços e pontos palavras de código são associadas às letras do alfabeto Para minimizar o tempo de transmissão palavras de código mais curtas são usadas para representar as letras que ocorrem com mais frequência mais previsíveis como e t e a palavras de código mais longas são usadas para representar as letras que ocorrem raramente menos previsíveis como x q e z Dessa forma em média uma mensagem em português tende a seguir uma distribuição conhecida de letras resultando em sequências de código mais curtas que podem ser transmitidas rapidamente Isso explica por que o código Morse é uma boa codificação de fonte Mostraremos no Capítulo 13 que para sinais digitais o tempo total de transmissão é minimizado se uma mensagem ou símbolo de probabilidade P for representada por uma palavra de código cujo comprimento é proporcional a log 1P Isso é 16 conhecido como codificação de fonte pela entropia Codificação para Correção de Erros A codificação para correção de erros desempenha um papel importante nas comunicações Enquanto a codificação de fonte remove redundâncias os códigos corretores de erros adicionam redundância A introdução sistemática de redundância viabiliza a comunicação confiável 4 Devido à redundância se alguns bits forem corrompidos por ruído ou interferências outros bits a eles relacionados podem ajudar a recuperálos permitindo que a mensagem seja decodificada com precisão apesar dos erros no sinal recebido Todas as linguagens são redundantes Por exemplo o inglês tem uma redundância de cerca de 50 isto é em média podemos descartar metade das letras ou palavras do inglês sem que o significado de uma dada mensagem seja perdido Isso também significa que em qualquer mensagem em inglês o orador ou escritor tem livre escolha de metade das letras ou palavras em média A outra metade é determinada pela estrutura estatística do idioma Se todas as redundâncias do inglês forem removidas a transmissão de um telegrama ou uma conversa telefônica poderia ser feita em cerca da metade do tempo Contudo caso ocorresse um erro no receptor seria muito difícil entender o significado da mensagem recebida A redundância em uma mensagem desempenha portanto um papel útil no combate aos ruídos e interferências do canal Pode parecer paradoxal que na codificação de fonte removamos redundância e na subsequente codificação para correção de erros adicionemos mais redundância Para explicar por que isso faz sentido consideremos a remoção total das redundâncias do inglês através da codificação de fonte Isso encurtaria a mensagem em 50 para economizar largura de banda Entretanto para correção de erros podemos recuperar alguma redundância sistemática porém essa redundância bem projetada tem apenas a metade do comprimento da que foi removida pela codificação de fonte mas provê a mesma proteção contra erros Portanto fica claro que uma boa combinação de codificação de fonte e codificação para correção de erros pode remover redundância ineficiente sem sacrificar a correção de erros Na verdade um problema muito comum nesse campo é a eterna busca da codificação conjunta fontecanal que permita máxima remoção de redundância sem afetar a correção de erros Para comprovarmos como redundância viabiliza a correção de erros consideremos um exemplo para a transmissão de amostras com L 16 níveis de quantização podemos utilizar um grupo de quatro pulsos binários como mostrado na Fig 15 Nesse esquema de codificação não há redundância Caso ocorra um erro na recepção de até mesmo apenas um pulso o receptor produzirá um valor errado Aqui podemos usar redundância para eliminar o efeito de possíveis erros causados por ruído ou imperfeições do canal Por exemplo se adicionarmos a cada palavra de código um pulso com polaridade tal que o número de pulsos positivos seja par teremos um código capaz de detectar um erro em qualquer posição Assim à palavra de código 0001 adicionamos um quinto pulso de polaridade positiva e obtemos a nova palavra de código 00011 Assim o número de pulsos positivos é 2 par Se ocorrer um erro em alguma posição essa paridade será violada O receptor saberá que ocorreu um erro e poderá solicitar retransmissão da mensagem Esse é um esquema de codificação muito simples e pode detectar apenas a ocorrência de um erro não é capaz de localizar ou corrigir o erro Além disso esse esquema também não é capaz de detectar um número par de erros A introdução de mais redundância permite não apenas detectar erros mas também corrigilos Por exemplo para L 16 pode ser mostrado que a adição adequada de três pulsos permite a detecção e a correção de um erro que ocorra em qualquer localização Códigos corretores de erros serão discutidos em detalhes no Capítulo 14 BREVE REVISÃO HISTÓRICA DE TELECOMUNICAÇÕES MODERNAS As telecomunicações literalmente comunicações a distância sempre foram fundamentais para a sociedade humana Mesmo na antiguidade governos e unidades militares dependiam fortemente das telecomunicações para reunir informação e emitir ordens O primeiro tipo de telecomunicação se valeu de mensageiros a pé ou a cavalo mas a necessidade de transportar uma mensagem curta por uma longa distância como avisar uma cidade da aproximação de invasores levou ao emprego de sinais de fogo ou fumaça O uso de espelhos para refletir a luz do sol heliógrafos foi outra forma eficaz de telecomunicação O primeiro uso registrado dessa técnica se deu na Grécia antiga Espelhos de sinalização também são mencionados no relato feito por Marco Polo de sua viagem ao Extremo Oriente 1 Essas antigas tecnologias de comunicação visual são digitais o que não deixa de ser surpreendente Fogo e fumaça em diferentes configurações formariam distintas palavras de código Para esse tipo de comunicação pessoal especializado era posicionado em colinas ou montanhas nas proximidades de cidades gregas formando uma cadeia de repetidores regenerativos Na verdade plataformas de sinalização com fogo ou fumaça ainda encontramse espalhadas pela Grande Muralha da China O mais interessante é que refletores ou lentes equivalentes aos amplificadores e antenas que utilizamos hoje também eram empregados para guiar a luz a distâncias maiores É natural que a montagem desses primitivos sistemas de comunicação visual fosse tediosa e que eles pudessem transmitir apenas alguns bits de informação por hora Um sistema de comunicação visual muito mais eficiente foi desenvolvido há pouco mais de dois séculos Em 1793 o francês Claude Chappe inventou o conceito de telegrafia semafórica e o explorou em uma série de experimentos Esse sistema consistia em uma sequência de dispositivos sinalizadores denominados semáforos montados em torres e geralmente espaçados por uma distância de 10 km Um semáforo tinha a aparência de uma grande figura humana com bandeiras de sinalização nas duas mãos O operador de um semáforo de recepção transcreveria a mensagem visualmente em geral com o auxílio de um telescópio e a retransmitiria de sua torre para a próxima e assim por diante Esse telégrafo visual se tornou o principal sistema de comunicação na França e se espalhou por outros países incluindo os Estados Unidos O telégrafo semafórico acabou sendo substituído pelo telégrafo elétrico Hoje em dia apenas algumas ruas e pontos de referência remanescente identificados com a denominação Colina do Telégrafo nos lembram do papel desse sistema na história Ainda no século XX a comunicação visual via lampiões de Adlis bandeiras de sinalização ou hélices permaneceu uma importante parte da comunicação maritima Esses antigos sistemas de telecomunicações eram sistemas ópticos baseados em receptores visuais Em consequência podiam cobrir áreas distantes via sinal direta de operadores humanos para decodificações dos sinais Um evento importante que marcou a história das telecomunicações ocorreu em 1820 quando dinamarquês Hans Christian Oersted descobriu a interação entre eletricidade e magnetismo Michael Faraday fez a descoberta crucial seguinte que mudou a história da eletricidade e das telecomunicações ao concluir que a corrente elétrica pode ser induzida em um condutor por um campo magnético variante no tempo o que tornou possível a geração de eletricidade pelo movimento de campo magnético Além disso a transmissão de sinais elétricos também se tornou possível pois a variação de um campo eletromagnético induz a alteração do corrente em um circuito distante O aspecto notável da descoberta da indução de corrente por Faraday é ter estabelecido as bases para telecomunicação sem fio para distâncias sem vista direta e o que é mais importante ter mostrado como gerar eletricidade como uma fonte de energia para alimentar tais sistemas O telégrafo elétrico foi inventado logo depois dando início à era dos sistemas de telecomunicações modernos Os sistemas de telecomunicações modernos percorreram um longo caminho desde seu surgimento Como seria difícil detalhar todos os eventos históricos que marcaram o desenvolvimento recente das telecomunicações usaremos a Tabela 11 para resumir alguns dos principais eventos na evolução dos sistemas de telecomunicações Como não focou só a telecomunicação elétrica não comentaremos a igualmente longa história das comunicações por fibras ópticas 1896 Telegrafia sem fio radiotelegrafia patenteada por Guglielmo Marconi 1901 Primeira transmissão radiotelefónica transatlântica para Marconi 1906 Primeira difusão de rádio com modulação em amplitude por Reginald A Fessenden 1907 Serviço regular de radiotelegrafia transatlântica 1915 Primeiro serviço telefónico transcontinental 1920 Primeiras estações comerciais de rádio AM 1921 Rádio móvel adotado pelo Departamento de Polícia de Detroit 1925 Demonstração do primeiro sistema de televisão por Charles F Jenkins 1928 Primeira estação de televisão W3XK nos Estados Unidos 1935 Primeira demonstração de rádio FM por Edwin H Armstrong 1941 Padrão NTSC de televisão em preto e branco Primeiro serviço comercial de rádio FM 1947 Conceito celular proposto pela primeira vez por Bell Labs 1948 Primeiro artigo importante sobre teoria da informação publicado por Claude E Shannon Invenção do transistor por William Shockley Walter Brattain e John Bardeen 1949 Construção do código de Golay para correção de 3 ou menos erros de bits 1950 Construção dos códigos de Hamming para simples correções de erros 1953 Padrão NTSC para televisão em cores 1958 Conceito de circuito integrado proposto por Jack Kilby Texas Instruments 1960 Construção dos poderosos códigos de ReedSolomon para correção de erros 1962 Desenvolvimento dos primeiros modens telefónicos para computadores Bell Dataphone 103A 300 bitss 1962 Códigos corretos de erros para verificação de paridade densa proposta por Robert G Gallagher 19689 Primeiros codificadores com correção de erros a bordo de sondas espaciais da NASA Pioneer IX e Mariner VI 1971 Primeira rede de computadores sem fio AlohaNet 1973 Primeira demonstração de telefone celular portátil feita pela Motorola à Comissão Federal de Comunicações dos Estados Unidos 1978 Primeiro teste de telefonia celular móvel pela ATT 1984 Primeiro serviço AMPS analógico de telefone celular portátil pela Motorola 1989 Desenvolvimento de modens DSL para conexões de alta velocidade com computadores 1991 Lançamento do primeiro serviço celular digital GSM Finlândia Desenvolvimento da primeira rede de área local LAN sem fio ATTNCR 1993 Estabelecimento do padrão digital ATSC 1993 Códigosturbo propostos por Berrou Glavieux e Thitimajshima 1996 Lançamento do primeiro serviço celular CDMA IS95 Primeira difusão de HDTV 1997 Padrão IEEE 80211b para rede LAN sem fio 1998 Exploração comercial de ADSL em larga escala 1999 Padrão IEEE 80211a para rede LAN sem fio 2000 Lançamento do primeiro serviço celular 3D 2003 Padrão IEEE 80211g para rede LAN sem fio 1 2 3 4 criatividade e genialidade de Claude E Shannon conhecido como o pai da moderna teoria da comunicação e informação Em dois artigos seminais publicados em 1948 ele estabeleceu pela primeira vez o fundamental conceito de capacidade do canal e sua relação com a taxa de transmissão de informação Ao determinar a capacidade do canal de diversos modelos importantes Shannon 3 provou que desde que a informação fosse transmitida a uma taxa inferior à capacidade do canal a comunicação sem erro era possível No caso de canais ruidosos Shannon mostrou a existência de bons códigos que tornariam a probabilidade de erros de transmissão arbitrariamente pequenos Esse teorema relativo a canais ruidosos deu origem ao moderno campo de códigos corretores de erros Por coincidência a invenção do transistor por Bill Shockley Walter Brattain e John Bardeen no mesmo ano preparou o caminho para o projeto e implementação de circuitos mais compactos de maior potência e menos ruidosos que permitissem a exploração prática dos teoremas de Shannon A sonda espacial Mariner IX lançada em março de 1971 para exploração de Marte foi a primeira missão da NASA oficialmente equipada com códigos corretores de erros que permitiram a transmissão confiável de fotografias de Marte Hoje vivemos uma era de comunicação multimídia e digital marcada pela ampla utilização de redes de computadores e telefones celulares O primeiro modem telefônico para conexão de um computador doméstico a um mainframe foi desenvolvido pela ATT Bell Labs em 1962 O dispositivo fazia uso de um acoplador acústico como interface a um aparelho telefônico comum O acoplador acústico convertia os dados do computador local em tons audíveis e se valia do microfone do telefone para transmitilos pelas linhas telefônicas O acoplador recebia os dados do computador mainframe via receptor auricular do telefone e os convertia em bits para o computador local a uma taxa típica abaixo de 300 bitss Na década de 1990 a taxa de transmissão atingiu 56 kbits devido aos rápidos avanços das tecnologias de circuitos integrados propostos por Jack Kilby em 1958 e de comunicações digitais Nos anos 2000 foram desenvolvidos modems para redes de área local sem fio WLAN wireless local area netwok permitindo a conexão de computadores a 11 Mbits A versão comercial desses modems para WLAN do tamanho de um cartão de crédito foi padronizada sob a denominação IEEE 80211b Os avanços tecnológicos também permitiram a reformatação de sistemas celulares Embora o conceito celular tivesse sido desenvolvido pela Bell Labs em 1947 sistemas comerciais surgiram apenas em 1983 Os telefones móveis da década de 1980 eram grandes e caros usados principalmente por empresas O primeiro telefone celular desenvolvido pela Motorola em 1983 e denominado DynaTAC 8000X pesava cerca de 800 g ganhou o apelido de tijolo e custava quase quatro mil dólares Esses telefones analógicos eram basicamente rádios duplex FM para transmissão de voz apenas Hoje em dia um telefone celular é de fato um dispositivo digital multimídia e multitarefa não apenas útil para comunicação de voz mas também para enviar e receber mensagens de correio eletrônico acessar páginas da internet e exibir vídeos Os dispositivos celulares atuais são muito pequenos e pesam poucos gramas Agora ao contrário do passado telefones celulares são para as massas Na verdade na Europa há mais telefones celulares que pessoas Na África 13 da população adulta possui telefones celulares Ao longo da história o progresso da civilização humana tem sido inseparável dos avanços tecnológicos em telecomunicações que tiveram um papel fundamental em praticamente todos os eventos importantes Não é exagero afirmar que as telecomunicações ajudaram a moldar o mundo em que vivemos hoje e continuarão a definir nosso futuro Os autores esperam portanto que este texto estimule o interesse de numerosos estudantes das tecnologias de telecomunicações Com a discussão dos princípios essenciais dos modernos sistemas analógicos e digitais de comunicação os autores esperam prover uma base sólida para o treinamento de futuras gerações de cientistas e engenheiros de comunicações REFERÊNCIAS M G Murray Aimable AirSea Rescue Signal Mirrors The Bent of Tau Beta Pi pp 2932 Fall 2004 B Bunch and A Hellemans Eds The History of Science and Technology A Browsers Guide to the Great Discoveries Inventions and the People Who Made Them from the Dawn of Time to Today Houghton Mifflin Boston 2004 C E Shannon A Mathematical Theory of Communications Bell Syst Tech J part I pp 379423 part II 623656 July 1948 S Lin and D J Costello Jr Error Control Coding 2nd ed Prentice Hall Upper Saddle River NJ 2004 Excetuando o serviço postal Na verdade a amplificação deteriorará ainda mais o sinal devido ao ruído introduzido pelo amplificador Aqui nos referimos à informação contida na fala e não a detalhes da mesma como pronúncia das palavras variações de inflexão tom e ênfase O sinal de voz de um microfone contém todos esses detalhes e é portanto um sinal analógico seu conteúdo de informação é mais de mil vezes maior que a informação acessível de uma versão escrita da mesma mensagem É comum também o termo modulação por código de pulsos NT Na língua inglesa a palavra bit significa uma pequena parte ou pedaço de algo no caso um pedaço de informação Bit também é interpretado como uma contração do termo em inglês para dígito binário binary digit NT Existe um caso intermediário em que usamos quatro pulsos básicos pulsos quaternários de amplitudes A2 e 3A2 Uma sequência de dois pulsos quaternários podem formar 4 H 4 16 níveis distintos de valores Grupo de companhias que explorou o serviço telefônico nos Estados Unidos de 1877 a 1984 quando foi desmembrado por lei federal NT É óbvio que para transmitir a informação contida em um filme ou programa de televisão em tempo real as piscadas de olho deveriam ser efetuadas em alta velocidade inatingível para humanos Por exemplo um sinal de TV digital de alta definição HDTV High Definition TeleVision é representado por 19 milhões de bits piscadas por segundo A menos que especificado de modo diferente os eventos listados nesta tabela ocorreram nos Estados Unidos NT Em outubro de 2010 segundo a Agência Nacional de Telecomunicações ANATEL o número de telefones celulares no Brasil era 194439250 Em novembro de 2010 a população do país segundo o Censo de 2010 realizado pelo Instituto Brasileiro de Geografia e Estatística IBGE era de 190732694 pessoas NT 21 N este capítulo discutiremos certos conceitos básicos relativos a sinais que são processados por sistemas Iniciaremos com uma explicação dos termos sinal e sistema Sinais Um sinal como implica o termo é um conjunto de informação ou dados Como exemplo podemos citar o sinal de telefone ou o de televisão os dados de vendas mensais de uma empresa os preços de ações no fechamento do pregão da bolsa de valores no caso do Brasil a média do índice Bovespa Em todos esses casos os sinais são funções da variável independente tempo No entanto nem sempre é assim Quando uma carga elétrica é distribuída em uma superfície por exemplo o sinal é a densidade de carga uma função do espaço e não do tempo Neste livro trataremos quase exclusivamente de sinais que são funções do tempo A discussão entretanto se aplica também a outras variáveis independentes Sistemas Sinais podem ser processados por sistemas que podem modificálos ou deles extrair informação adicional Por exemplo um lançador de míssil antiaéreo pode necessitar conhecer a localização futura de um alvo móvel hostil que é rastreado pelo radar Como o sinal de radar fornece a localização passada e a velocidade do alvo com o processamento adequado do sinal do radar a entrada é possível estimar a posição futura do alvo Assim um sistema é uma entidade que processa um conjunto de sinais entradas para produzir outro conjunto de sinais saídas Um sistema pode ser constituído de componentes físicos como em sistemas elétricos mecânicos ou hidráulicos implementação em hardware ou pode ser um algoritmo que calcula uma saída a partir de um sinal de entrada implementação em software TAMANHO DE UM SINAL Energia de um Sinal O tamanho de qualquer entidade é uma grandeza que indica sua intensidade De maneira geral um sinal varia com o tempo Para estabelecer uma grandeza padrão que meça a intensidade de um sinal normalmente vemos um sinal gt como uma tensão através de um resistor de um ohm Definimos a energia do sinal E g do sinal gt como a energia que a tensão gt dissipa no resistor De modo mais formal definimos E g para um sinal de valores reais como Figura 21 Exemplos de sinais a Sinal com energia finita b Sinal com potência finita Essa definição pode ser generalizada para um sinal gt de valores complexos como Potência de um Sinal Para ser uma medida do tamanho do sinal que faça sentido a energia do sinal deve ser finita Uma condição necessária para que a energia seja finita é que a amplitude do sinal tenda a zero à medida que t tenda ao infinito Fig 21a Caso contrário a integral na Eq 21 não convergirá Se a amplitude de gt não tender a zero à medida que t tender ao infinito Fig 21b a energia do sinal será infinita Em casos como esse uma medida mais razoável do tamanho do sinal é a média temporal da energia caso exista que é a potência média P g definida para um sinal de valores reais por Podemos generalizar esta definição para um sinal gt de valores complexos como Observemos que a potência do sinal P g é a média temporal valor médio da amplitude quadrática do sinal ou seja o valor quadrático médio de gt Na verdade a raiz quadrada de P g é o valor rms Root Mean Square ou valor eficaz de gt O valor médio de uma grandeza calculado em um longo intervalo de tempo que tende ao infinito existe se a grandeza for periódica ou tiver regularidade estatística Caso essa condição não seja satisfeita pode não existir um valor médio Por exemplo um sinal rampa gt t aumenta indefinidamente quando t de modo que nem energia e nem potência existirão para esse sinal Unidades de Energia e de Potência de um Sinal As unidades padrão de energia e de potência de um sinal são respectivamente joule e watt Contudo na prática é comum o uso de escalas logarítmicas para descrever a potência de um sinal Esta notação evita a dificuldade de trabalhar com casas decimais quando a potência do sinal é muito alta ou muito baixa Por convenção dizemos que um sinal com potência média de P watts tem potência de 10 ꞏ log 10 P dBw ou 30 10 ꞏ log 10 P dBm Por exemplo 30 dBm representa uma potência de sinal de 10 6 W na escala decimal padrão 22 1 2 3 4 5 221 Exemplo 21 Determinemos medidas razoáveis dos sinais na Fig 22 O sinal na Fig 22a tende a 0 à medida que t Portanto uma medida razoável para este sinal é a energia E g dada por O sinal na Fig 22b não tende a 0 à medida que t Entretanto este sinal é periódico logo sua potência existe e podemos calculála usando a Eq 23 Para sinais periódicos este processo pode ser simplificado se observamos que um sinal periódico se repete regularmente a cada período 2 segundos neste caso Assim calcular a média de g 2t em um intervalo de tempo infinitamente longo é equivalente a calculála em um período 2 segundos neste caso ou seja Figura 22 Sinais para o Exemplo 21 Recordemos que a potência de um sinal é o quadrado de seu valor rms Portanto o valor rms deste sinal é CLASSIFICAÇÃO DE SINAIS Existem várias classes de sinais Aqui consideraremos apenas os seguintes pares de classes adequadas ao escopo deste livro Sinais em tempo contínuo e sinais em tempo discreto Sinais analógicos e sinais digitais Sinais periódicos e sinais aperiódicos Sinais de energia e sinais de potência Sinais determinísticos e sinais probabilísticos Sinais em Tempo Contínuo e Sinais em Tempo Discreto Um sinal que é especificado em todos os valores do tempo t Fig 23a é um sinal em tempo contínuo um sinal que é especificado apenas em pontos discretos t nT Fig 23b é um sinal em tempo discreto Gravações de áudio ou de vídeo são 222 sinais em tempo contínuo o produto interno bruto PIB trimestral venda mensal de uma empresa e índice médio diário da bolsa de valores são sinais em tempo discreto Figura 23 a Sinal em tempo contínuo b Sinal em tempo discreto Sinais Analógicos e Sinais Digitais Não devemos confundir sinais analógicos com sinais em tempo contínuo Os dois conceitos não são iguais Isso também se aplica aos conceitos de sinais digitais e sinais em tempo discreto Um sinal cuja amplitude pode assumir apenas valores em um intervalo contínuo de tempo é um sinal analógico o que significa que a amplitude de um sinal analógico pode assumir um número infinito incontável de valores Um sinal digital por sua vez é aquele cuja amplitude pode assumir somente um número finito de valores Sinais associados com um computador digital são digitais porque assumem apenas dois valores sinais binários Para que um sinal se qualifique como digital o número de valores não precisa ser limitado a dois pode ser um número finito qualquer Um sinal digital cuja amplitude pode assumir M valores é um sinal Mário do qual o binário M 2 é um caso especial Os termos tempo contínuo e tempo discreto descrevem a natureza do sinal ao longo do eixo do tempo eixo horizontal Os termos analógico e digital descrevem a natureza do eixo de amplitude do sinal eixo vertical A Fig 24 mostra exemplos de sinais de vários tipos Fica claro que analógico não é necessariamente em tempo contínuo assim como digital não tem que ser em tempo discreto A Fig 24c mostra um exemplo de um sinal analógico em tempo discreto Um sinal analógico pode ser convertido em um sinal digital via conversão analógicodigital AD por meio de quantização arredondamento como explicado no Capítulo 6 223 224 Figura 24 Exemplos de sinais a Sinal analógico em tempo contínuo b Sinal digital em tempo contínuo c Sinal analógico em tempo discreto d Sinal digital em tempo discreto Sinais Periódicos e Sinais Aperiódicos Um sinal gt é dito periódico se existir uma constante positiva T 0 tal que O menor valor de T 0 que satisfaz a condição de periodicidade da Eq 25 é o período de gt O sinal na Fig 22b é um sinal periódico com período 2 Naturalmente um sinal é aperiódico se não for periódico O sinal na Fig 22a é aperiódico Por definição um sinal periódico gt não se altera quando sofre deslocamento ou translação temporal igual a um período Isso significa que um sinal periódico deve ter início em t pois se tivesse início em algum instante de tempo finito digamos t 0 o sinal deslocado gt T 0 teria início em t T 0 e portanto gt T 0 não seria o mesmo que gt Em consequência um sinal periódico por definição deve ter início em t e continuar indefinidamente como ilustrado na Fig 25 Vale observar que um sinal periódico não se altera quando é deslocado no tempo por um múltiplo de T 0 Dessa forma gt pode ser considerado um sinal periódico com período mT 0 sendo m um inteiro qualquer No entanto pela definição o período é o menor intervalo que satisfaz a condição de periodicidade da Eq 25 Ou seja o período é T 0 Figura 25 Sinal periódico de período T 0 Sinais de Energia e Sinais de Potência 225 23 Um sinal com energia finita é um sinal de energia um sinal com potência finita é um sinal de potência Em outras palavras um sinal gt é um sinal de energia se De modo similar um sinal com potência valor quadrático médio finitao e não nulao é um sinal de potência Em outras palavras um sinal é de potência se Os sinais nas Figs 22a e 22b são exemplos de sinais de energia e de potência respectivamente Observemos que potência é o valor temporal de energia Como o valor é tomado em um intervalo de tempo infinitamente longo um sinal com energia finita tem potência nula e um sinal com potência finita tem energia infinita Portanto um sinal não pode ao mesmo tempo ser de energia e de potência Se for um não poderá ser o outro Contudo alguns sinais com potência infinita não são nem de energia nem de potência O sinal rampa é um exemplo Comentários Todo sinal observado na vida real é um sinal de energia Um sinal de potência por sua vez deve ter uma duração infinita Caso contrário sua potência que é o valor temporal de energia calculado em um intervalo de tempo infinitamente longo não tenderá a um limite não nulo É óbvio que na prática é impossível gerar um verdadeiro sinal de potência pois este sinal deveria ter duração e energia infinitas Por fim devido à repetição periódica sinais periódicos para os quais a área sob a curva de gt 2 ao longo de um período é finita são sinais de potência no entanto nem todos os sinais de potência são periódicos Sinais Determinísticos e Sinais Aleatórios Um sinal cuja descrição física seja completamente conhecida de forma matemática ou gráfica é um sinal determinístico Um sinal que seja conhecido apenas em termos de uma descrição probabilística como valor médio valor quadrático médio ou distribuições e não de sua completa descrição matemática ou gráfica é um sinal aleatório A maioria dos sinais de ruído encontrados na prática é de sinais aleatórios Todos os sinais de mensagens são sinais aleatórios pois como mostraremos posteriormente para que um sinal transporte informação deve haver alguma incerteza aleatoriedade em relação ao mesmo O tratamento de sinais aleatórios será discutido em capítulos ulteriores SINAL IMPULSO UNITÁRIO A função impulso unitário δt é uma das mais importantes funções no estudo de sinais e sistemas Suas definição e aplicação resultam em conveniências não permitidas em matemática pura A função impulso unitário δt foi definida por P A M Dirac e por isso também é conhecida como função delta de Dirac como Figura 26 Um impulso unitário e sua aproximação Podemos visualizar um impulso como um pulso retangular alto e estreito de área unitária como mostrado na Fig 26 A largura desse pulso retangular é um valor muito pequeno є no limite є 0 sua altura tem um valor muito grande 1є O impulso unitário pode portanto ser considerado um pulso retangular cuja largura se torna infinitamente pequena cuja altura se torna infinitamente grande e uma área total que permanece constante e igual à unidade Assim δt 0 para todos os valores de t exceto t 0 onde formalmente a função não é definida Por essa razão um impulso unitário é representado de forma gráfica por uma seta como na Fig 26a Multiplicação de uma Função por um Impulso Consideremos agora o que ocorre quando multiplicamos o impulso unitário δt por uma função ϕt contínua em t 0 Como o impulso existe apenas em t 0 e o valor de ϕt em t 0 é ϕ0 obtemos De modo similar se ϕt for multiplicada por um impulso δt T um impulso localizado em t T obtemos desde que ϕt seja definida em t T Propriedade de Amostragem da Função Impulso Unitário Da Eq 210 temos que desde que ϕt seja contínua em t T Esse resultado significa que a área sob a curva do produto de uma função por um impulso δt é igual ao valor da função no instante de tempo em que o impulso está localizado Essa importante e útil propriedade é conhecida como propriedade de amostragem ou peneiramento do impulso unitário Dependendo do valor de T e dos limites de integração a função impulso pode ou não estar no intervalo de integração Assim temos 24 Figura 27 a Função degrau unitário ut b Exponencial causal e at ut Função Degrau Unitário ut Outra função útil e familiar é a função degrau unitário ut encontrada com frequência na análise de circuitos e definida na Fig 27a como Se desejarmos que um sinal tenha início em t 0 de modo que tenha valor nulo para t 0 basta que o multipliquemos por ut Um sinal que começa após t 0 é denominado sinal causal Em outras palavras gt é um sinal causal se O sinal e at representa uma exponencial que tem início em t Se desejarmos que este sinal comece em t 0 forma causal podemos descrevêlo como e atut Fig 27b Da Fig 26b observamos que de a t a área sob a curva da forma aproximada de δt é zero se t 0 e igual à unidade se t 0 Portanto podemos escrever Deste resultado obtemos ANALOGIA ENTRE SINAIS E VETORES Existe uma forte conexão entre sinais e vetores Sinais definidos em apenas um número finito digamos N de instantes de tempo podem ser escritos como vetores de dimensão N Assim consideremos um sinal gt definido em um intervalo fechado a b Tomemos N pontos uniformemente espaçados no intervalo a b tais que Podemos então escrever um sinal vetorial g como um vetor de dimensão N 241 À medida que o número N de instantes de tempo aumenta a dimensão do sinal vetorial amostrado g aumentará Se N os valores do sinal formarão um vetor g de dimensão infinita Como neste caso є 0 o sinal vetorial g se transformará no sinal em tempo contínuo gt definido no intervalo a b Em outras palavras Essa relação mostra claramente que sinais em tempo contínuo são generalizações diretas de vetores de dimensão finita Em consequência definições e operações básicas em um espaço vetorial também podem ser aplicadas a sinais em tempo contínuo A seguir exploraremos esta conexão entre o espaço de vetores de dimensão finita e o espaço de sinais em tempo contínuo Denotaremos todos os vetores por letras em negrito Por exemplo x é um certo vetor com magnitude ou comprimento x Um vetor tem magnitude e direção Em um espaço vetorial podemos definir o produto interno ou escalar de dois vetores de valores reais g e x como em que θ é o ângulo entre os vetores g e x Com essa definição podemos expressar x o comprimento ou norma do vetor x como Isso define um espaço vetorial normado Componente de um Vetor na Direção de Outro Vetor Consideremos dois vetores g e x como mostrado na Fig 28 Seja cx a componente de g na direção de x ou ao longo de x Do ponto de vista geométrico a componente de g ao longo de x é a projeção de g sobre x obtida traçando a partir da extremidade de g uma linha reta perpendicular ao vetor x como ilustrado na Fig 28 Qual é o significado matemático da componente de um vetor na direção de outro vetor Como visto na Fig 28 o vetor g pode ser expresso em termos do vetor x como Contudo isso não descreve uma única forma de decompor g em termos de x e de e A Fig 29 mostra duas das outras infinitas possibilidades Das Fig 29a e b temos Figura 28 Componente projeção de um vetor ao longo de outro vetor 242 Figura 29 Aproximações de um vetor em termos de outro vetor Cabe a seguinte pergunta qual é a melhor decomposição O conceito de ótimo depende de nosso objetivo ao decompor g em duas componentes Em cada uma das três representações anteriores g é dado em termos de x e de outro vetor denominado vetor de erro Se nosso objetivo for aproximar g por cx Fig 28 o erro nessa aproximação é o vetor diferença e g cx De modo similar os erros nas aproximações nas Figs 29a e b são e 1 e e 2 respectivamente A aproximação na Fig 28 é única pois seu vetor de erro é o menor menor magnitude ou norma Podemos agora definir matematicamente a componente ou projeção de um vetor g na direção de um vetor x como cx onde c é escolhido para minimizar a magnitude do vetor de erro e g cx Do ponto de vista geométrico a magnitude da componente de g ao longo de x é gcos θ que também é igual a cx Portanto Com base na definição do produto interno de dois vetores multiplicando os dois lados por x obtemos Da Fig 28 fica aparente que quando g e x são perpendiculares ou ortogonais g tem componente nula na direção de x neste caso c 0 Tendo em vista a Eq 219 podemos definir g e x como ortogonais se o produto interno dos dois vetores for zero ou seja se Decomposição de um Sinal e Componentes de um Sinal Os conceitos de componentes e ortogonalidade de vetores podem ser diretamente estendidos a sinais em tempo contínuo Consideremos o problema de aproximar um sinal de valores reais gt em termos de outro sinal de valores reais xt em um intervalo t 1 t 2 O erro et nesta aproximação é Para a melhor aproximação precisamos minimizar o sinal de erro ou seja minimizar a norma do mesmo A mínima norma de um sinal corresponde à mínima energia E e no intervalo t 1 t 2 dada por Observemos que o lado direito é uma integral definida cuja variável de integração é t Portanto E e é uma função do parâmetro c não de t e E e será mínima para alguma escolha do valor de c Uma condição necessária para a minimização de E e é ou Expandindo o termo quadrático no integrando obtemos portanto e Em resumo se um sinal gt for aproximado por outro sinal xt na forma o valor ótimo de c que minimiza a energia do sinal de erro nesta aproximação é dado pela Eq 224 Seguindo o que é feito com vetores dizemos que o sinal gt tem uma componente cxt com c dado pela Eq 224 Como no caso de um espaço vetorial cxt é a projeção de gt sobre xt Mantendo a terminologia de espaço vetorial se a componente de um sinal gt da forma cxt for zero ou seja se c 0 dizemos que os sinais gt e xt são ortogonais no intervalo t 1 t 2 Em outras palavras para sinais de valores reais dois sinais gt e xt são ortogonais quando a contribuição de um sinal ao outro for zero c 0 Assim xt e gt são ortogonais se e somente se Com base nas ilustrações de vetores na Fig 29 podemos dizer que dois sinais são ortogonais se e somente se o produto interno dos dois for zero Isto indica que a integral da Eq 225 guarda uma relação muito próxima com o conceito de produto interno de vetores A definição padrão de produto interno de dois vetores g e x de dimensão N tem forma quase idêntica à integral na Eq 225 Portanto definimos o produto interno de dois sinais de valores reais gt e xt ambos especificados no intervalo de tempo t 1 t 2 como Recordemos da álgebra linear que o quadrado do comprimento de um vetor x 2 é igual a x x Com esse conceito em mente e prosseguindo com a analogia com análise vetorial definimos a norma de um sinal gt como que é a raiz quadrada da energia do sinal no dado intervalo de tempo Fica claro que a norma de um sinal é análoga ao comprimento de um vetor de dimensão finita De modo mais geral sinais podem não ser meramente definidos em um segmento contínuo de tempo t 1 t 2 Exemplo 22 Para o sinal quadrado gt mostrado na Fig 210 determinemos a componente em gt da forma de sen t Em outras palavras aproximemos gt em termos de sen t de modo que a energia do sinal seja mínima Figura 210 Aproximação do sinal quadrado em termos de uma única senoide Neste caso Da Eq 224 obtemos 243 Portanto representa a melhor aproximação de gt pela função sen t que minimiza a energia do sinal de erro Essa componente senoidal de gt é mostrada hachurada na Fig 210 Como em um espaço vetorial dizemos que a função quadrada gt ilustrada na Fig 210 tem uma componente de sinal sen t com magnitude 4π Espaço Complexo de Sinais e Ortogonalidade Até aqui restringimos a atenção a funções de valores reais de t Para estender os resultados a funções de valores complexos de t consideremos mais uma vez o problema de aproximar a função gt por uma função xt em um intervalo t 1 t t 2 em que gt e xt são funções de valores complexos de t Em geral tanto o coeficiente c como o sinal de erro são complexos Recordemos que a energia E x do sinal complexo xt no intervalo t 1 t 2 é Para a melhor aproximação devemos escolher o valor de c que minimiza E e a energia do sinal de erro et dada por Recordemos também que Usando esse resultado podemos após alguns cálculos expressar a integral E e na Eq 233 como Já que os primeiros dois termos no lado direito independem de c fica claro que E e é minimizada com a escolha do valor de c que anula o terceiro termo Isso leva ao coeficiente ótimo Com esse resultado devemos redefinir ortogonalidade para o caso complexo o que é feito da seguinte forma funções sinais de valores complexos x 1t e x 2t são ortogonais em um intervalo t 1 t t 2 se 244 25 Na verdade basta qualquer uma das igualdades Essa é uma definição geral de ortogonalidade que se reduz à Eq 225 quando as funções têm valores reais Do mesmo modo a definição de produto interno para sinais de valores complexos em um domínio temporal Θ pode ser modificada como Em consequência a norma de um sinal gt fica dada por Energia da Soma de Sinais Ortogonais Sabemos que o quadrado do comprimento geométrico ou magnitude da soma de dois vetores ortogonais é igual à soma dos quadrados das magnitudes dos vetores Portanto se os vetores x e y forem ortogonais e se z x y então Um resultado semelhante se aplica a sinais A energia da soma de dois sinais ortogonais é igual à soma das energias dos dois sinais Assim se os sinais xt e yt forem ortogonais em um intervalo t 1 t 2 e se zt xt yt então A seguir provaremos esse resultado para sinais de valores complexos dos quais aqueles com valores reais são um caso especial Da Eq 234 temos A última igualdade resulta da ortogonalidade dos dois sinais que anula as duas integrais dos produtos cruzados xtyt e x tyt Tal resultado pode ser estendido à soma de um número qualquer de sinais mutuamente ortogonais CORRELAÇÃO DE SINAIS Com as definições do produto interno e da norma de sinais preparamos o caminho para a comparação de sinais Mais uma vez podemos tirar proveito da analogia com os familiares espaços vetoriais Dois vetores g e x são similares se g tiver uma grande componente ao longo de x Em outras palavras se c na Eq 219 for grande os vetores g e x serão similares Podemos considerar c como uma medida quantitativa da similaridade entre g e x Contudo essa medida seria defeituosa pois varia com as normas ou comprimentos de g e x Para ser adequada a medida da similaridade entre g e x deveria independer dos comprimentos de g e x Se por exemplo dobrarmos o comprimento de g a medida da similaridade entre g e x não deveria se alterar A Eq 219 nos mostra que se dobrarmos g o valor de c também dobra se dobrarmos x o valor de c será dividido por dois Fica claro que a medida de similaridade com base na correlação de sinais é falha A similaridade entre dois vetores é indicada pelo ângulo θ entre eles Quanto menor o valor de θ maior a similaridade e viceversa A similaridade pode então ser adequadamente medida por cos θ Maior o valor de cos θ maior a similaridade entre os dois vetores Assim uma medida apropriada seria ρ cos θ dada por 251 Podemos verificar prontamente que esta medida independe dos comprimentos de g e x Essa medida de similaridade ρ é conhecida como coeficiente de correlação Vale observar que A magnitude de ρ portanto jamais é maior que a unidade Se os dois vetores estiverem alinhados a similaridade é máxima ρ 1 Dois vetores alinhados em direções opostas têm máxima dissimilaridade ρ 1 Se os dois vetores forem ortogonais a similaridade será zero Usamos os mesmos argumentos na definição de um índice de similaridade coeficiente de correlação para sinais Por conveniência consideraremos sinais em todo o eixo do tempo de a Para definirmos um índice de similaridade que independa das energias tamanhos de gt e xt devemos normalizar c para isso normalizamos os dois sinais de modo que tenham energias unitárias Assim um adequado índice de similaridade ρ análogo à Eq 241 é dada por Vale ressaltar que a multiplicação de gt ou de xt por qualquer constante não altera o valor desse índice Por conseguinte o mesmo independe dos tamanhos energias de gt e xt Fazendo uso da desigualdade de CauchySchwarz provada no Apêndice B podemos mostrar que a magnitude ρ jamais é maior que a unidade Funções de Correlação É conveniente que examinemos a aplicação de correlação à detecção de sinais em um equipamento de radar onde um pulso é transmitido para detectar um alvo suspeito A detecção da presença ou ausência do pulso refletido confirma a presença ou ausência do alvo A medida do atraso temporal entre os pulsos transmitido e recebido refletido nos permite determinar a distância ao alvo Sejam os pulsos transmitido e recebido denotados por gt e zt respectivamente Se usássemos a Eq 243 diretamente para medir o coeficiente de correlação ρ obteríamos A correlação é zero porque os pulsos são separados não se sobrepõem no tempo A integral na Eq 245 será igual a zero mesmo que os pulsos sejam idênticos mas guardem um deslocamento temporal Para evitar essa dificuldade comparamos o pulso recebido zt com o pulso transmitido gt deslocado de τ Se para algum valor de τ houver uma forte correlação não apenas detectaremos a presença do pulso mas também determinaremos o deslocamento temporal de zt em relação a gt Por isso em vez da integral no lado direito usamos a integral modificada Ψ gzτ denominada função de correlação cruzada dos dois sinais de valores complexos gt e zt e definida como Ψ gzτ é portanto uma indicação da similaridade correlação entre gt e zt adiantado deslocado para a esquerda de τ segundos 252 26 261 Figura 211 Explicação gráfica da função de autocorrelação Figura 212 Representação de um vetor no espaço tridimensional Função de Autocorrelação A correlação de um sinal como ele próprio como ilustrado na Fig 211 é denominada autocorrelação A função de autocorrelação Ψ gτ de um sinal de valores reais gt é definida como A função de autocorrelação mede a similaridade do sinal gt com sua versão deslocada no tempo No Capítulo 3 mostraremos que a função de autocorrelação fornece valiosas informações espectrais a respeito do sinal CONJUNTO ORTOGONAL DE SINAIS Nesta seção mostraremos uma forma de representar um sinal como a soma de um conjunto ortogonal de sinais Na verdade os sinais nesse conjunto ortogonal formam uma base para o espaço de sinais em questão Aqui mais uma vez podemos nos beneficiar do entendimento de um problema similar envolvendo vetores Sabemos que um vetor pode ser representado como a soma de vetores ortogonais que formam o sistema de coordenadas de um espaço vetorial Com sinais o problema é análogo e os resultados são similares aos do problema com vetores Por isso façamos uma revisão da representação de vetores Espaço Vetorial Ortogonal Consideremos um espaço vetorial cartesiano multidimensional representado na Fig 212 por três vetores ortogonais x 1 x 2 e x 3 para o caso especial de um espaço tridimensional Primeiro procuramos aproximar um vetor tridimensional g em termos de dois vetores ortogonais x 1 e x 2 O erro e nesta aproximação é ou o que é equivalente 262 De acordo com a argumentação geométrica anterior a Fig 212 deixa claro que o comprimento do vetor de erro e é mínimo quando o mesmo for perpendicular ao plano x 1 x 2 e quando c 1x 1 e c 2x 2 forem as projeções componentes de g sobre x 1 e x 2 respectivamente Portanto as constantes c 1 e c 2 são dadas pela fórmula na Eq 219 Agora determinemos a melhor aproximação de g em termos dos três vetores mutuamente ortogonais x 1 x 2 e x 3 A Fig 212 mostra que existe uma única escolha para os valores de c 1 c 2 e c 3 para a qual a Eq 248 deixa de ser uma aproximação e se torna uma igualdade Neste caso c 1x 1 c 2x 2 e c 3x 3 são as projeções componentes de g sobre x 1 x 2 e x 3 respectivamente Vale notar que agora o erro e da aproximação é zero quando g é aproximado em termos de três vetores mutuamente ortogonais x 1 x 2 e x 3 Isso ocorre porque g é um vetor tridimensional e os vetores x 1 x 2 e x 3 representam um conjunto completo de vetores ortogonais no espaço tridimensional Completeza aqui significa que é impossível nesse espaço encontrar qualquer outro vetor x 4 que seja ortogonal a todos os três vetores x 1 x 2 e x 3 Nesse espaço qualquer vetor pode portanto ser representado com erro zero em termos desses três vetores Vetores como esses são conhecidos como vetores de base e o conjunto dos vetores como uma base ortogonal completa desse espaço vetorial Se um conjunto de vetores x i não for completo o erro da aproximação na maioria dos casos não será zero Por exemplo no espaço tridimensional que acabamos de considerar em geral não é possível representar um vetor g em termos de apenas dois vetores da base sem erro A escolha dos vetores de base não é única Na verdade cada conjunto de vetores de base corresponde a uma escolha particular de sistema de coordenadas Assim um vetor tridimensional g pode ser representado de diferentes formas dependendo do sistema de coordenadas utilizado Em resumo se um conjunto de vetores mutuamente ortogonaisx i ou seja vetores tais que e se esse conjunto for completo um vetor g nesse espaço pode ser expresso como onde as constantes c i são dadas por Espaço Ortogonal de Sinais Dando prosseguimento ao problema de aproximação de sinais usaremos conceitos e resultados da aproximação de vetores Como antes definimos ortogonalidade de um conjunto de sinais x 1t x 2t x N t em um domínio temporal Θ pode ser um intervalo t 1 t 2 como Se todos os sinais tiverem energia unitária E n 1 dizemos que o conjunto é normalizado e o denominamos conjunto ortonormal Um conjunto ortogonal sempre pode ser normalizado bastando dividir para todo n Consideremos agora o problema de aproximar um sinal gt em Θ por N sinais mutuamente ortogonais x 1t x 2t x N t 263 Pode ser mostrado que E e a energia do sinal de erro et nessa aproximação é minimizada quando escolhemos Além disso se o conjunto ortogonal for completo a energia do erro E e 0 e a aproximação em 252 deixa de ser uma aproximação tornandose uma igualdade Mais precisamente definamos o erro da aproximação de N termos por Se a base ortogonal for completa a energia do sinal de erro converge a zero ou seja Em termos estritamente matemáticos no entanto um sinal pode não convergir a zero mesmo que sua energia convirja a zero Isso ocorre porque um sinal pode ser não nulo em alguns pontos isolados Entretanto na prática sinais são contínuos para todo t e a igualdade 255 afirma que o sinal de erro tem energia zero quando N Assim para N a igualdade 255 pode ser escrita como em que os coeficientes c n são dados pela Eq 253 Como a energia do sinal de erro se aproxima de zero a energia de gt fica igual à soma das energias de suas componentes ortogonais A série no lado direito da Eq 253 é denominada série de Fourier generalizada de gt em termos do conjunto x nt Quando o conjunto x nt é tal que a energia do erro E N 0 à medida que N para qualquer membro de alguma classe particular de sinais dizemos que o conjunto x nt é completo em t Θ para aquela classe de gt e o conjunto x nt é denominado um conjunto de funções de base ou sinais de base Em particular a classe de sinais de energia finita em Θ é denotado por L 2Θ De aqui em diante consideraremos apenas a classe de sinais de energia a menos que especifiquemos de modo diferente Teorema de Parseval Recordemos que a energia da soma de sinais ortogonais é igual à soma das energias dos mesmos Portanto a energia do lado direito da Eq 256 é a soma das energias das componentes ortogonais A energia de uma componente c nx nt é c 2 nE n Igualando as energias nos dois lados da Eq 256 obtemos 27 Esse importante resultado é conhecido como teorema de Parseval Recordemos que a energia de um sinal área sob a curva do quadrado do valor do sinal é análoga ao quadrado do comprimento de um vetor segundo a analogia vetorsinal Em um espaço vetorial sabemos que o quadrado do comprimento de um vetor é igual à soma dos quadrados dos comprimentos de suas componentes ortogonais O teorema de Parseval Eq 257 é a afirmação desse fato para o caso de sinais SÉRIE DE FOURIER EXPONENCIAL Observamos anteriormente que a representação ortogonal de sinais NÃO é única Embora a tradicional série de Fourier trigonométrica permita uma boa representação de todos os sinais periódicos nesta seção apresentamos uma representação ortogonal de sinais periódicos equivalente mas que tem forma mais simples Primeiro observemos que o conjunto de exponenciais e jnω 0 t n 0 1 2 é ortogonal em um intervalo de duração T 0 2πω 0 ou seja Além disso esse conjunto é completo 1 2 Das Eqs 253 e 256 um sinal gt pode ser expresso em um intervalo de duração T 0 segundos por uma série de Fourier exponencial em que ver Eq 253 A série de Fourier exponencial na Eq 259 consiste em componentes da forma e jn2πf0t com n variando de a e é periódica com período T 0 Exemplo 23 Determinemos a série de Fourier exponencial para o sinal na Fig 213b Figura 213 Um sinal periódico Neste caso T 0 π 2πf 0 2πT 0 2 e em que e Vale observar que os coeficientes D n são complexos Além disso D n e D n são complexos conjugados como esperado Espectro de Fourier Exponencial No espectro exponencial representamos graficamente os valores dos coeficientes D n em função de ω Contudo como em geral D n é complexo necessitamos de dois gráficos um para a parte real e outro para a parte imaginária de D n ou um para a amplitude magnitude e outro para a fase de D n Preferimos a última opção devido à conexão com amplitudes e fases das componentes correspondentes da série de Fourier trigonométrica Portanto desenhamos gráficos de D n em função de ω e de D n em função de ω Isso requer que os coeficientes D n sejam expressos na forma polar D ne D n Para um sinal periódico os coeficientes D n e D n são complexos conjugados Logo Notemos que D n representa a amplitude magnitude e D n a fase de cada componente Pela Eq 263 quando o sinal gt tiver valores reais o espectro de amplitude D n versus f será uma função par da frequência e o espectro de fase ou angular D n versus f uma função ímpar de f Para a série no Exemplo 23 e e assim por diante Vale notar que D n e D n são complexos conjugados como esperado ver Eq 263b A Fig 214 mostra os espectros de frequência amplitude e fase da série de Fourier exponencial para o sinal periódico ϕt na Fig 213b Podemos observar algumas características interessantes nesses espectros Primeira o espectro existe para valores positivos e negativos de f frequência Segunda o espectro de amplitude é uma função par de f e o espectro de fase uma função ímpar de f As Eqs 263 mostram as características de simetria da amplitude e da fase de D n O que Significa Frequência Negativa A existência do espectro em frequências negativas é de alguma forma algo intrigante para algumas pessoas pois a frequência número de repetições por segundo é por definição uma grandeza positiva Como devemos interpretar uma frequência negativa f 0 Para expressar uma senoide de uma frequência negativa f 0 podemos subtrair ω 0 2πf 0 e usar uma identidade trigonométrica como Figura 214 Espectro de Fourier exponencial para o sinal na Fig 213a Isso mostra claramente que a frequência angular de uma senoide cosω 0t θ é ω 0 que é uma grandeza positiva A afirmação baseada no bom senso de que uma frequência deve ser positiva advém da tradicional noção de que frequência está associada a uma senoide de valores reais como seno ou cosseno Na verdade o conceito de frequência associado a senoides de valores reais descreve somente a taxa de variação senoidal sem aterse ao sentido da variação Isso ocorre porque sinais senoidais de valores reais NÃO contêm informação a respeito do sentido de sua variação O conceito de frequência negativa faz sentido apenas quando consideramos senoides de valores complexos para as quais a taxa e o sentido da variação têm significado Devemos observar que Essa relação deixa claro que uma frequência ω positiva ou negativa leva a variações periódicas com a mesma taxa Contudo os resultantes sinais de valores complexos NÃO são iguais Dado que e jw 0t 1 tanto e jw 0t como e jw 0t são variáveis complexas de comprimento unitário que podem ser representadas no plano complexo Na Fig 215 mostramos as duas senoides exponenciais como grandezas complexas de comprimento unitário que variam no tempo t A taxa de rotação para as duas exponenciais e jw 0t é ω 0 Fica claro que para frequências positivas a senoide exponencial gira no sentido antihorário ou trigonométrico para frequências negativas a senoide exponencial gira no sentido horário Isso ilustra o real significado de frequências negativas Existe uma boa analogia entre frequência positivanegativa e velocidade positivanegativa Assim como pessoas relutam em usar velocidade negativa para descrever o movimento de um objeto também relutam em aceitar o conceito de frequência negativa Contudo uma vez que entendamos que velocidade negativa simplesmente se refere tanto ao sentido negativo do deslocamento como à real velocidade de um objeto em movimento velocidade negativa passa a fazer sentido De modo similar frequência negativa NÃO descreve a taxa de variação periódica de um seno ou cosseno mas sim o sentido e a taxa de rotação de uma exponencial senoidal de comprimento unitário Outra maneira de ver essa situação é dizer que os espectros exponenciais são uma representação gráfica dos coeficientes D n como uma função de f A existência do espectro em f nf 0 simplesmente indica que uma componente exponencial existe na série Sabemos pela identidade de Euler que uma senoide de frequência nω 0 pode ser expressa em termos de um par de exponenciais e jnω 0t e e jnω 0t O fato de seno e cosseno consistirem em componentes senoidais exponenciais de frequências positiva e negativa indica que NÃO é possível descrever o sentido de suas variações periódicas Na verdade as funções seno e cosseno da frequência ω 0 consistem em duas senoides exponenciais de mesma amplitude e frequências ω 0 Em consequência a frequência de um seno ou cosseno é o valor absoluto das duas componentes de frequência e denota apenas a taxa das variações senoidais Figura 215 Variável complexa de comprimento unitário e frequência positiva rotação no sentido antihorário comparada com variável complexa de comprimento unitário e frequência negativa rotação no sentido horário Exemplo 24 Determinemos a série de Fourier exponencial da onda quadrada periódica mostrada na Fig 216 Figura 216 Sinal de pulso quadrado periódico onde Neste caso D n é real Consequentemente não precisamos do gráfico de fase ou ângulo e em vez de representarmos o espectro de amplitude D n versus f podemos traçar apenas o gráfico de D n versus f como na Fig 217 Figura 217 Espectro de Fourier exponencial do sinal de pulso quadrado periódico Exemplo 25 Determinemos a série de Fourier exponencial para o trem de pulsos δ T 0 t mostrado na Fig 218a e tracemos o gráfico dos correspondentes espectros A série de Fourier exponencial é dada por com Escolhendo o intervalo de integração e observando que neste intervalo δ T 0 t δt obtemos Nessa integral o impulso está localizado em t 0 Da propriedade de amostragem da função impulso a integral no lado direito é o valor de em t 0 localização do impulso Logo e As Eqs 267 mostram que o espectro exponencial é uniforme D n 1T 0 para todas as frequências como ilustrado na Fig 218b Como o espectro é real basta que tracemos o gráfico da amplitude Todas as fases são iguais a zero Figura 218 Trem de impulsos e correspondente espectro de Fourier exponencial Teorema de Parseval na Série de Fourier Um sinal periódico gt é um sinal de potência e cada termo em sua série de Fourier também é um sinal de potência A potência P g de gt é igual à potência de sua série de Fourier Como a série de Fourier consiste em termos que são mutuamente ortogonais em um período a potência da série de Fourier é igual à soma das potências das componentes de Fourier Esse resultado advém do teorema de Parseval Portanto para a série de Fourier exponencial a potência é dada por veja o Exercício 217 28 Para um sinal gt de valores reais D n D n Logo Comentário O teorema de Parseval admite diferentes formas como as das Eq 257 e Eq 268a No próximo capítulo apresentaremos mais uma forma para o caso de sinais periódicos Embora essas várias representações do teorema pareçam distintas todas afirmam o mesmo princípio o quadrado do comprimento de um vetor é igual à soma dos quadrados dos comprimentos de suas componentes ortogonais A primeira forma Eq 257 se aplica a sinais de energia a segunda Eq 268a a sinais periódicos representados pela série de Fourier exponencial Alguns Exemplos Adicionais de Conjuntos Ortogonais de Sinais A representação de um sinal pela série de Fourier mostra que sinais são em todos os sentidos vetores Assim como há diversas maneiras de representar um vetor como a soma de componentes dependendo da escolha do sistema de coordenadas também existem numerosas formas de representar um sinal como a soma de componentes Assim como um sistema de coordenadas vetoriais é formado por um conjunto de vetores mutuamente ortogonais retangulares cilíndricos esféricos etc um sistema de coordenadas de sinais também é formado por um conjunto de sinais mutuamente ortogonais os sinais de base Existe um grande número de conjuntos ortogonais de sinais que podem ser usados como sinais de base para séries de Fourier generalizadas Alguns conjuntos de sinais bem conhecidos são os das funções trigonométricas senoidais funções exponenciais funções de Walsh funções de Bessel polinômios de Legendre funções de Laguerre polinômios de Jacobi polinômios de Hermite e polinômios de Chebyshev Neste livro as funções de maior interesse são as exponenciais discutidas no próximo capítulo EXERCÍCIOS COM O MATLAB Nesta seção apresentamos alguns exercícios básicos com o MATLAB para ilustrar o processo de geração de sinais operações com sinais e análise de sinais por série de Fourier Sinais Básicos e Representação Gráfica de Sinais Funções básicas podem ser definidas por meio de arquivos m de MATLAB A seguir apresentamos três programas MATLAB para implementar três funções básicas a partir de um vetor t variante no tempo ustepm implementa a função degrau unitário ut rectm implementa a função retangular padrão rectt trianglm implementa a função triangular padrão Δt nome do arquivo rectm A função rectangular é uma função do tempo t Uso y rectt t deve ser uma variável real podendo ser um vetor ou uma matriz rectt 1 se t 05 rectt 0 se t 05 function yrectt y signt05signt05 0 end nome do arquivo trianglm A função triangular é uma função do tempo t trianglt 1t se t 1 trianglt 0 se t 1 Uso y trianglt t deve ser uma variável real podendo ser um vetor ou uma matriz function ytrianglt y 1abstt1t1 end A seguir mostramos um exemplo de como usar o MATLAB para gerar o gráfico de um sinal Para isso fornecemos o arquivo siggrafm Neste exemplo construímos o sinal e traçamos o gráfico de sua variação com o tempo A Fig 219 mostra a curva resultante Sinais Periódicos e Sinais de Potência Para gerar sinais periódicos primeiro calculamos valores do sinal em um período e depois repetimos esses valores múltiplas vezes Com o programa de MATLAB PfuncExm fornecido a seguir geramos um sinal periódico e observamos seu comportamento ao longo de 2M períodos Neste exemplo o período é T 6 O programa também calcula a potência média do sinal armazenada na variável ypower e a energia do sinal em um período armazenada na variável yenergyT O programa gera um sinal periódico como mostrado na Fig 220 e produz as respostas numéricas Correlação de Sinais Um programa de MATLAB pode implementar diretamente o conceito de correlação de sinais introduzido na Seção 25 No próximo exemplo fornecemos um programa signcorm que calcula os coeficientes de correlação entre o sinal xt e sinais g 1t g 2t g 5t O programa primeiro gera a Fig 221 que ilustra os seis sinais no domínio do tempo Figura 220 Geração de um sinal periódico Figura 221 Seis sinais simples Dt001 incremento temporal Dt T60 duração temporal T t1DtT t varia em 1 T em incrementos Dt A seguir o sinal é calculado no intervalo de variação de t para gerar o gráfico xusteptustept5 g105usteptustept5 g2usteptustept5 g3expt5usteptustept5 g4exptusteptustept5 g5sin2pitusteptustept5 subplot231 sig1plottxk Os seis coeficientes de correlação obtidos com o programa são Cálculo Numérico de Coeficientes D n Existem numerosas maneiras de calcular valores dos coeficientes D n de uma série de Fourier A seguir usaremos o MATLAB para mostrar como usar integração numérica no cálculo de séries de Fourier Para efetuar a integração numérica direta da Eq 260 o primeiro passo consiste em definir a expressão simbólica do sinal gt em análise Neste exemplo usamos a função triangular Δt Uma vez que o arquivo functtrim define a função y gt podemos efetuar diretamente a integração numérica da Eq 260 considerando um número finito de coeficientes da série de Fourier D n n N 1 0 1 N A seguir fornecemos um programa em MATLAB denominado FSexamplem que permite o cálculo da série de Fourier de Δt2 com período a b a Δ2 b 2 Neste exemplo N 11 A execução desse pequeno programa em MATLAB gerará a Fig 222 que mostra a variação da amplitude e da fase de D n nome do arquivo FSexpam Este exemplo mostra como calcular numericamente Coeficientes Dn da série de Fourier exponencial diretamente o usuário deve definir uma função simbólica gt Neste exemplo gtfuncttrit echo off clear clc jsqrt1 Define j para algebra complexa b2 a2 Definição de um período do sinal tol1e5 Especificação da tolerância para erro de integração Tba comprimento de um período N11 Número de componentes da série de Fourier em cada lado da frequência zero FiNN2piT Especificação do intervalo de frequência D0 é calculado e armazenado em DN1 Func t functtrit2 DN11TquadFuncabtol a função quad m de MATLAB usada para cálculo da integral for i1N Figura 222 Coeficientes da série de Fourier exponencial da repetição de Δt2 com período T 4 1 2 211 a b 213 214 REFERÊNCIAS P L Walker The Theory of Fourier Series and Integrals WileyInterscience New York 1986 R V Churchill and J W Brown Fourier Series and Boundary Value Problems 3rd ed McGrawHill New York 1978 EXERCÍCIOS Determine a energia de cada um dos sinais representados na Fig E211 Comente os efeitos de mudança de sinal translação temporal e multiplicação do sinal por dois sobre a energia Qual é o efeito sobre a energia se o sinal for multiplicado por k Figura E211 Determine E x e E y energias dos sinais xt e yt mostrados na Fig E212a Esboce os gráficos dos sinais xt yt e xt yt e mostre que a energia de qualquer um desses sinais é igual a E x E y Repita o procedimento para o par de sinais na Fig E212b Agora repita o procedimento para o par de sinais na Fig E212c Nesse caso as energias dos sinais xt yt e xt yt são iguais Determine a energia de uma senoide C cosω 0 t θ Mostre que se ω 1 ω 2 a potência de gt C 1 cos ω 1 t θ 1 C 2 cos ω 2 t θ 2 é 2C 1 C 2 cos θ1 θ22 que não é igual a 215 216 Figura E212 Determine a potência do sinal periódico gt mostrado na Fig E215 Determine também a potência e valor rms de a gt b 2gt e c cgt Comente os resultados Figura E215 Determine a potência e valor rms dos sinais na a Fig E216a b Fig 216 c Fig E216b d Fig E274a e Fig E274c Figura E216 217 218 221 231 232 Mostre que a potência de um sinal gt dado por é teorema de Parseval Determine a potência e o valor rms dos seguintes sinais Mostre que uma exponencial e at com início em não é um sinal de energia e nem um sinal de potência para qualquer valor real de a A seguir para a imaginário mostre que é um sinal de potência com potência P g 1 independentemente do valor de a Na Fig E231 o sinal g 1 t gt Expresse os sinais g 2 t g 3 t g 4 t e g 5 t em termos dos sinais gt g 1 t e de suas versões nas quais o eixo do tempo é deslocado dilatado e invertido Por exemplo g 2 t gt T g 1 t T para algum valor adequado de T Do mesmo modo g 3 t e g 4 t podem ser expressos como gt T gt T para algum valor adequado de T Por sua vez g 5 t pode ser expresso em termos de gt com o eixo do tempo deslocado dilatado e por fim gt multiplicado por uma constante Figura E231 Para o sinal gt mostrado na Fig E232 esboce gráficos dos seguintes sinais a gt b gt 6 c g3t d g6 t 233 234 235 236 Figura E232 Para o sinal gt mostrado na Fig E233 esboce gráficos dos seguintes sinais a gt 4 b gt15 c g2t 4 d g2 t Sugestão Lembrese de que a substituição de t por t T atrasa o sinal em T Portanto g2t 4 é g2t com t substituído por t 2 Da mesma forma g2 t é gt com t substituído por t 2 Figura E233 Para um sinal de energia gt com energia E g mostre que a energia de qualquer um dos sinais gt gt e gt T é E g Mostre também que a energia de gat e a de gat b são iguais a E g a Isso demonstra que a inversão e a translação temporais não afetam a energia de sinais Contudo a compressão temporal de um sinal por um fator a t substituído por at divide a energia pelo mesmo fator Qual é o efeito sobre a energia quando o sinal é a dilatado temporalmente por um fator a t substituído por at a 1 e b multiplicado por uma constante a Simplifique as seguintes expressões Sugestão Use a Eq 210b Para a parte f use a regra de LHôpital Calcule as seguintes integrais Sugestão δx está localizado em x 0 Por exemplo δ1 t está localizado em 1 t 0 ou seja em t 1 e assim por diante 237 241 242 243 244 245 a b c Prove que Depois mostre que Sugestão mostre que Deduza a Eq 219 de modo alternativo para isto observe que e g cx e Para minimizar e 2 iguale a zero sua derivada em relação a c Para os sinais gt e xt mostrados na Fig E242 determine a componente da forma de xt contida em gt Em outras palavras determine o valor ótimo de c na aproximação gt cxt de modo que a energia do sinal de erro seja mínima Qual é o valor da energia do resultante sinal de erro Figura E242 Para os sinais gt e xt mostrados na Fig E242 determine a componente da forma de gt contida em xt Em outras palavras determine o valor ótimo de c na aproximação xt cgt de modo que a energia do sinal de erro seja mínima Qual é o valor da energia do resultante sinal de erro Refaça o Exercício 242 para o caso em que xt é o pulso senoidal na Fig E224 Figura E244 As energias de dois sinais xt e yt são E x e E y respectivamente Se xt e yt forem ortogonais mostre que a energia do sinal xt yt é igual à energia do sinal xt yt e dada por Ex Ey Se xt e yt forem ortogonais determine as energias dos sinais c 1 xt c 2 yt e c 1 xt c 2 yt A energia cruzada de dois sinais de energia xt e yt E xy é definida como 246 a b 251 a b Se zt xt yt mostra que Sejam x 1 t e x 2 t dois sinais de energia unitária e ortogonais no intervalo de t t 1 a t 2 Como os sinais x 1 t e x 2 t têm energia unitária e são ortogonais podem ser representados como dois vetores ortogonais e de comprimentos unitários x 1 x 2 Considere um sinal gt dado por Este sinal pode ser representado como um vetor g por meio de um ponto c 1 c 2 no plano x 1 x 2 Determine neste espaço bidimensional a representação vetorial dos seguintes seis sinais Entre os seis vetores do item a identifique pares de vetores mutuamente ortogonais Verifique que os pares de sinais correspondentes a estes vetores também são ortogonais Determine os coeficientes de correlação c n do sinal xt e de cada um dos quatro pulsos g 1 t g 2 t g 3 t e g 4 t mostrados na Fig E251 Para garantir máxima margem contra ruído ao longo da rota de transmissão que par de pulsos você selecionaria para uma comunicação binária Figura E251 Esboce o gráfico do sinal gt t 2 e determine a série de Fourier exponencial para representar gt no intervalo 1 1 Esboce o gráfico da série de Fourier ϕt para todos os valores de t Comprove o teorema de Parseval Eq 268a para este caso dado que a b 273 a b c 274 Esboce o gráfico do sinal gt t e determine a série de Fourier exponencial para representar gt no intervalo π π Esboce o gráfico da série de Fourier ϕt para todos os valores de t Comprove o teorema de Parseval Eq 268a para este caso dado que Se um sinal periódico satisfizer certas condições de simetria a evolução dos coeficientes da série de Fourier pode ser um pouco simplificada Mostre que se gt gt simetria par os coeficientes da série de Fourier exponencial são reais Mostre que se gt gt simetria ímpar os coeficientes da série de Fourier exponencial são imaginários Mostre que em cada caso os coeficientes de Fourier podem ser calculados por meio da integração de sinais periódicos ao longo de apenas meio período Isso ocorre porque toda a informação de um período está implícita em um meio período devido à simetria Sugestão Se g et e g o t forem funções par e ímpar respectivamente de t então assumindo que não há impulso ou suas derivadas na origem Além disso o produto de uma função par por uma função ímpar é uma função ímpar o produto de duas funções pares é uma função par o produto de duas funções ímpares é uma função ímpar Para cada sinal periódico mostrado na Fig E274 determine a série de Fourier exponencial e esboce os gráficos dos espectros de amplitude e de fase Relate qualquer propriedade de simetria 275 a b 276 a Figura E274 Mostre que uma função arbitrária gt pode ser expressa como uma soma de uma função par g et e de uma função ímpar g o t Determine as componentes pares e ímpares das seguintes funções i ut ii e utut iii e jt Se em um período as duas metades de sinal periódico tiverem a mesma forma e fases opostas o sinal periódico tem simetria de meia onda Se um sinal periódico gt de período T 0 satisfizer a condição de simetria de meia b 281 a b onda então Neste caso mostre que todos os harmônicos coeficientes de ordem par são nulos Use este resultado para determinar a série de Fourier para os sinais periódicos na Fig E276 Figura E276 Um sinal periódico gt é expresso pela seguinte série de Fourier Aplique as identidades de Euler diretamente ao sinal gt e escreva sua série de Fourier exponencial Aplique as identidades de Euler diretamente ao sinal gt e esboce gráficos dos espectros da correspondente série de Fourier exponencial A função impulso também pode ser aproximada por outros pulsos como um triângulo positivo pulso exponencial ou pulso gaussiano De fato o espaço de sinais em consideração pode consistir em um conjunto de intervalos de tempo representado simplesmente por Θ No caso desses espaços de sinais mais genéricos o produto interno é definido como uma integral em todo o domínio temporal Θ Para sinais de valores complexos o produto interno é modificado para 228 Dada a definição de produto interno a norma do sinal e o espaço de sinais podem ser definidos para qualquer sinal no domínio do tempo Segundo a desigualdade de CauchySchwarz para dois sinais de energias reais sendo que a igualdade ocorre se e somente se xt Kgt em que K é uma constante arbitrária Existe uma desigualdade equivalente para sinais de valores complexos Conhecidos como conjunto de medida zero Na verdade isso não é necessário Em MATLAB as letras i e j são definidas internamente como representações da unidade imaginária embora possam também ser usadas para representar entidades genéricas NT E 31 ngenheiros eletricistas de modo instintivo quando pensam sobre sinais e sistema o fazem em termos de espectros de frequência e de respostas em frequência respectivamente Até mesmo adolescentes sabem que sinais de áudio têm largura de banda de 20 kHz e que altofalantes de boa qualidade devem responder até 20 kHz Isso significa pensar no domínio da frequência No capítulo anterior discutimos representações espectrais de sinais periódicos série de Fourier No presente capítulo estenderemos esta representação espectral a sinais aperiódicos REPRESENTAÇÃO DE SINAIS APERIÓDICOS ATRAVÉS DA INTEGRAL DE FOURIER Aplicaremos um processo de limite para mostrar que um sinal aperiódico pode ser expresso como uma soma contínua integral de exponenciais eternas Para representar um sinal aperiódico gt como o mostrado na Fig 31a em termos de exponenciais infinitas no tempo construamos um sinal periódico g T 0 t com a repetição do sinal gt a cada T 0 segundos como indicado na Fig 31b O período T 0 deve ser suficientemente longo para evitar sobreposição de pulsos repetidos O sinal periódico g T 0 t pode ser representado por uma série de Fourier exponencial Se fizermos T 0 os pulsos no sinal periódico se repetirão após um intervalo infinito de modo que Portanto no limite T 0 a série de Fourier que representa g T 0 t também representa gt A série de Fourier exponencial para g T 0 t é dada por com e Figura 31 Construção de um sinal periódico através da repetição periódica de gt Vale observar que integrar g T 0 t no intervalo T 02 T 02 é o mesmo que integrar gt em Portanto a Eq 32a pode ser expressa como É interessante notar como a natureza do espectro é alterada à medida que T 0 aumenta Para entender esse fascinante comportamento definamos Gf uma função contínua de ω como em que ω 2πf Um exame das Eqs 32c e 33 revela que E também que os coeficientes de Fourier D n são iguais a 1T 0 vezes as amostras de Gf uniformemente espaçadas a intervalos de f 0 Hertz como mostrado na Fig 32a Portanto 1T 0Gf é o envelope dos coeficientes D n Agora para tomar o limite T 0 dobremos o valor de T 0 sucessivamente Dobrar T 0 significa dividir por dois o valor da frequência fundamental f 0 ou seja dobrar o número de componentes amostras no espectro No entanto dobrar o valor de T 0 implica dividir a amplitude do envelope 1T 0Gf por dois como ilustrado na Fig 32b Se continuarmos com esse processo de dobrar o valor de T 0 sucessivamente o espectro se torna cada vez mais denso e sua magnitude menor Vale observar que no entanto a forma do espectro permanece a mesma proporcional a Gf da Eq 33 No limite à medida que T 0 f 0 0 e D n 0 Isso significa que o espectro se torna tão denso que as componentes espectrais são espaçadas por um intervalo nulo infinitesimal Ao mesmo tempo a amplitude de cada componente é zero infinitesimal Temos nada de tudo embora tenhamos algo Isto soa como Alice no País das Maravilhas e como veremos é característico de um fenômeno muito familiar Figura 32 Mudança no espectro de Fourier à medida que o período T 0 na Fig 31 é dobrado A substituição da Eq 35 na Eq 31 leva a À medida que T 0 f 0 1T 0 se torna infinitesimal f 0 0 Em consequência podemos substituir f 0 por uma notação mais apropriada Δf Em termos desta nova notação a Eq 32b passa a e a Eq 36 A Eq 37a mostra que g T 0 t pode ser expressa como uma soma de exponenciais infinitas no tempo de frequências 0 Δf 2Δf 3Δf a série de Fourier A amplitude da componente de frequência nΔf é GnΔfΔf No limite quando T 0 Δf 0 e g T 0 t gt Portanto A soma no lado direito da Eq 37b pode ser vista como a área sob a curva da função Gfe j 2πft como mostrado na Fig 33 Logo Figura 33 No limite T 0 a série de Fourier se torna a integral de Fourier A integral no lado direito da Eq 38 é denominada integral de Fourier Conseguimos então representar um sinal aperiódico gt por uma integral de Fourier em vez de uma série de Fourier Essa integral é basicamente no limite uma série de Fourier com frequência fundamental Δf 0 como visto na Eq 37b A amplitude da exponencial e j 2πnΔft é GnΔfΔf Assim a função Gf dada pela Eq 33 atua como uma função espectral Denominamos Gf a transformada de Fourier direta de gt e gt a transformada de Fourier inversa de Gf A mesma informação é transmitida quando dizemos que gt e Gf formam um par de transformadas de Fourier Simbolicamente isso é representado como ou Recapitulando e em que ω 2πf É interessante termos em mente que a integral de Fourier na Eq 39b tem a natureza de uma série de Fourier com frequência fundamental Δf que tende a zero Eq 37b Portanto a maioria das considerações sobre a série de Fourier assim como suas propriedades se aplica também à transformada de Fourier Podemos desenhar o gráfico do espectro Gf em função de f Como Gf tem valores complexos temos espectros de amplitude e de ângulo fase em que Gf é a amplitude e θ gf o ângulo ou fase de Gf Da Eq 39a f versus ω Na representação de sinais no domínio da frequência usamos as notações equivalentes de frequência angular ω e frequência f indiscriminadamente Não existe qualquer diferença conceitual entre o emprego de frequência angular ω cuja unidade é radiano por segundo e frequência cuja unidade é hertz Hz Dada a relação direta entre as duas frequências podemos substituir ω 2πf em Gf e obter a expressão da transformada de Fourier no domínio ω Devido ao fator adicional 2π na variável ω usada na Eq 310 a expressão da transformada inversa em função de ω requer uma divisão por 2π Portanto a notação em termos de f é em geral preferida na prática para a expressão de transformadas de Fourier Por isto neste livro denotaremos na maioria dos casos a transformada de Fourier de sinais como funções Gf A notação de frequência angular ω por sua vez também pode oferecer alguma conveniência na representação de senoides Assim em capítulos posteriores sempre que for conveniente e não gerar confusão usaremos as duas notações equivalentes de modo indiscriminado Propriedade de Simetria Conjugada A partir da Eq 39a concluímos que se gt for uma função de t de valores reais Gf e Gf são complexos conjugados ou seja Logo Assim para gt de valores reais o espectro de amplitude Gf é uma função par e o espectro de fase θ gf uma função ímpar de f Esta propriedade propriedade de simetria conjugada é válida apenas para funções gt de valores reais Esse resultado não deve causar surpresa pois foi obtido no Capítulo 2 para o espectro de Fourier de um sinal periódico A transformada Gf é a especificação de gt no domínio da frequência Exemplo 31 Determinemos a transformada de Fourier de e atut Por definição Eq 39a em que ω 2πf Expressando a jω na forma polar como obtemos Logo Figura 34 e at ut e correspondente espectro de Fourier Os espectros de amplitude Gf e de fase θ gf de e atut são mostrados na Fig 34b Observemos que Gf é uma função par de f e θ gf uma função ímpar de f como esperado Existência da Transformada de Fourier No Exemplo 31 observamos que quando a 0 a integral de Fourier para e atut não converge Em consequência a transformada de Fourier de e atut não existe para a 0 exponencial crescente Fica claro que nem todos os sinais podem ser transformados pela integral de Fourier A existência da transformada de Fourier é assegurada para qualquer gt que satisfaça as condições de Dirichlet sendo a primeira delas Para mostrar isso recordemos que e j2πft 1 Assim a partir da Eq 39a obtemos Isto mostra que a existência da transformada de Fourier fica assegurada se a condição 314 for satisfeita Caso contrário não há garantia Vimos no Exemplo 31 que a transformada de Fourier de um sinal exponencial crescente que viola essa condição não existe Embora tal condição seja suficiente não é necessária para a existência da transformada de Fourier de um sinal Por exemplo o sinal sen att viola a condição 314 mas tem uma transformada de Fourier Qualquer sinal que possa ser gerado na prática satisfaz as condições de Dirichlet e portanto tem uma transformada de Fourier Dessa forma a existência física de um sinal é uma condição suficiente para a existência de sua transformada de Fourier Linearidade da Transformada de Fourier Teorema da Superposição A transformada de Fourier é linear ou seja se então para quaisquer constantes a 1 e a 2 temos A prova é simples e resulta diretamente da Eq 39a Esse teorema simplesmente afirma que combinações lineares de sinais no domínio do tempo correspondem no domínio da frequência a combinações lineares de suas transformadas de Fourier Esse resultado pode ser estendido a um número finito arbitrário de termos para quaisquer constantes a k e sinais g k t Interpretação Física da Transformada de Fourier Para o entendimento de aspectos da transformada de Fourier devemos lembrar que a representação de Fourier é uma forma de expressar um sinal em termos de senoides infinitas no tempo ou exponenciais O espectro de Fourier de um sinal indica as amplitudes e fases relativas das senoides necessárias à síntese do sinal O espectro de Fourier de um sinal periódico tem amplitudes finitas e existe em frequências discretas f e seus múltiplos É fácil visualizar um espectro desse tipo mas no caso de sinais aperiódicos a visualização do espectro não é simples pois o mesmo é contínuo e existe em todas as frequências O conceito de espectro contínuo pode ser interpretado por meio da consideração de um fenômeno análogo e mais tangível Um exemplo familiar de uma distribuição contínua é o carregamento de uma viga Consideremos uma viga submetida à carga de pesos D 1 D 2 D 3 D n localizados em pontos uniformemente espaçados x 1 x 2 x n como mostrado na Fig 35a A carga total W T sobre a viga é dada pela soma das cargas localizadas nestes n pontos Consideremos o caso de uma viga submetida a uma carga contínua como ilustrado na Fig 35b Nesse caso embora pareça existir uma carga em cada ponto a carga em cada ponto é zero Isso não significa que não exista carga sobre a viga Nesse caso uma medida adequada do carregamento não é a carga em cada ponto mas a densidade de carga por unidade de comprimento no ponto Seja Gx a densidade de carga por unidade de comprimento da viga Isso significa que a carga sobre um comprimento de viga Δx Δx 0 em algum ponto x é GxΔx Para determinar a carga total sobre a viga dividimos a viga em segmentos de comprimento Δx Δx 0 A carga sobre o nésimo segmento de comprimento Δx é GnΔxΔx A carga total W T é então dada por No caso de carregamento discreto Fig 35a a carga total existe apenas nos n pontos discretos Nos outros pontos não há carga No caso de carregamento contínuo no entanto a carga existe em cada ponto mas em qualquer ponto específico x a carga é zero Contudo a carga em um pequeno comprimento de viga Δx é GnΔxΔx Fig 35b Dessa forma embora a carga em um ponto x seja zero a carga relativa neste ponto é Gx O espectro de um sinal é completamente análogo ao carregamento de uma viga Quando o sinal gt é periódico o espectro é discreto e gt pode ser expresso como a soma de exponenciais discretas e de amplitudes finitas No caso de um sinal aperiódico o espectro se torna contínuo ou seja o espectro existe para todos os valores de f mas a amplitude de cada componente espectral é zero Aqui a medida adequada não é a amplitude de uma componente em uma dada frequência mas a densidade espectral por unidade de largura de banda Da Eq 37b fica claro que gt é sintetizada por meio da soma de exponenciais da forma e j 2πnΔft onde a contribuição de qualquer uma das componentes exponenciais é zero Contudo a contribuição de exponenciais em uma largura de banda infinitesimal Δf localizada em f nΔf é GnΔf Δf e a adição de todas estas componentes produz a forma integral de gt A contribuição das componentes na largura de banda df é Gfdf em que df é a largura de banda em hertz Fica claro que Gf é a densidade espectral por unidade de largura de banda em hertz Figura 35 Analogia com a transformada de Fourier 32 Isso também significa que mesmo que a amplitude de uma componente qualquer seja zero a amplitude relativa de uma componente de frequência f é Gf Embora Gf seja uma densidade espectral na prática é costume denominála espectro de gt em vez de densidade espectral de gt Seguindo essa convenção chamaremos Gf de espectro de Fourier ou transformada de Fourier de gt TRANSFORMADAS DE ALGUMAS FUNÇÕES ÚTEIS Por conveniência a seguir introduziremos uma notação compacta para algumas funções úteis como as funções retangular triangular e de interpolação Função Retangular Unitária Usamos a notação Πx para representar um pulso retangular de altura e largura unitárias centrado na origem como ilustrado na Fig 36a Vale notar que o pulso retangular na Fig 36b é o pulso retangular unitário Πx expandido por um fator τ e portanto pode ser expresso como Πxτ Observemos ainda que o denominador τ em Πxτ indica a largura do pulso Função Triangular Unitária Usamos a notação Δx para representar um pulso triangular de altura e largura unitárias centrado na origem como ilustrado na Fig 37a Vale notar que o pulso na Fig 37b é o pulso Δxτ Observemos que como no caso do pulso retangular o denominador τ em Δxτ indica a largura do pulso Figura 36 Pulso retangular Figura 37 Pulso triangular 1 2 3 4 5 Figura 38 Pulso sinc Função Sinc sincx A função sen xx é a função seno dividido pelo argumento denotada por sinc x Essa função tem um papel importante no processamento de sinais Definimos Uma inspeção da Eq 318 mostra que sinc x é uma função par de x sinc x 0 quando sen x 0 exceto em x 0 em que a função é indeterminada Isso significa que sinc x 0 para t π 2π 3π Usando a regra de LHôpital determinamos sinc 0 1 sinc x é o produto de um sinal oscilatório sen x de período 2π por uma função monótona decrescente 1x Portanto sinc x exibe oscilações senoidais de período 2π cuja amplitude decresce continuamente na forma 1x Resumindo sinc x é uma função oscilatória par de amplitude decrescente A função tem um pico unitário em x 0 e cruza o eixo x em múltiplos inteiros de π A Fig 38a mostra um gráfico de sinc x Observemos que sinc x 0 para valores de x múltiplos inteiros positivos e negativos de π A Fig 38b mostra o gráfico de sinc 3ω7 O argumento 3ω7 π quando ω 7π3 ou f 76 Portanto o primeiro zero dessa função ocorre em ω 7π3 f 76 Exemplo 32 Determinemos a transformada de Fourier de gt Πtτ Fig 39a Figura 39 Pulso retangular e correspondente espectro de Fourier Temos Como Πtτ 1 para t τ2 e é zero para t τ2 Logo Recordemos que sinc x 0 quando x nπ Logo sinc ωτ2 0 quando ωτ2 nπ ou seja quando f nτ n 1 2 3 como ilustrado na Fig 39b Observemos que neste caso Gf é real portanto a informação espectral está contida em apenas um gráfico de Gf mostrado na Fig 39b Exemplo 33 Determinemos a transformada do sinal impulso unitário δt Usando a propriedade de amostragem da função impulso obtemos ou A Fig 310 mostra δt e seu espectro Figura 310 Impulso unitário e correspondente espectro de Fourier Exemplo 34 Determinemos a transformada de Fourier inversa de A partir da Eq 39b e da propriedade de amostragem da função impulso Portanto ou Isso mostra que o espectro de um sinal constante gt 1 é um impulso δf 2πδ 2πf como ilustrado na Fig 311 Figura 311 Sinal constante dc e correspondente espectro de Fourier Esse resultado Eq 321b também poderia ter sido obtido por uma análise qualitativa Recordemos que a transformada de Fourier de gt é uma representação espectral de gt em termos de componentes exponenciais infinitas da forma e j 2πft Para representar um sinal constante gt 1 precisamos apenas de uma exponencial infinita e j 2πft com f 0 Isso resulta em um espectro em uma única frequência f 0 Também poderíamos dizer que gt 1 é um sinal dc que tem uma única em um espectro em uma única frequência f 0 Também poderíamos dizer que gt 1 é um sinal dc que tem uma única componente de frequência em f 0 dc Se um impulso em f 0 é o espectro de um sinal dc o que representará um impulso em f f 0 Responderemos a esta pergunta no próximo exemplo Exemplo 35 Determinemos a transformada de Fourier inversa de δf f 0 Usando a propriedade de amostragem da função impulso obtemos Portanto Esse resultado mostra que o espectro de uma exponencial eterna e j 2πf0t é um único impulso em f f 0 Também chegaríamos a essa conclusão por uma análise qualitativa Para representar a exponencial infinita e j 2πf0t precisamos de uma única exponencial infinita e j 2πft com ω 2πf 0 Portanto o espectro consiste em uma única componente na frequência f f 0 Da Eq 322a temos Exemplo 36 Determinemos a transformada de Fourier da senoide eterna cos 2πf 0t Recordemos a fórmula de Euler Somando as Eqs 322a e 322b e usando a fórmula anterior obtemos O espectro de cos 2πf 0t consiste em dois impulsos em f 0 e f 0 no domínio da frequência ou dois impulsos em ω 0 2πf 0 no domínio ω como ilustrado na Fig 312 Esse resultado também poderia ter sido obtido por análise qualitativa Uma senoide infinita cos ω 0t pode ser sintetizada por duas exponenciais infinitas e jω 0t e e jω 0t Portanto o espectro consiste em apenas duas componentes de frequência em ω 0 e ω 0 Figura 312 Sinal cosseno e correspondentes espectro de Fourier 33 331 Exemplo 37 Determinemos a transformada de Fourier da função sgnt pronunciada signum de t mostrada na Fig 313 O valor da função é 1 ou 1 dependendo se t é positivo ou negativo Não podemos usar integração para determinar a transformada de sgnt diretamente pois sgnt viola a condição de Dirichlet ver Eq 314 e a nota de rodapé associada Para sermos específicos sgnt não é absolutamente integrável Contudo a transformada pode ser obtida considerando sgnt como a soma de duas exponenciais como mostrado na Fig 313 no limite quando a 0 Figura 313 Função signum Portanto ALGUMAS PROPRIEDADES DA TRANSFORMADA DE FOURIER Agora estudaremos algumas propriedades importantes da transformada de Fourier suas implicações e aplicações Antes de embarcarmos neste estudo devemos ressaltar um aspecto essencial da transformada de Fourier a dualidade tempofrequência Dualidade TempoFrequência As Eqs 39 mostram um fato interessante a notável similaridade entre as operações de transformação direta e inversa Essas operações necessárias para passar de gt a Gf e de Gf a gt são ilustradas graficamente na Fig 314 A única pequena diferença entre essas duas operações reside nos sinais opostos usados nos argumentos das exponenciais entre essas duas operações reside nos sinais opostos usados nos argumentos das exponenciais Figura 314 Quase simetria entre transformadas de Fourier direta e inversa Tabela 31 Pequena Tabela de Transformadas de Fourier 332 Essa similaridade tem amplas consequências no estudo de transformadas de Fourier e é a base da chamada dualidade entre tempo e frequência O princípio da dualidade pode ser comparado a uma fotografia e seu negativo Uma fotografia pode ser obtida de seu negativo e por meio de procedimento semelhante o negativo pode ser obtido da fotografia Para qualquer resultado ou relação envolvendo gt e Gf existe um resultado ou relação dual obtidoa por meio de troca dos papéis de gt e Gf no resultadorelação original juntamente com algumas pequenas modificações devido ao fator 2π e a uma mudança de sinal Por exemplo a propriedade de translação temporal que será provada posteriormente afirma que se gt Gf então O dual dessa propriedade propriedade de translação em frequência afirma que Observemos a troca de papéis entre tempo e frequência nestas duas equações com a pequena diferença devido à mudança de sinal no argumento da exponencial A utilidade desse princípio reside no fato de que sempre que deduzimos algum resultado podemos ter certeza de que existe um dual do mesmo Essa informação propicia um maior entendimento de muitas propriedades ou resultados inesperados em processamento de sinais As propriedades da transformada de Fourier são úteis não apenas no cálculo de transformadas direta e inversa de diversas funções mas também na obtenção de resultados valiosos em processamento de sinais Nesta discussão o leitor não deve deixar de observar a sempre presente dualidade entre tempo e frequência Iniciamos com a propriedade de dualidade que é uma das consequências do princípio de dualidade Propriedade de Dualidade A propriedade de dualidade afirma que e Pela propriedade de dualidade se a transformada de Fourier de gt for Gf a transformada de Fourier de Gt com f substituído por t é gf que é o sinal original no domínio do tempo com t substituído por f Prova A partir da Eq 39b Logo A substituição de t por f resulta na Eq 326 Exemplo 38 Neste exemplo aplicaremos a propriedade de dualidade Eq 326 ao par de funções na Fig 315a Figura 315 Propriedade de dualidade da transformada de Fourier Da Eq 319 temos 333 Gt tem a mesma forma de Gf apenas com f substituído por t gf é gt com t substituído por f Portanto a propriedade de dualidade 326 fornece Substituindo τ 2πα obtemos Na Eq 38 usamos o fato de que Πt Πt pois Πt é uma função par de t A Fig 315b mostra gráficos deste par de funções Observemos a troca de papéis entre t e 2πf com o pequeno ajuste do fator 2π Esse resultado aparece como o par 18 na Tabela 31 com τ2 W Como um exercício interessante propomos a aplicação da propriedade de dualidade para gerar o dual de cada par na Tabela 31 Propriedade de Dilatação no Tempo Se então para uma constante real positiva a Prova Para uma constante real positiva a Do mesmo modo pode ser mostrado que se a 0 Disto resulta a Eq 329 Importância da Propriedade de Dilatação no Tempo A função gat representa a função gt comprimida no tempo por um fator a a 1 Da mesma forma uma função Gfa representa a função Gf expandida em frequência pelo mesmo fator a A propriedade de dilatação temporal afirma que a compressão temporal de um sinal resulta em sua expansão espectral e que a expansão temporal de um sinal resulta em sua compressão espectral De modo intuitivo podemos perceber que a compressão temporal de um sinal por um fator a significa que o sinal varia mais rapidamente sendo a taxa de variação aumentada pelo mesmo fator Para sintetizar esse sinal as frequências de suas componentes senoidais devem ser aumentadas pelo fator a implicando que o espectro de frequências do sinal é expandido pelo fator a Outrossim a expansão temporal de um sinal o faz variar mais lentamente ou seja as frequências de suas componentes são reduzidas implicando a compressão do espectro de frequências Por exemplo o sinal cos 4πf 0t é o sinal cos 2πf 0t é comprimido no tempo por um fator 2 Fica claro que o espectro do primeiro impulsos em 2f 0 é uma versão expandida do espectro do último impulsos em f 0 O efeito da dilatação temporal é ilustrado na Fig 316 Figura 316 Propriedade de dilatação da transformada de Fourier Reciprocidade entre Duração de um Sinal e Sua Largura de Banda A propriedade de dilatação temporal implica que se a largura de gt aumentar seu espectro se torna mais estreito e viceversa Dobrar a duração de um sinal significa dividir sua largura espectral por dois e viceversa Isso sugere que a largura de banda de um sinal é inversamente proporcional à duração ou largura temporal em segundos Já comprovamos tal fato para o pulso retangular quando determinamos que a largura de banda de um pulso de duração τ segundos era 1τ Hz Uma discussão mais aprofundada sobre este interessante tema pode ser encontrada na literatura 2 Exemplo 39 Mostremos que A seguir usemos esse resultado e o fato de que e atut 1a j2πf para calcular as transformadas de Fourier de e atut e e at A Eq 330 resulta da Eq 329 com a 1 Aplicação da Eq 330 ao par 1 da Tabela 31 fornece e Logo 334 Gráficos do sinal e at e de seu espectro são mostrados na Fig 317 Figura 317 e at e correspondente espectro de Fourier Propriedade de Translação no Tempo Se então Prova Por definição Fazendo t t 0 x obtemos Esse resultado mostra que atrasar um sinal em t 0 segundos não altera seu espectro de amplitude O espectro de fase contudo sofre uma alteração de 2πft 0 Interpretação Física da Fase Linear O atraso temporal de um sinal provoca um deslocamento de fase linear no espectro do mesmo Esse resultado também pode ser obtido por meio de uma análise heurística Imaginemos que gt seja sintetizada por suas componentes de Fourier que são senoides de certas amplitudes e fases O sinal atrasado gt t 0 pode ser sintetizado pelas mesmas componentes senoidais cada uma atrasada em t 0 segundos As amplitudes das componentes não são alteradas portanto o espectro de amplitude de gt t 0 é idêntico ao de gt Contudo o atraso temporal t 0 aplicado a cada senoide altera a fase de cada componente Uma senoide cos 2πft atrasada de t 0 é dada por 335 Figura 318 Interpretação física da propriedade de translação no tempo Isso significa que um atraso temporal t 0 em uma senoide de frequência f se manifesta como um atraso de fase 2πft 0 que é uma função linear de f Isso implica que para um dado atraso temporal as componentes de frequências mais elevadas sofrerão deslocamentos de fase proporcionalmente mais altos Esse efeito é ilustrado na Fig 318 com duas senoides sendo a frequência da senoide na parte inferior da figura o dobro da frequência da senoide na parte superior O mesmo atraso temporal t 0 resulta em um deslocamento de fase de π2 na senoide de cima e um deslocamento de fase de π na outra senoide Isso comprova que para obter o mesmo atraso temporal senoides de frequências mais elevadas devem sofrer deslocamentos de fase proporcionalmente mais altos Exemplo 310 Determinemos a transformada de Fourier de e at t0 Essa função cujo gráfico é mostrado na Fig 319a é uma versão de e at cujo gráfico é mostrado na Fig 317a deslocada no tempo Das Eqs 331 e 332 temos O espectro de e at t 0 Fig 319b é igual ao de e at Fig 317b a menos do deslocamento de fase de 2πft 0 Figura 319 Efeito do deslocamento temporal no espectro de Fourier de um sinal Vale observar que o atraso temporal t 0 provoca um deslocamento de fase linear 2πft 0 no espectro Esse exemplo demonstra de maneira clara o efeito de um deslocamento temporal Propriedade de Translação na Frequência Se então Essa propriedade também é conhecida como propriedade de modulação Prova Por definição Essa propriedade afirma que a multiplicação de um sinal por um fator e j 2πf0t desloca o espectro do sinal por f f 0 Vale notar a dualidade entre as propriedades de translação no tempo e na frequência Substituindo f 0 por f 0 na Eq 334 obtemos Como e j 2πf0t não é uma função real que possa ser gerada o deslocamento em frequência é obtido na prática pela multiplicação de gt por uma senoide Isso pode ser visto de Das Eqs 334 e 335 temos Esse resultado mostra que a multiplicação de um sinal gt por uma senoide de frequência f 0 desloca o espectro Gf por f 0 Multiplicar gt por uma senoide cos 2πf 0t corresponde a modular a amplitude da senoide Esse tipo de modulação é conhecido como modulação em amplitude A senoide cos 2πf 0t é denominada portadora o sinal gt é o sinal modulante e o sinal gt cos 2πf 0t o sinal modulado Modulação e demodulação serão discutidas nos Capítulos 4 e 5 Para esboçar o gráfico do sinal gt cos 2πf 0t observemos que Portanto gt cos 2πf 0t toca gt quando a senoide cos 2πf 0t passa por seus picos positivos e toca gt quando cos 2πf 0t passa por seus picos negativos Isso significa que gt e gt atuam como envelopes para o sinal gt cos 2πf 0t ver Fig 320c O sinal gt é o reflexo de gt em relação ao eixo horizontal A Fig 320 mostra gráficos dos sinais gt gtcos 2πf 0t e dos respectivos espectros Translação do Espectro de Fase de um Sinal Modulado Podemos transladar a fase de cada componente espectral de um sinal modulado por um valor constante θ 0 simplesmente usando uma portadora cos 2πf 0t θ 0 no lugar de cos 2πf 0t Se um sinal gt for multiplicado por cos 2πf 0t θ 0 podemos fazer uso de um argumento similar ao empregado na dedução da Eq 336 e mostrar que Figura 320 Modulação em amplitude de um sinal causa deslocamento espectral Para um caso especial em que θ 0 π2 a Eq 337 se torna Vale notar que sen 2πf 0t é cos 2πf 0t com um atraso de fase de π2 Portanto deslocar a fase da portadora por π2 implica deslocar a fase de cada componente espectral por π2 As Fig 320e e 320f mostram gráficos do sinal gt sen 2πf 0t e de seu espectro Modulação é uma aplicação comum que desloca o espectro de sinais Em particular se diversos sinais de mensagem todos ocupando a mesma faixa de frequências forem transmitidos simultaneamente ao longo de um meio de transmissão comum interferirão mutuamente será impossível separálos ou recuperálos no receptor Por exemplo se todas as estações de rádio decidissem transmitir sinais de áudio simultaneamente os receptores não seriam capazes de separálos Esse problema é resolvido com o uso da modulação e a cada estação de rádio é alocada uma frequência portadora distinta Cada estação transmite um sinal modulado e dessa forma desloca o espectro do sinal à faixa de frequências a ela alocada que não é ocupada por qualquer outra estação Um receptor de rádio pode sintonizar uma estação qualquer selecionando a faixa de frequências da estação desejada O receptor deve então demodular o sinal recebido desfazer o efeito da modulação Demodulação portanto consiste em outro deslocamento espectral necessário para transladar o sinal à sua faixa original de frequências Sinais PassaFaixa A Fig 320df mostra que se g c t e g st forem sinais passabaixos cada um com largura de banda B Hz ou 2πB rads os sinais g c t cos 2πf 0t e g st sen 2πf 0t serão sinais passafaixa que ocupam a mesma faixa de frequências cada um com largura de banda 2B Hz Portanto uma combinação linear desses dois sinais também será um sinal passafaixa que ocupará a mesma faixa de frequências de cada um deles e terá a mesma largura de banda 2B Hz Assim em geral um sinal passafaixa g bpt pode ser expresso como Figura 321 Sinal passafaixa e correspondente espectro O espectro de g bpt é centrado em f 0 e tem largura de banda 2B como ilustrado na Fig 321 Embora os espectros de magnitude de g c t cos 2πf 0t e de g st sen 2πf 0t sejam simétricos em relação a f 0 o espectro de magnitude da soma desses sinais g bpt não é necessariamente simétrico em relação a f 0 Isto se deve ao fato de que as fases distintas dos dois sinais não permitem que suas amplitudes se somem diretamente pois Um sinal passafaixa típico g bpt e seu espectro são ilustrados na Fig 321 Podemos usar uma identidade trigonométrica bem conhecida para expressar a Eq 339 como em que Como g c t e g st são sinais passabaixos Et eψt também são sinais passabaixos Como Et é não negativo Eq 341a a Eq 340 indica que Et é um envelope de variação lenta e que ψt é uma fase de variação lenta do sinal passafaixa g bpt como ilustrado na Fig 321 Assim o sinal passafaixa g bpt será uma senoide cuja amplitude varia lentamente Devido à fase variante no tempo ψt a frequência da senoide também variará lentamente com o tempo em torno da frequência central f 0 Exemplo 311 Determinemos a transformada de Fourier de um sinal periódico gt de período T 0 e a seguir determinemos a transformada de Fourier do trem periódico de impulsos δ T 0 t mostrado na Fig 322a Figura 322 Trem de impulsos e correspondente espectro Um sinal periódico gt pode ser expresso por uma série de Fourier exponencial da seguinte forma 336 Logo Da Eq 322a temos A Eq 267 mostra que o trem de impulso δ T 0 t pode ser expresso por uma série de Fourier como Aqui D n 1T 0 Portanto da Eq 342 temos Logo o espectro de um trem de impulsos também é um trem de impulsos no domínio da frequência como ilustrado na Fig 323b Teorema da Convolução A convolução de duas funções gt e wt denotada por gt wt é definida pela integral A propriedade de convolução no domínio do tempo e sua dual a propriedade de convolução no domínio da frequência afirmam que se então convolução no domínio do tempo e convolução no domínio da frequência Essas duas relações do teorema da convolução afirmam que a convolução de dois sinais no domínio do tempo se torna uma multiplicação no domínio da frequência enquanto a multiplicação de dois sinais no domínio do tempo se torna a convolução no domínio da frequência Prova Por definição Prova Por definição A integral interna é a transformada de Fourier de g 2t τ dada por G 2fe j2πfτ propriedade de translação no tempo Eq 332a Logo A propriedade de convolução no domínio da frequência Eq 345 pode ser provada exatamente da mesma forma simplesmente trocando os papéis de gt e Gf Largura de Banda do Produto de Dois Sinais Se g 1t e g 2t tiverem larguras de banda B 1 e B 2 Hz respectivamente a largura de banda de g 1t g 2t é B 1 B 2 Hz Esse resultado advém da aplicação da propriedade de largura de banda da convolução 3 à Eq 345 Essa propriedade afirma que a largura de banda de x y é a soma das larguras de banda de x e de y Logo se a largura de banda de gt for B Hz a largura de banda de g 2t será 2B Hz e a largura de banda de g nt nB Hz Exemplo 312 Usando a propriedade de convolução no domínio do tempo mostremos que se então Como temos Agora da propriedade de convolução no domínio do tempo Eq 344 obtemos 337 Na dedução desse último resultado usamos o par 11 da Tabela 31 e a Eq 210a Diferenciação e Integração no Domínio do Tempo Se então diferenciação no domínio do tempo e integração no domínio do tempo Prova Diferenciando os dois lados da Eq 39b obtemos Isso mostra que Sucessivas aplicações desta propriedade levam a A propriedade de integração no domínio do tempo Eq 348 já foi provada no Exemplo 312 Exemplo 313 Usemos a propriedade de diferenciação no domínio do tempo para calcular a transformada de Fourier do pulso triangular Δtτ mostrado na Fig 323a Figura 323 Uso da propriedade de diferenciação no domínio do tempo para calcular a transformada de Fourier de um sinal linear por partes Para calcular a transformada de Fourier deste pulso o diferenciamos em relação ao tempo sucessivas vezes como indicado na Fig 323b e c A derivada de segunda ordem consiste em uma sequência de impulsos Fig 323c Recordemos que a derivada de um sinal em uma descontinuidade do tipo degrau é um impulso de amplitude igual à altura do degrau A função dgtdt tem um degrau ou salto positivo 2τ em t τ2 e um degrau negativo 4τ em t 0 Portanto Da propriedade de diferenciação no domínio do tempo Eq 349 temos Adicionalmente a propriedade de translação no tempo Eqs 332 fornece Tomando a transformada de Fourier da Eq 350 e usando os resultados da Eq 351 obtemos e O espectro Gf é ilustrado na Fig 323d Esse procedimento de cálculo da transformada de Fourier pode ser aplicado a qualquer função gt que consista em segmentos de reta com gt 0 quando t A derivada de segunda ordem de um sinal desse tipo é uma sequência de impulsos cujas transformadas de Fourier podem ser determinadas por inspeção Este exemplo sugere um método numérico para o cálculo da transformada de Fourier de um sinal arbitrário gt em que o sinal é aproximado por segmentos de reta Para facilitar a consulta diversas propriedades importantes da transformada de Fourier são resumidas na Tabela 32 Tabela 32 Propriedades de Operações com Transformada de Fourier 34 TRANSMISSÃO DE SINAL EM UM SISTEMA LINEAR Um sistema linear invariante no tempo LIT em tempo contínuo pode ser igualmente bem caracterizado no domínio do tempo ou no domínio da frequência O modelo de sistema LIT ilustrado na Fig 324 pode muitas vezes ser usado para caracterizar canais de comunicação Em sistemas de comunicação e no processamento de sinais o interesse reside apenas em sistemas lineares estáveis com entrada limitada e saída limitada sistemas BIBO boundedinputboundedoutput systems Uma discussão detalhada sobre estabilidade de sistemas pode ser encontrada em um livro de Lathi 3 Figura 324 Transmissão de um sinal através de um sistema linear invariante no tempo Um sistema LIT estável pode ser caracterizado no domínio do tempo por sua resposta ao impulso ht que é a resposta do sistema a um impulso unitário de entrada 341 342 A resposta do sistema a um sinal de entrada limitado xt é obtida da relação de convolução No domínio da frequência a relação entre os sinais de entrada e de saída é obtida da transformada de Fourier dos dois lados da Eq 353 Sejam Aplicando o teorema da convolução a Eq 353 passa a Em geral Hf a transformada de Fourier da resposta ao impulso ht recebe a denominação função de transferência ou resposta em frequência do sistema LIT É comum que Hf seja uma função de valores complexos podendo ser escrita como em que Hf é a resposta de amplitude e θ hf a resposta de fase do sistema LIT Distorção do Sinal Durante a Transmissão A transmissão de um sinal de entrada xt através de um sistema o transforma no sinal de saída yt A Eq 354 ilustra a natureza dessa transformação ou modificação Aqui Xf e Yf são os espectros de entrada e de saída respectivamente Portanto Hf é a resposta espectral do sistema O espectro de saída é obtido multiplicando o espectro de entrada pela resposta espectral do sistema A Eq 354 ressalta a formatação espectral ou modificação do sinal de entrada pelo sistema A Eq 354 pode ser expressa na forma polar como Assim obtemos as relações de amplitude e de fase Durante a transmissão o espectro de amplitude do sinal de entrada Xf é alterado para Xf Hf Do mesmo modo o espectro de fase do sinal de entrada θ x f é alterado para θ x f θ hf Uma componente espectral do sinal de entrada de frequência f é modificada em amplitude por um fator Hf e deslocada em fase por um ângulo θ hf Hf é a resposta de amplitude e θ hf a resposta de fase do sistema Os gráficos de Hf e θ hf em função de f mostram como o sistema modifica as amplitudes e fases das diversas entradas senoidais Por isso Hf é denominada resposta em frequência do sistema Durante a transmissão através do sistema algumas componentes de frequência podem ter a amplitude amplificada enquanto outras podem ter a amplitude atenuada As fases relativas das diversas componentes também são alteradas Em geral a forma de onda de saída será diferente da de entrada Transmissão sem Distorção Em diversas aplicações como amplificação de sinal ou transmissão de sinal de mensagem através de um canal de comunicação é necessário que a forma de onda de saída seja uma réplica da forma de onda de entrada Nesses casos é necessário minimizar a distorção causada pelo amplificador ou canal de comunicação Portanto a determinação das características de um sistema que permita a passagem de um sinal sem distorção transmissão sem distorção é de interesse prático A transmissão é sem distorção se a entrada e a saída tiverem formas de onda idênticas a menos de uma constante multiplicativa Uma saída atrasada que mantenha a forma de onda de entrada também é considerada sem distorção Assim na transmissão sem distorção a entrada xt e a saída yt satisfazem a condição A transformada de Fourier desta equação fornece Contudo como temos Esta é a função de transferência necessária para transmissão sem distorção Desta equação obtemos Isto mostra que para transmissão sem distorção a resposta de amplitude Hf deve ser constante e a resposta de fase θ hf uma função linear de f que passa pela origem em f 0 como ilustrado na Fig 325 A inclinação de θ hf em relação à frequência angular ω 2πf é t d onde t d é o atraso da saída em relação à entrada Figura 325 Resposta em frequência de um sistema linear invariante no tempo para transmissão sem distorção Sistemas PassaTudo versus Sistemas sem Distorção Na análise de circuitos e no projeto de filtros algumas vezes o maior interesse reside no ganho de um sistema Um sistema passa tudo tem ganho constante para todas as frequências ou seja Hf k sem a exigência de fase linear Notemos que pela Eq 357 um sistema sem distorção é um sistema passatudo embora a recíproca não seja verdadeira Como é muito comum que os principiantes se confundam com a diferença entre sistemas sem distorção e sistemas passatudo este é o melhor momento para esclarecer os conceitos Para comprovar como um sistema passatudo pode introduzir distorção consideremos um exemplo ilustrativo Imaginemos que queiramos transmitir um sinal musical gravado de um dueto violinovioloncelo O violino contribui com a parte de frequências altas desse sinal musical enquanto o violoncelo contribui com a parte de frequências baixas Quando esse sinal musical é transmitido através de um dado sistema passatudo as duas partes recebem o mesmo ganho Contudo suponhamos que esse sistema passatudo cause um atraso extra de um segundo no conteúdo de alta frequência da música a parte do violino Em consequência na recepção a audiência ouvirá um sinal musical que está totalmente fora de sincronismo embora todas as componentes do sinal tenham recebido o mesmo ganho e todas estejam presentes A diferença no atraso de transmissão das distintas componentes de frequência advém da fase não linear de Hf no filtro passatudo Para sermos mais precisos o ganho da função de transferência Hf determina o ganho de cada componente de frequência de entrada e Hf determina o atraso de cada componente Imaginemos que a entrada do sistema xt consista em múltiplas senoides suas componentes espectrais Para que o sinal de saída yt seja sem distorção o mesmo deve ser igual ao sinal de entrada multiplicado pelo ganho k e atrasado por t d Para sintetizar um sinal desse tipo yt precisa ter exatamente as mesmas componentes de xt sendo cada uma multiplicada por k e atrasada por t d Isso significa que a função de transferência do sistema Hf deve ser tal que cada componente senoidal receba o mesmo ganho ou perda k e sofra o mesmo atraso temporal t d segundos A primeira condição requer que 35 Vimos anteriormente Seção 33 que para que todas as componentes de frequências sofram o mesmo atraso temporal t d é necessário um atraso de fase linear 2πft d Fig 318 que passe pela origem Na prática muitos sistemas têm característica de fase que pode apenas ser aproximada como linear Um método conveniente para verificar a linearidade de fase consiste em traçar o gráfico da inclinação de Hf em função da frequência A inclinação pode ser uma função de f no caso geral dada por Se a inclinação de θ h for constante ou seja se θ h for linear em relação a f todas as componentes de frequência sofrerão o mesmo atraso temporal t d Se a inclinação não for constante o atraso temporal t d variará com a frequência Isso significa que diferentes componentes de frequência sofrerão diferentes atrasos temporais e em consequência a forma de onda de saída não será uma réplica da forma de onda de entrada como no exemplo do dueto de violinovioloncelo Para que a transmissão de um sinal seja sem distorção t d f deve ser uma constante t d em toda a faixa de frequências de interesse Existe então uma clara distinção entre sistemas passatudo e sistemas sem distorção Um erro comum consiste em pensar que a planura da resposta de amplitude Hf baste para garantir a qualidade do sinal Um sistema que tenha uma resposta de amplitude plana pode distorcer um sinal a ponto de tornálo irreconhecível caso a resposta de fase não seja linear t d não constante Natureza da Distorção em Sinais de Áudio e de Vídeo De modo geral um ouvido humano é capaz de perceber prontamente uma distorção de amplitude embora seja insensível a distorção de fase Para que a distorção de fase se torne perceptível a variação no atraso temporal variação da inclinação de θ h deve ser comparável à duração do sinal ou a duração fisicamente perceptível se o sinal propriamente dito seja longo No caso de sinais de áudio cada sílaba falada pode ser considerada um sinal individual A duração média de uma sílaba falada é da ordem de 001 a 01 segundo Embora sistemas de áudio possam ter resposta de fase não linear é possível que nenhuma distorção perceptível resulte pois em sistemas de áudio usados na prática a variação máxima na inclinação de θ h é apenas uma pequena fração de um milissegundo Essa é a justificativa da afirmação o ouvido humano é relativamente insensível à distorção de fase 4 Um resultado disso é o fato de os fabricantes de equipamentos de áudio disponibilizarem apenas Hf a característica de resposta de amplitude de seus sistemas No caso de sinais de vídeo a situação é exatamente oposta O olho humano é sensível à distorção de fase e relativamente insensível à distorção de amplitude Em sinais de televisão a distorção de amplitude se manifesta como uma destruição parcial dos valores relativos de meiostons da imagem resultante o que não é prontamente percebido pelo olho humano A distorção de fase resposta de fase não linear por sua vez causa atrasos temporais diferentes aos distintos elementos da imagem Isso resulta em uma imagem embaralhada o que é imediatamente percebido pelo olho humano A distorção de fase também é importante em sistemas de comunicação digital pois a característica de fase não linear de um canal causa dispersão alargamento temporal dos pulsos o que resulta em interferência entre pulsos vizinhos Essa interferência pode provocar erros na amplitude dos pulsos no receptor um 1 binário pode ser interpretado como 0 e viceversa FILTROS IDEAIS VERSUS FILTROS PRÁTICOS Filtros ideais permitem a transmissão sem distorção de uma determinada faixa de frequências e suprimem todas as outras frequências O filtro passabaixos ideal Fig 326 por exemplo permite que todas as componentes de frequência abaixo de f B Hz passem sem distorção e suprime todas as componentes acima de f B A Fig 327 mostra características de filtros passaaltos e passafaixa ideais O filtro passabaixos ideal na Fig 326a tem inclinação de fase linear t d que resulta em um atraso temporal de t d segundos para todas as componentes de frequências abaixo de B Hz Portanto se o sinal de entrada gt for limitado em banda a B Hz a saída yt será igual a gt atrasado por t d ou seja Figura 326 Resposta em frequência de um filtro passabaixos ideal e correspondente resposta ao impulso Figura 327 Respostas em frequência de filtros passaaltos e passafaixa ideais O sinal gt é transmitido por esse sistema sem distorção mas com atraso temporal t d Para este filtro Hf Πf2B e θ hf 2πft d de modo que A resposta ao impulso unitário ht deste filtro pode ser obtida do par 18 na Tabela 31 e da propriedade de translação no tempo Recordemos que ht é a resposta do sistema ao impulso unitário δt aplicado em t 0 A Fig 326b ilustra um fato curioso a resposta ht tem início antes mesmo da aplicação da entrada em t 0 É óbvio que o filtro é não causal e portanto não realizável ou seja um sistema como este é fisicamente impossível pois nenhum sistema razoável é capaz de responder a uma entrada antes que a mesma seja aplicada ao sistema De modo similar podemos mostrar que outros filtros ideais como os filtros passaaltos e passafaixa mostrados na Fig 327 também não são fisicamente realizáveis Para um sistema fisicamente realizável ht deve ser causal ou seja No domínio da frequência esta condição é equivalente ao critério de PaleyWiner segundo o qual a condição necessária e suficiente para que Hf seja a resposta de amplitude de um sistema realizável ou causal é 36 361 Se Hf não satisfizer esta condição não será realizável Vale notar que se Hf 0 em uma banda finita qualquer lnHf nesta banda violando a condição 360 Se no entanto Hf 0 em uma única frequência ou em um conjunto de frequências discretas a integral na Eq 360 ainda pode ser finita embora o integrando seja infinito Portanto para um sistema fisicamente realizável Hf pode ser zero em algumas frequências mas não pode ser zero em uma faixa finita de frequências Segundo esse critério as características de filtros ideais Figs 326 e 327 são claramente não realizáveis Figura 328 Realização aproximada de uma característica de filtro passabaixos ideal com truncamento da resposta ao impulso A resposta ao impulso ht na Fig 326 não é realizável Uma abordagem prática ao projeto de filtros consiste em cortar a cauda de ht para t 0 A resultante resposta ao impulso é causal e dada por por ser causal Fig 328 é fisicamente realizável Se t d for suficientemente grande será uma boa aproximação de ht e o filtro correspondente será uma boa aproximação de um filtro ideal Esta realização de um filtro ideal é possível devido ao maior valor do atraso temporal t d Isso significa que o preço de uma boa aproximação física é um maior atraso na saída o que com frequência é verdade para sistemas não causais Teoricamente a realização da característica ideal requer um atraso t d Contudo um exame da Fig 327b mostra que um atraso t d de três ou quatro vezes πW fará com que seja uma boa versão aproximada de ht t d Por exemplo filtros de áudio devem passar frequências de até 20 kHz a maior frequência que o ouvido humano pode distinguir Neste caso um atraso t d da ordem de 10 4 segundo 01 ms seria uma escolha razoável No entanto a operação de truncamento corte da cauda de ht para tornála causal cria alguns problemas inesperados de espalhamento e vazamento espectrais que podem ser parcialmente corrigidos com o emprego de uma função de trancamento gradual para que a cauda de ht seja cortada de forma gradual e não de forma abrupta 5 Na prática podemos realizar uma variedade de características de filtros para aproximar características ideais Filtros práticos ou realizáveis têm resposta de amplitude Hf com características graduais sem descontinuidades do tipo degrau Por exemplo filtros de Butterworth ou de Chebychev são largamente utilizados em várias aplicações incluindo circuitos práticos de comunicação Sinais analógicos também podem ser processados de forma digital conversão AD Isto envolve amostragem quantização e codificação O resultante sinal digital pode ser processado por um pequeno computador digital especialmente projetado para converter a sequência de entrada na sequência de saída desejada A sequência de saída é convertida de volta ao desejado sinal analógico Um algoritmo especial para o computador digital de processamento pode ser usado para implementar uma dada operação com sinais por exemplo filtragem passabaixos passafaixa ou passaaltos O tema de filtragem digital foge um pouco do escopo deste livre Existem livros excelentes sobre esse assunto 3 DISTORÇÃO DE SINAL EM UM CANAL DE COMUNICAÇÃO Um sinal transmitido ao longo de um canal é distorcido por várias imperfeições do canal A seguir estudaremos a natureza da distorção de um sinal Distorção Linear Primeiro consideremos canais lineares invariantes no tempo Em um canal desse tipo a distorção do sinal pode ser causada por distorção de magnitude ou de fase ou ambas devido a características não ideais do canal Podemos determinar os efeitos que tais não idealidades terão sobre um pulso gt transmitido ao longo do canal Admitamos que o pulso exista em um intervalo a b e seja zero fora dele As componentes do espectro de Fourier do pulso terão um equilíbrio perfeito e delicado de magnitudes e fases de zero fora dele As componentes do espectro de Fourier do pulso terão um equilíbrio perfeito e delicado de magnitudes e fases de modo que a soma das mesmas forma precisamente o pulso gt no intervalo a b e é zero fora dele A transmissão de gt através de um canal ideal que satisfaz as condições de transmissão sem distorção não perturba esse equilíbrio pois um canal sem distorção multiplica todas as componentes pelo mesmo fator e as atrasa pelo mesmo intervalo de tempo Contudo se a resposta de amplitude do canal for não ideal ou seja se Hf não for constante esse delicado equilíbrio será quebrado e a soma de todas as componentes deixará de ser zero fora do intervalo a b Em resumo o pulso se espalhará ver Exemplo 314 O mesmo ocorre se a característica de fase do canal não for ideal ou seja se θ hf 2πft d Assim alargamento ou dispersão do pulso ocorrerá se a resposta de amplitude ou a resposta de fase não for ideal ou se ambas não forem ideais Distorção de canal linear alargamento temporal é particularmente danosa a sistemas de comunicação digital pois introduz o que é conhecido como interferência intersimbólica ISI InterSymbol Interference Em outras palavras ao ser transmitido através de um canal dispersivo um símbolo digital tende a se alargar além do intervalo de tempo a ele reservado Portanto símbolos adjacentes interferirão uns com os outros aumentando a probabilidade de erro de detecção no receptor Exemplo 314 A função de transferência de um filtro passabaixos Hf Fig 319a é dada por Um pulso gt limitado em banda a B Hz Fig 329b é aplicado à entrada desse filtro Determinemos a saída yt Figura 329 Pulso dispersado ao passar por um sistema que não é sem distorção A característica de fase desse filtro é ideal mas a de amplitude é não ideal Como gt Gf yt Yf e Vale notar que na dedução da Eq 362 como gt é limitado em banda a B Hz temos Fazendo uso da propriedade de translação no tempo e da Eq 332a obtemos 362 1 A saída é na verdade gt k2gt T gt T atrasado de t d Ou seja a saída consiste em gt e seus ecos deslocados por t d A dispersão do pulso causada pelos ecos fica evidente na Fig 329c Se Hf representar resposta ideal de amplitude e resposta não ideal de fase o efeito será similar ver Exercício 361 Distorção Causada por Não Linearidades do Canal Até aqui consideremos o canal como linear Essa aproximação é válida apenas para pequenos sinais Para sinais de grande amplitude não linearidades não podem ser desprezadas Uma discussão detalhada de sistemas não lineares está além do escopo deste livro Consideraremos um caso simples de um canal não ideal sem memória onde a entrada g e a saída y se relacionam por alguma equação não linear sem memória O lado direito dessa equação pode ser expandido em uma série de Maclaurin como Recordemos o resultado na Seção 336 convolução segundo o qual se a largura de banda de gt for B hz então a largura de banda de g k t será kB Hz Portanto a largura de banda de yt é maior que kB Hz Em consequência o espectro de saída será mais largo que o de entrada e o sinal de saída conterá componentes de frequências não contidas no sinal de entrada Em comunicação por difusão é necessário amplificar sinais a níveis de potência muito elevados o que requer amplificadores de alta eficiência de classe C Infelizmente esses amplificadores são não lineares e ao serem usados na amplificação de sinais causam distorção Esse é um dos sérios problemas de sinais AM No entanto sinais FM não são afetados por distorção não linear como mostrado no Capítulo 5 Se um sinal for transmitido através de um canal não linear a não linearidade não apenas distorce o sinal mas também causa interferência em outros sinais no canal devido a sua dispersão alargamento espectral No caso de sistemas de comunicação digital o efeito da distorção não linear difere do efeito de alargamento temporal causado por distorção linear A distorção linear provoca interferência entre sinais em um mesmo canal enquanto a dispersão espectral devido à distorção não linear causa interferência entre sinais que usam diferentes canais de frequência Exemplo 315 A relação entre a entrada xt e a saída yt de um certo canal não linear é dada por Determinemos o sinal de saída yt e seu espectro Yf considerando um sinal de entrada xt 2000 sinc2000πt Comprovemos que a largura de banda do sinal de saída é o dobro da largura de banda do sinal de entrada Esse é o resultado de usar o quadrado de um sinal Será possível recuperar o sinal xt sem distorção da saída yt Como Temos Vale notar que 0316 2000 sinc 2 2000πt é o termo indesejado distorção no sinal recebido A Fig 330a mostra o espectro do sinal de entrada desejado Xf a Fig 330b mostra o espectro do termo indesejado distorção a Fig 330c mostra o espectro recebido Yf Façamos as seguintes observações A largura de banda do sinal recebido yt é o dobro da largura de banda do sinal de entrada xt pois o sinal foi elevado ao quadrado 2 3 4 5 sinal foi elevado ao quadrado O sinal recebido contém o sinal de entrada xt e o sinal indesejado 632 sinc 2 2000πt Os espectros desses dois sinais são ilustrados na Fig 330a e b A Fig 330c mostra Yf o espectro do sinal recebido Os espectros do sinal desejado e do sinal de distorção se sobrepõem o que impede que o sinal xt seja recuperado do sinal yt sem alguma distorção Podemos reduzir a distorção aplicando o sinal recebido a um filtro passabaixos com largura de banda de 1000 Hz O espectro da saída desse filtro é ilustrado na Fig 330d A saída do filtro é o sinal de entrada desejado xt com alguma distorção residual Figura 330 Distorção de sinal causada por operação não linear a Espectro do sinal desejado de entrada b Espectro do sinal indesejado distorção no sinal recebido c Espectro do sinal recebido d Espectro do sinal recebido após filtragem passabaixos Haverá um problema adicional de interferência com outros sinais caso o sinal de entrada xt seja multiplexado por divisão em frequência juntamente com outros sinais nesse mesmo canal Isso significa que vários sinais que ocupam faixas de frequências que não se sobrepõem são transmitidos simultaneamente no mesmo canal Se o espectro Xf se alargar além de sua banda original de 1000 Hz interferirá com o sinal que ocupa a faixa de frequências entre 1000 e 2000 Hz Assim em adição à distorção de xt haverá interferência com a banda adjacente Se xt fosse um sinal digital consistindo em um trem de pulsos cada pulso seria distorcido mas não haveria interferência entre pulsos adjacentes Mesmo com pulsos distorcidos os dados podem ser recebidos sem perda pois comunicação digital é capaz de suportar considerável distorção de pulsos sem perda de informação Portanto se esse canal fosse usado para transmitir um sinal multiplexado por divisão no tempo e consistindo em dois trens de pulsos entrelaçados os dados nos dois trens seriam recuperados no receptor 363 recuperados no receptor Distorção Causada por Efeitos de Multipercurso Uma transmissão em multipercurso ocorre quando um sinal transmitido chega ao receptor por dois ou mais percursos com atrasos distintos Por exemplo se um sinal for transmitido através de um cabo que apresenta irregularidades descasamento de impedâncias ao longo do percurso o sinal chegará ao receptor na forma de uma onda direta mais diversas reflexões com atrasos variáveis No caso de enlaces de rádio o sinal pode ser recebido de um percurso direto entre as antenas transmissora e receptora e também de reflexões por outros objetos como montanhas e edifícios Em enlaces de rádio de longa distância que utilizam a ionosfera efeitos similares ocorrem por conta de percursos de um e de múltiplos saltos Em cada caso o canal de transmissão pode ser representado como vários canais em paralelo cada um com diferentes valores de atenuação relativa e de atraso temporal Consideremos o caso de apenas dois percursos um com ganho unitário e atraso t d e outro com ganho α e atraso t d Δt como ilustrado na Fig 331a As funções de transferências dos dois percursos são dadas e j 2πftd e α ej2πftd Δt respectivamente A função de transferência global de um canal como esse é Hf dada por As características de amplitude e de fase de Hf são periódicas em f com período 1Δt Fig 331b O canal de multipercurso pode portanto exibir não idealidades nas características de amplitude e de fase e pode causar distorção linear dispersão de pulsos como discutido anteriormente Se por exemplo os ganhos dos dois percursos forem muito próximos ou seja se α 1 os sinais recebidos nos dois percursos podem ter fases opostas defasadas por π radianos em certas frequências Isso significa que em frequências nas quais os dois percursos resultam em fases opostas os sinais dos dois percursos quase se cancelarão mutuamente A Eq 364b mostra que em frequências tais que f n2Δt n ímpar cos 2πfΔt 1 e Hf 0 quando α 1 Essas são as frequências denulo devido a multipercurso Nas frequências f n2Δt n par os dois sinais interferirão de forma construtiva reforçando o ganho Tais canais são responsáveis pelo desvanecimento seletivo em frequência de sinais transmitidos Esse tipo de distorção pode ser parcialmente corrigido com o emprego de um equalizador com linha de retardo gradual como mostrado no Exercício 362 Tais equalizadores são úteis em várias aplicações em comunicação o projeto dos mesmos é abordado nos Capítulos 7 e 12 364 37 371 Figura 331 Transmissão em multipercurso Canais com Desvanecimento Até aqui presumimos que as características do canal eram constantes no tempo Na prática encontramos canais cujas características de transmissão variam com o tempo Por exemplo canais baseados no espalhamento troposférico e canais que para alcançar comunicação de longa distância utilizam a ionosfera para a reflexão de rádio As variações temporais das propriedades do canal têm origem em alterações semiperiódicas e aleatórias das características de propagação do meio As propriedades de reflexão da ionosfera por exemplo estão relacionadas às condições meteorológicas que sofrem mudanças sazonais diárias ou até mesmo horárias assim como acontece com o clima Períodos de tempestades repentinas também ocorrem Portanto a função de transferência efetiva do canal varia de modo semiperiódico e aleatório causando atenuação randômica do sinal Esse fenômeno é conhecido como desvanecimento Efeitos de desvanecimento lento podem ser reduzidos com o emprego de controle automático de ganho AGC Automatic Gain Control O desvanecimento poder exibir grande dependência da frequência de modo que diferentes componentes de frequência são afetadas de modo não uniforme Este tipo de desvanecimento conhecido como desvanecimento seletivo em frequência pode causar sérios problemas às comunicações Propagação em multipercurso pode originar desvanecimento seletivo em frequência ENERGIA E DENSIDADE ESPECTRAL DE ENERGIA DE SINAIS A energia E g de um sinal gt é definida como a área sob a curva de gt 2 A energia também pode ser calculada da transformada de Fourier Gf através do teorema de Parseval Teorema de Parseval A energia de um sinal pode ser relacionada ao espectro do sinal Gf por substituição da Eq 39b na Eq 22 Nesta equação usamos o fato de que gt por ser o complexo conjugado de gt pode ser expresso como o conjugado do lado direito da Eq 39b Agora trocando a ordem de integração obtemos 372 Este último resultado é o conhecido teorema de Parseval Um resultado similar foi obtido na Eq 268 para um sinal periódico e sua série de Fourier O teorema de Parseval permite que determinemos a energia de um sinal tanto de sua especificação no domínio do tempo gt como de sua especificação no domínio da frequência Gf Exemplo 316 Comprovemos o teorema de Parseval para o sinal gt e atut a 0 Temos Agora determinemos E g do espectro do sinal Gf dado por e da Eq 365 o que comprova o teorema de Parseval Densidade Espectral de Energia ESD Uma interpretação da Eq 365 nos diz que a energia de um sinal gt é o resultado das energias contribuídas por todas as componentes espectrais do sinal gt A contribuição de uma componente espectral de frequência f é proporcional a Gf 2 Para detalhar um pouco mais consideremos um sinal gt aplicado à entrada de um filtro passafaixa ideal cuja função de transferência Hf é mostrada na Fig 332a Esse filtro suprime todas as frequências exceto aquelas em uma estreita faixa Δf Δf 0 centrada na frequência f 0 Fig 332b Seja yt a saída do filtro então sua transformada de Fourier Yf é GfHf e a energia E y de yt é dada por 373 Figura 332 Interpretação da densidade espectral de energia de um sinal Como Hf 1 na banda passante Δf e é zero em todas as outras frequências a integral no lado direito é a soma das duas áreas hachuradas na Fig 332b logo para Δf 0 Portanto 2Gf 2df é a energia contribuída pelas componentes espectrais contidas nas duas bandas estreitas cada uma com largura Δf Hz centradas em f 0 Podemos então interpretar Gf 2 como a energia por unidade de largura de banda em hertz das componentes espectrais de gt centradas na frequência f Em outras palavras Gf 2 é a densidade espectral de energia por unidade de largura de banda em hertz de gt Na verdade como as componentes de frequências positivas e negativas se combinam para formar as componentes na banda Δf a energia contribuída por unidade de largura de banda é 2Gf 2 Contudo por conveniência consideramos frequências positivas e negativas como independentes Assim a densidade espectral de energia ESD Energy Spectral Density Ψ gf é definida como e a Eq 365 pode ser expressa como Dos resultados do Exemplo 316 a ESD do sinal gt e atut é Largura de Banda Essencial de um Sinal O espectro da maioria dos sinais se estende ao infinito Contudo como a energia de um sinal prático é finita o espectro do sinal deve tender a 0 quando f A maior parte da energia do sinal está contida em uma certa banda de B Hz e a energia contribuída pelas componentes de frequência maiores que B Hz é desprezível Podemos então suprimir o espectro do sinal que se estende além de B Hz com pequeno efeito na forma e na energia do sinal A largura de banda B é denominada largura de banda essencial do sinal O critério para a determinação de B depende da tolerância ao erro em uma particular aplicação Podemos por exemplo selecionar B de modo que a largura de banda contenha 95 da energia do sinal O nível de energia pode ser maior ou menor que 95 dependendo da precisão necessária Podemos fazer uso de um critério como este para determinar a largura de banda essencial 95 dependendo da precisão necessária Podemos fazer uso de um critério como este para determinar a largura de banda essencial de um sinal A supressão de todas as componentes espectrais de gt fora da largura de banda essencial resulta em um sinal ĝt que é uma boa aproximação de gt Caso usemos o critério de 95 para a largura de banda essencial a energia do erro diferença gt ĝt será 5 de E g O exemplo a seguir ilustra o procedimento para estimar a largura de banda Exemplo 317 Estimemos a largura de banda essencial W em rads do sinal e atut para que a banda essencial contenha 95 da energia do sinal Neste caso e a ESD é Figura 333 Estimativa da largura de banda essencial de um sinal A ESD é ilustrada na Fig 333 A energia do sinal E g é a área sob a curva da ESD e já foi calculada como 12a Seja W rads a largura de banda essencial que contém 95 da energia total do sinal E g Isso significa que 12π vezes a área hachurada na Fig 333 é 0952a ou seja ou O valor da largura de banda essencial em hertz é Isso significa que na banda de 0 dc a 127 a rads 202 a Hz as componentes espectrais de gt contribuem com 95 da energia total do sinal todas as componentes espectrais restantes na banda de 202 a Hz a contribuem com apenas 5 da energia do sinal Exemplo 318 Estimemos a largura de banda essencial de um pulso retangular gt ΠtT Fig 334a para que a largura de banda essencial contenha pelo menos 90 da energia do pulso banda essencial contenha pelo menos 90 da energia do pulso Para este pulso a energia E g é E como Figura 334 a Função retangular EXFGNFGC b correspondente densidade espectral de energia e c fração da energia na banda B H 2 a ESD desse pulso é dada por 374 A ESD é ilustrada na Fig 334b como função de ωT e de fT sendo f a frequência em hertz A energia E B na banda de 0 a B Hz é dada por Fazendo 2πfT x na integral de modo que df dx2πT obtemos E como E g T temos A integral no lado direito é calculada numericamente um gráfico de E BE g em função de BT é mostrado na Fig 334c Notemos que 9028 da energia total do pulso gt estão contidos na banda B 1T Hz Portanto segundo o critério de 90 a largura de banda de um pulso retangular de largura T segundos é 1T Hz Energia de Sinais Modulados Vimos que a modulação desloca o espectro de sinal Gf para a esquerda e a direita de f 0 A seguir mostraremos que algo semelhante ocorre com a ESD do sinal modulado Seja gt um sinal em banda base limitado a B Hz O sinal modulado em amplitude φt é dado por O espectro transformada de Fourier de φt é calculado como 375 Figura 335 Densidades espectrais de energia de sinais modulante e modulado A ESD do sinal modulado φt é Φf 2 ou seja Se f 0 B Gf f 0 e Gf f 0 não se sobrepõem ver Fig 335 e As ESDs de gt e do sinal modulado φt são mostradas na Fig 335 Fica claro que a modulação desloca a ESD de gt de f 0 Observemos que a área sob Ψ φ f é a metade da área sob Ψ gf Como a energia de um sinal é proporcional à área sob a curva da ESD concluímos que a energia de φt é a metade da energia de gt ou seja Pode parecer surpreendente que um sinal φt que aparenta ser tão energético em comparação com gt tenha apenas a metade da energia de gt As aparências enganam como sempre A energia de um sinal é proporcional ao quadrado de sua amplitude amplitudes mais altas contribuem mais para a energia O sinal gt mantém altos níveis de amplitude na maior parte do tempo O sinal modulado φt por sua vez devido ao fator cos 2πf 0t cai ao nível de amplitude zero muitas vezes o que reduz sua energia Função de Autocorrelação Temporal e Densidade Espectral de Energia No Capítulo 2 mostramos que uma boa medida de comparação de dois sinais gt e zt é a função de correlação cruzada ψ gzτ definida na Eq 246 Também definimos a correlação de um sinal gt com ele próprio função de autocorrelação ψ gτ na Eq 247 Para um sinal gt de valores reais a função de autocorrelação ψ gτ é dada por Fazendo x t τ na Eq 372a obtemos Nesta equação x é uma simples variável de integração e pode ser substituída por t Assim Isso mostra que para um sinal gt de valores reais a função de autocorrelação é uma função par de τ ou seja Existe na verdade uma relação muito importante entre a função de autocorrelação de um sinal e sua ESD Especificamente a função de autocorrelação de um sinal gt e sua ESD Ψ gf formam um par de transformadas de Fourier Logo Notemos que a transformada de Fourier da Eq 373a é calculada em relação a τ e não em relação a t A seguir mostraremos que a ESD Ψ gf Gf 2 é a transformada de Fourier da função de autocorrelação ψ gτ Embora esse resultado seja mostrado aqui para sinais de valores reais também é válido para sinais de valores complexos Devemos notar que a função de autocorrelação é uma função de τ e não de t Portanto sua transformada de Fourier é ψ gτe j 2πfτ dτ Assim A integral interna é a transformada de Fourier de gτ t que é gτ deslocado para a esquerda por t Portanto a transformada é dada por Gfe j 2πft segundo a propriedade de translação no tempo Eq 332a Portanto Isto completa a prova de que Uma análise cuidadosa da operação de correlação revela uma relação próxima com convolução De fato a função de autocorrelação ψ gτ é a convolução de gτ com gτ pois Aplicação da propriedade de convolução no domínio do tempo Eq 344 a esse resultado produz a Eq 374 ESD da Entrada e da Saída Sejam xt e yt respectivamente o sinal de entrada e o correspondente sinal de saída de um sistema linear invariante no tempo LIT logo 38 381 Portanto Isso mostra que Assim a ESD do sinal de saída é Hf 2 vezes a ESD do sinal de entrada POTÊNCIA E DENSIDADE ESPECTRAL DE POTÊNCIA DE SINAIS Para um sinal de potência uma medida razoável de seu tamanho é a potência definida na Eq 24 tomada como o valor médio da energia do sinal em um intervalo de tempo infinito A potência P g de um sinal de valores reais gt é dada por A potência do sinal e os conceitos a ela associados podem ser entendidos com facilidade se definirmos um sinal truncado g T t como O sinal truncado é ilustrado na Fig 336 A integral no lado direito da Eq 376 corresponde a E gT energia do sinal truncado g T t Assim Esta equação descreve a relação entre potência e energia de sinais não periódicos O entendimento desta relação auxiliará a compreensão de todos os conceitos associados a potência e energia assim como o relacionamento entre eles Como a potência de um sinal é o valor médio de sua energia todos os conceitos e resultados relativos à energia de um sinal também se aplicam à potência do sinal bastando que modifiquemos os conceitos de forma adequada tomando seus valores médios Densidade Espectral de Potência PSD Caso um sinal gt seja um sinal de potência sua potência é finita e o sinal truncado g T t é um sinal de energia desde que T permaneça finito Se g T t G T f do teorema de Parseval temos Portanto P g a potência de gt fica dada por 382 Figura 336 Processo de limite para o cálculo da PSD À medida que T aumenta a duração de g T t aumenta e sua energia E gT aumenta proporcionalmente Isso significa que G T f 2 também aumenta com T e quando T G T f 2 tende a Contudo G T f 2 deve tender a com a mesma taxa que T pois para um sinal de potência o lado direito da Eq 378 deve convergir Essa convergência permite que troquemos a ordem do processo de limite e da integração na Eq 378 e obtenhamos Definimos a densidade espectral de potência PSD power spectral density S gω como Logo Esse resultado reproduz o obtido Eq 369a para sinais de energia A potência é a área sob a curva da PSD Vale notar que a PSD é o valor médio temporal da ESD de g T t Eq 380 A PSD assim como a ESD é uma função par de f com valores reais e positivos Se gt for um sinal de tensão a unidade da PSD será volt quadrado por hertz Função de Autocorrelação Temporal de Sinais de Potência A função de autocorrelação temporal R g τ de um sinal de potência de valores reais gt é definida como Podemos lançar mão do mesmo argumento que usamos no caso de sinais de energia Eqs 372b e 372c para mostrar que R g τ é uma função par de τ Isso significa que para gt de valores reais e Para sinais de energia a ESD Ψ gf é a transformada de Fourier da função de autocorrelação ψ gτ Um resultado similar se aplica a sinais de potência Agora mostraremos que para um sinal de potência a PSD S gf é a transformada de Fourier da função de autocorrelação R g τ A partir da Eq 382b e da Fig 336 de autocorrelação R g τ A partir da Eq 382b e da Fig 336 Recordemos do teorema de WienerKhintchine que ψ gT τ G T f 2 Logo a transformada de Fourier da equação anterior nos fornece Embora tenhamos provado esses resultados para um sinal gt de valores reais as Eqs 380 381a 381b e 385 são igualmente válidas para sinais gt de valores complexos O conceito e relações associados à potência de sinal reproduzem os associados à energia de sinal Isso fica claro na Tabela 33 Tabela 33 A Potência de um Sinal É Seu Valor Quadrático Médio Um exame da Eq 376 revela que a potência do sinal é o valor médio temporal de seu valor quadrático Em outras palavras P g é o valor quadrático médio de gt Contudo devemos recordar que este é um valor médio temporal e não estatístico a ser discutido em capítulos posteriores Valores médios estatísticos são denotados por uma barra Assim o valor quadrático médio estatístico de uma variável x é denotado por x 2 Usaremos uma barra ondulada para denotar o valor médio temporal e distinguilo do valor médio estatístico Assim o valor quadrático médio temporal de gt será denotado por Valores médios temporais são em geral representados como g 2t No entanto usaremos a notação da barra ondulada pois é a associação de valor médio com barra ondulada é mais simples que com colchetes Com essa notação vemos que O valor rms de um sinal é a raiz quadrada de seu valor quadrático médio logo Da Eq 382 fica claro que para um sinal gt de valores reais a função de autocorrelação temporal R g τ é o valor médio temporal de gtgt τ Assim Esta discussão também explica por que dizemos autocorrelação temporal em vez de autocorrelação O objetivo é distinguir de forma clara essa função de autocorrelação um valor médio temporal da função de autocorrelação estatística um valor médio estatístico a ser introduzida no Capítulo 9 no contexto de teoria da probabilidade e processos aleatórios Interpretação da Densidade Espectral de Potência Interpretação da Densidade Espectral de Potência Como a PSD é o valor médio temporal da ESD de gt podemos seguir a mesma argumentação usada na interpretação da ESD Podemos mostrar prontamente que a PSD S gf representa a potência por unidade de largura de banda em hertz das componentes espectrais na frequência f A contribuição das componentes de frequência na banda de f 1 a f 2 à potência é dada por Método de Autocorrelação Uma Ferramenta Poderosa Para um sinal gt a ESD que é igual a Gf 2 também pode ser obtida da transformada de Fourier da correspondente função de autocorrelação Se a transformada de Fourier de um sinal basta para o cálculo da ESD por que complicar desnecessariamente nossa vida com a função de autocorrelação A razão para seguir esse caminho alternativo é estabelecer a base para tratar de sinais de potência e sinais aleatórios A transformada de Fourier de um sinal de potência em geral não existe Além disso o luxo de poder calcular a transformada de Fourier só é possível para sinais determinísticos que podem ser descritos como funções do tempo Sinais de mensagem aleatórios que ocorrem em problemas de comunicação por exemplo uma sequência aleatória de pulsos binários não podem ser descritos como funções do tempo o que torna impossível o cálculo de suas transformadas de Fourier Contudo a função de autocorrelação de sinais deste tipo pode ser calculada a partir da correspondente informação estatística Isso permite que determinemos a PSD informação espectral desses sinais De fato podemos considerar a abordagem da autocorrelação como a generalização de técnicas de Fourier a sinais de potência e sinais aleatórios O exemplo a seguir de um trem aleatório de pulsos binários ilustra de forma dramática o poder dessa técnica Exemplo 319 A Fig 337a mostra um trem aleatório de pulsos binários gt A largura do pulso é T b2 e um dígito binário é transmitido a cada T b segundos Um 1 binário é transmitido por um pulso positivo e um 0 binário por um pulso negativo Os dois símbolos têm a mesma probabilidade de ocorrência que é aleatória Determinemos a função de autocorrelação a PSD e a largura de banda essencial desse sinal Não podemos descrever esse sinal como uma função do tempo pois sua forma de onda por ser aleatória não é conhecida Podemos no entanto conhecer seu comportamento por meio de valores médios informação estatística A função de autocorrelação por ser um parâmetro de valor médio temporal do sinal é determinada da informação estatística média fornecida Temos Eq 382a Na Fig 337b as linhas sólidas representam gt e as tracejadas gt τ que é gt atrasado por τ Para obter o valor integral no lado direito da equação anterior multiplicamos gt por gt τ calculamos a área sob a curva do produto gtgt τ e dividimos o resultado pela largura T do intervalo Admitamos que há N bits pulsos neste intervalo T de modo que T NT b e N quando T Assim Consideremos primeiro o caso τ T b2 em que todos os pulsos de gt e de gt τ se sobrepõem região hachurada A área sob a curva do produto gtgt τ é para cada pulso T b2 τ Como há N pulsos no intervalo em que o valor médio é calculado a área total sob gt gt τ é NT b2 τ e Figura 337 Função de autocorrelação e função de densidade espectral de potência de um trem aleatório de pulsos binários Como R g τ é uma função par de τ como mostrado na Fig 337c À medida que aumentamos o valor de τ além de T b2 pulsos adjacentes passarão a se sobrepor Dois pulsos que se sobrepõem têm igual probabilidade de serem de mesma polaridade ou de polaridades opostas Portanto no intervalo de 383 sobrepõem têm igual probabilidade de serem de mesma polaridade ou de polaridades opostas Portanto no intervalo de sobreposição seu produto tem igual probabilidade de ser 1 ou 1 Na média metade dos produtos de pulsos será 1 combinações positivopositivo ou negativonegativo de pulsos e metade será 1 combinações positivonegativo ou negativopositivo de pulsos Em consequência a área sob a curva de gtgt τ será zero se a média for calculada em um intervalo de tempo de duração infinita T e As duas partes da Eq 389 mostram que neste caso a função de autocorrelação é a função triangular ½ ΔtT b obtida no Exemplo 313 ou na Tabela 31 par 19 pois A PSD é o quadrado da função sinc como mostrado na Fig 337d Do resultado no Exemplo 318 concluímos que 9028 da área deste espectro estão contidos na banda de 0 a 4πT b rads ou de 0 a 2T b Hz Assim a largura de banda essencial pode ser tomada como 2T b Hz presumindo um critério de 90 Este exemplo ilustra de forma dramática como a função de autocorrelação pode ser usada para obter informação espectral de um sinal aleatório quando métodos convencionais de obtenção da transformada de Fourier não forem aplicáveis Densidades Espectrais de Potência de Entrada e de Saída Como a PSD é o valor médio temporal da ESD a relação entre as PSDs dos sinais de entrada e de saída de um sistema linear invariante no tempo LIT é similar à existente entre as correspondentes ESDs Seguindo os argumentos usados no caso da ESD Eq 375 podemos mostrar que se gt e yt forem os sinais de entrada e de saída respectivamente de um sistema LIT com função de transferência Hf então Exemplo 320 Um sinal de ruído n it com PSD S nif K é aplicado à entrada de um diferenciador ideal Fig 338a Determinemos a PSD e a potência do sinal de ruído de saída n ot Figura 338 Densidades espectrais dos sinais de entrada e de saída de um diferenciador ideal 384 39 A função de transferência de um diferenciador ideal é Hf j2πf Se o ruído na saída do diferenciador for n ot da Eq 391 temos A PSD do sinal de saída S nof é parabólica como indicado na Fig 338c A potência de ruído de saída N o é a área sob a curva da PSD de saída Logo PSD de Sinais Modulados Seguindo o mesmo argumento empregado na dedução das Eqs 370 e 371 para sinais de energia podemos no caso de sinais de potência obter resultados similares se calcularmos valores médios Podemos mostrar que para um sinal de potência gt se a PSD S φ f de um sinal modulado φt é dada por Detalhes da dedução desse resultado são dados na Seção 78 Assim a modulação desloca a PSD de gt por f 0 A potência de φt é a metade da potência de gt ou seja CÁLCULO NUMÉRICO DA TRANSFORMADA DE FOURIER A DFT Para efetuar o cálculo numérico de Gf a transformada de Fourier de gt devemos utilizar amostras de gt Além disso conseguimos calcular Gf apenas em número discreto de frequências Assim podemos calcular somente amostras de Gf Por isso a seguir estabeleceremos algumas relações entre amostras de gt e de Gf Em cálculos numéricos os dados devem ser finitos Isso significa que o número de amostras de gt e de Gf deve ser finito Em outras palavras devemos lidar com sinais limitados no tempo Se um sinal não for limitado no tempo é necessário truncálo para que tenha duração finita O mesmo se aplica a Gf Consideremos inicialmente um sinal gt de duração τ segundo e início em t 0 como mostrado na Fig 339a Contudo por motivos que se tornarão claros mais adiante consideremos que a duração de gt seja T 0 com T 0 τ de modo que gt 0 no intervalo τ t T 0 como mostrado na Fig 339a Obviamente isso em nada afeta o cálculo de Gf Tomemos amostras de gt a intervalos uniformes de T s segundos o que produz um total de N 0 amostras com Figura 339 Relação entre amostras de gt e de Gf Mas Tomemos amostras de Gf a intervalos uniformes de largura f 0 Seja G q a qésima amostra ou seja G q Gqf 0 com isso a partir da Eq 395 temos em que Portanto a Eq 396 relaciona as mostras de gt às amostras de Gf Nesta dedução supomos que T s 0 Na prática não é possível fazer T s 0 o que aumentaria a quantidade de dados demasiadamente Devemos nos esforçar para fazer T s tão pequeno quanto possível do ponto de vista prático Isso resultará em algum erro computacional Cabe uma interessante observação à Eq 396 As amostras de G q são periódicas com período 2πΩ 0 Isto resulta da Eq 396 que mostra que G q2πΩ0 G q Assim apenas 2πΩ 0 amostras G q podem ser independentes A Eq 396 mostra que G q é determinada por N 0 valores independentes de g k Portanto para que exista uma única inversa para a Eq 396 deve haver somente N 0 amostras independentes de G q Isso significa que Em outras palavras temos Portanto o intervalo de amostragem espectral f 0 Hz pode ser ajustado por meio de uma escolha adequada de T 0 maior T 0 menor f 0 Com isto fica clara a motivação para escolher T 0 τ Quando T 0 é maior que τ temos várias amostras g k com valor zero no intervalo entre τ e T 0 Assim ao aumentar o número de amostras g k com valor zero reduzimos f 0 amostras de Gf mais próximas umas das outras produzindo mais detalhes de Gf Esse processo de redução de f 0 com a inclusão de amostras g k com valor zero é conhecido como preenchimento com zero Adicionalmente para um dado intervalo de amostragem T 0 um maior valor de T 0 implica maior N 0 Ou seja com a escolha de um valor suficientemente grande para N 0 podemos obter amostras de Gf tão próximas quanto possível Para determinar a relação inversa multiplicamos os dois lados da Eq 396 por e jm Ω0q e efetuamos a soma em q Trocando a ordem das somas no lado direito obtemos Para calcular o valor da soma interna no lado direito mostraremos que Para mostrar isto recordemos que Ω 0N 0 2π e e jn Ω0k 1 para n 0 N 0 2N 0 de modo que Para calcular a soma para outros valores de n notemos que a soma no lado esquerdo da Eq 3101 é uma série geométrica de razão α e jn Ω 0 Portanto a soma parcial dos primeiros N 0 termos é com Isso prova a Eq 3101 Assim a soma interna no lado direito da Eq 3100 é igual a zero para k m e igual a N 0 para k m Portanto a soma externa terá somente um termo não zero quando k m e este termo será N 0g k N 0g m Logo A Eq 3102 revela um fato interessante que g m N0 g m Isso significa que a sequência g k também é periódica com período N 0 correspondendo à duração temporal N 0T s T 0 segundos Adicionalmente G q também é periódica com período N 0 o que corresponde ao intervalo de frequência N 0f 0 T 0T sT 0 1T s f s hertz Notemos que 1T s é o número de amostras de gt por segundo Assim 1T s f s é a frequência de amostragem em hertz de gt Em outras palavras G q é periódica com período N 0 e se repete a cada f s Hz Resumamos os resultados obtidos até aqui Provamos o par de transformadas de Fourier discretas DFT discrete Fourier transform com As duas sequências g k e G q são periódicas com período N 0 Isso implica que g k se repete com um período de T 0 segundos e G q com um período de f s 1T s Hz a frequência de amostragem O intervalo de amostragem de g k é de T s segundos e o intervalo de amostragem de G q é de f 0 1T 0 Hz como indicado na Fig 339c e d Por conveniência usamos a variável de frequência f em hertz em vez de ω em radianos por segundo Presumimos que gt é limitado a τ segundos Isso torna Gf não limitado em frequência Em consequência a repetição do espectro G q como mostrado na Fig 339d causará sobreposição de componentes espectrais resultando em erro A natureza deste erro conhecido como erro de mascaramento aliasing error é explicado em detalhes no Capítulo 6 O espectro de G q se repete a cada f s Hz O erro de mascaramento é reduzido com o aumento de f s a frequência de repetição ver Fig 339d Em resumo o cálculo de G q por DFT tem erro de mascaramento quando gt é limitado no tempo Este erro pode ser feito tão pequeno quanto desejado com o aumento da frequência de amostragem f s 1T s ou com a redução do intervalo de amostragem T s O erro de mascaramento é um resultado direto da não satisfação na Eq 395 da exigência T s 0 Quando gt não é limitado no tempo precisamos truncálo para tornálo limitado no tempo Isso provocará erros adicionais em G q Esse erro pode ser reduzido tanto quanto desejado por meio do aumento adequado do intervalo de truncamento T 0 No cálculo da transformada de Fourier inversa por meio da DFT inversa na Eq 3103b encontramos problemas semelhantes Se Gf for limitado em frequência gt não será limitado no tempo e haverá sobreposição das repetições periódicas das amostras g k mascaramento no domínio do tempo Podemos reduzir o erro de mascaramento se aumentarmos T 0 o período de g k em segundos Isso equivale a reduzir o intervalo f 0 1T 0 entre as frequências em que amostras de Gf são colhidas Caso Gf não seja limitado em frequência será necessário truncálo Isto causará erro adicional no cálculo de g k Com o aumento da largura de banda de truncamento podemos reduzir esse erro Na prática funções janelas graduais são usadas para o truncamento 5 para reduzir a severidade de alguns problemas provocados por funções de truncamento abrupto também conhecidas como janela retangular Como G q é periódica com período N 0 precisamos determinar os valores de G q em qualquer período É comum para a determinação de G q considerar o período no intervalo 0 N 0 1 em vez de no intervalo N 02 N 02 1 Observação idêntica se aplica a g k Escolha dos Valores de T s T 0 e N 0 No cálculo de DFT primeiro precisamos selecionar valores adequados para N 0 T s e T 0 Para isso devemos antes especificar o valor de B a largura de banda essencial de gt Da Fig 339d fica claro que a sobreposição espectral mascaramento ocorre na frequência f s2 Hz Essa sobreposição espectral também pode ser interpretada como se o espectro além de f s2 sofresse uma dobra em f s2 Por conseguinte essa frequência também recebe a denominação frequência de dobramento Se a frequência de dobramento for escolhida de modo que o espectro Gf além da mesma seja desprezível o mascaramento ou sobreposição espectral não será relevante Portanto a frequência de dobramento deve ser pelo menos igual à maior frequência significativa ou seja a frequência além da qual Gf é desprezível Chamaremos essa frequência largura de banda essencial B em hertz Caso gt seja limitado em frequência sua largura de banda será igual à largura de banda essencial Assim Dado que o intervalo de amostragem T s 1f s Eq 3104 temos Uma vez determinado o valor de B podemos escolher o valor de T s segundo a Eq 3105b Como em que f é a resolução de frequência separação entre amostras de Gf caso f seja dado podemos selecionar o valor de T 310 em que f 0 é a resolução de frequência separação entre amostras de Gf caso f 0 seja dado podemos selecionar o valor de T 0 segundo a Eq 3106 Conhecidos os valores de T 0 e T s determinamos o de N 0 de Em geral se o sinal for limitado no tempo Gf não será limitado em frequência e haverá mascaramento no cálculo de G q Para reduzir o efeito de mascaramento precisamos aumentar a frequência de dobramento ou seja devemos reduzir o valor de T s intervalo de amostragem tanto quanto praticamente possível Se o sinal for limitado em frequência gt não será limitado no tempo de modo que haverá mascaramento sobreposição no cálculo de g k Para reduzir este mascaramento precisamos aumentar o valor de T 0 o período de g k Isso implica a redução do intervalo f 0 em hertz de amostragem em frequência Em qualquer dos casos redução de T s no caso de sinal limitado no tempo ou aumento de T 0 no caso de sinal limitado em frequência para maior precisão precisamos aumentar o número de amostras N 0 pois N 0 T 0T s Existem ainda sinais que não são limitados nem no tempo nem em frequência Para estes sinais devemos reduzir T s e aumentar T 0 Pontos de Descontinuidade Caso gt tenha em um ponto de amostragem uma descontinuidade do tipo degrau o valor da amostra deve ser tomado como a média dos valores nos dois lados da descontinuidade pois a representação de Fourier em um ponto de descontinuidade converge para o valor médio Uso de Algoritmo de FFT no Cálculo de DFT O número de contas necessário para o cálculo de uma DFT foi drasticamente reduzido em um algoritmo desenvolvido por Tukey e Cooley em 1965 6 Esse algoritmo conhecido como transformada de Fourier rápida FFT fast Fourier transform reduz o número de contas de algo da ordem de N 2 0 para N 0 log N 0 Para calcular o valor de uma amostra G r pela Eq 3103a precisamos de N 0 multiplicações complexas e N 0 1 adições complexas Para calcular N 0 valores de G r r 0 1 N 0 1 precisamos de um total de N 2 0 multiplicações complexas e N 0N 0 1 adições complexas Para grandes valores de N 0 isto pode exigir um tempo proibitivamente grande mesmo com o uso de computador de alta velocidade O algoritmo de FFT é um salvavidas em aplicações de processamento de sinais O algoritmo de FFT fica simplificado se escolhermos N 0 como uma potência de 2 embora isto não seja em geral necessário Detalhes da FFT podem ser encontrados em qualquer livro sobre processamento de sinais por exemplo Ref 3 EXERCÍCIOS COM O MATLAB Cálculo de Transformadas de Fourier Nesta seção de exercícios baseados em computador consideremos dois exemplos para ilustrar o uso de DFT no cálculo da transformada de Fourier Usaremos MATLAB para calcular a DFT com o algoritmo de FFT No primeiro exemplo o sinal é gt e 2tut com início em t 0 e no segundo gt Πt com início em t ½ EXEMPLO COMPUTACIONAL C31 Empreguemos a DFT implementada pelo algoritmo de FFT para calcular a transformada de Fourier de e 2tut e a seguir tracemos o gráfico do resultante espectro de Fourier Primeiro devemos determinar T s e T 0 A transformada de Fourier de e 2tut é 12πf 2 Esse sinal passafaixa não é limitado em frequência Tomemos sua largura de banda essencial como a frequência em que Gf se torna igual a 1 do valor de pico que ocorre em f 0 Observemos que O pico de Gf ocorre em f 0 em que G0 05 Portanto a largura de banda essencial B corresponde a f B com e da Eq 3105b Arredondemos esse valor para T s 0015625 segundo de modo que tenhamos 64 amostras por segundo Agora devemos determinar T 0 O sinal não é limitado no tempo Precisamos truncálo em T 0 tal que gT 0 1 Escolhamos T 0 4 oito constantes de tempo do sinal o que resulta em N 0 T 0T s 256 que é uma potência de 2 Vale ressaltar que há muita flexibilidade na determinação de T s e T 0 dependendo da precisão desejada e da capacidade computacional disponível Poderíamos ter escolhido T 0 8 e T s 132 o que também resultaria em N 0 256 mas implicaria um erro de mascaramento ligeiramente maior Como o sinal tem uma descontinuidade do tipo degrau em t 0 o valor da primeira amostra em t 0 é 05 média dos valores nos dois lados da descontinuidade O programa de MATLAB que implementa a DFT com o algoritmo de FFT é o seguinte Como G q tem período N 0 G q G q256 de modo que G 256 G 0 Portanto basta traçar o gráfico de G q no intervalo q 0 a q 255 e não 256 Além disso devido à periodicidade G q G q256 ou seja os valores de G q no intervalo q 127 a q 1 são idênticos aos valores de G q no intervalo q 129 a q 255 Logo G 127 G 129 G 126 G 130 G 1 G 255 Adicionalmente devido à propriedade de simetria conjugada da transformada de Fourier G q G q assim G 129 G 127 G 130 G 126 G 255 G 1 Consequentemente para sinais de valores reais não é necessário marcar no gráfico os valores de G q com q maior que N 02 128 neste caso pois são os complexos conjugados dos valores de G q com q 0 a 128 O gráfico do espectro de Fourier na Fig 340 mostra amplitude e fase das amostras de Gf tomadas em intervalos de 1T 0 14 Hz ou ω 0 15708 rads Na Fig 340 mostramos apenas os primeiros 28 pontos em vez dos 128 pontos para evitar o acúmulo excessivo de dados no gráfico Figura 340 Transformada de Fourier discreta de um sinal exponencial e 2t ut O eixo horizontal é ω em radianos por segundo Neste exemplo dispúnhamos da expressão analítica de Gf o que nos permitiu fazer escolhas INTELIGENTES para B ou frequência de amostragem f s Na prática em geral não conhecemos Gf Na verdade isso é exatamente o que desejamos calcular Nesses casos para determinar B ou f s devemos lançar mão de evidências circunstanciais Devemos sucessivamente reduzir o valor de T s e calcular a transformada até que o resultado satisfaça o desejado número de algarismos significativos A seguir calcularemos a transformada de Fourier de gt 8 Πt EXEMPLO COMPUTACIONAL C32 Empreguemos a DFT implementada pelo algoritmo de FFT para calcular a transformada de Fourier de 8 Πt e tracemos o gráfico do resultante espectro de Fourier Essa função retangular e sua transformada de Fourier são mostradas na Fig 341a e b Para determinar o valor do intervalo de amostragem T s devemos primeiro definir a largura de banda essencial B Da Fig 341b vemos que Gf decai lentamente com f Consequentemente a largura de banda essencial B é bastante grande Por exemplo em B 155 Hz 9739 rads Gf 01643 o que corresponde a cerca de 2 do valor de pico G0 Poderíamos então tomar a largura de banda essencial como 16 Hz No entanto deliberadamente tomaremos B 4 Hz por dois motivos 1 mostrar o efeito de mascaramento e 2 o uso de B 4 implicaria enorme número de amostras que não poderiam ser mostradas de forma adequada em uma página de livro sem perda de detalhes fundamentais Portanto aceitaremos a aproximação para que possamos esclarecer conceitos de DFT por meio de gráficos A escolha B 4 resulta em um intervalo de amostragem T s 12B 18 segundos Examinando novamente o espectro na Fig 341b vemos que a escolha da resolução de frequência f 0 14 Hz é razoável e corresponde a quatro amostras em cada lóbulo de Gf Neste caso T 0 1f 0 4 segundos e N 0 T 0T s 32 A duração de gt é de apenas 1 segundo Devemos repetir gt a cada 4 segundos como indicado na Fig 341c e tomar amostras a cada 0125 segundo Isso nos dará 32 amostras N 0 32 Também temos Como gt 8 Πt os valores de g k são 1 0 ou 05 nos pontos de descontinuidade como mostrado na Fig 341c nessa figura por conveniência g k é mostrado como função de t e de k Na dedução da DFT supomos que gt tem início em t 0 Fig 339a e tomamos N 0 amostras no intervalo 0 T 0 No caso em consideração contudo gt tem início em t ½ Essa dificuldade é facilmente resolvida quando observamos que a DFT obtida por este procedimento é na verdade a DFT de g k repetido a cada T 0 segundos Da Fig 341c fica claro que a repetição periódica do segmento de g k no intervalo de 2 a 2 segundos é equivalente à repetição do segmento de g k no intervalo de 0 a 4 segundos Portanto a DFT das amostras colhidas entre 2 e 2 segundos é igual à DFT das amostras colhidas entre 0 e 4 segundos Assim independentemente do instante em que gt tem início sempre podemos tomar as amostras de gt e repetilas periodicamente no intervalo de 0 a T 0 No presente exemplo os valores das 32 amostras são a gt b Gf c gk Figura 341 Transformada de Fourier discreta de um pulso retangular Vale ressaltar que a última amostra é tomada em t 318 e não em t 4 pois a repetição do sinal reinicia em t 4 de modo que a amostra em t 4 é igual à amostra em t 0 Com N 0 32 Ω 0 2π32 π16 Logo ver a Eq 3103a O programa MATLAB que usa o algoritmo de FFT para calcular a DFT é dado a seguir Primeiro escrevemos um programa MATLAB para gerar 32 amostras de g k e então calculamos a DFT A Fig 341d mostra o gráfico de G q As amostras G q são espaçadas de f 0 1T 0 Hz Neste exemplo T 0 4 segundos de modo que a resolução de frequência f 0 é ¼ Hz como desejado A frequência de dobramento f s2 B 4 Hz corresponde a q N 02 16 Como G a tem período N 0 N 0 32 os valores de G q para q entre 16 e 1 são iguais àqueles para q entre 16 e 31 A DFT nos fornece amostras do espectro Gf Para facilitar a comparação a Fig 341d também mostra a curva hachurada 8 sincπf que é a transformada de Fourier de 8 Πt Os valores de G q calculados pela DFT exibem erro de mascaramento o que fica claro quando comparamos os dois gráficos O erro em G 2 é da ordem de apenas 13 No entanto o erro de mascaramento aumenta rapidamente com r dois gráficos O erro em G 2 é da ordem de apenas 13 No entanto o erro de mascaramento aumenta rapidamente com r Por exemplo o erro em G 6 é de cerca de 12 e o erro em G 10 33 O erro em G 14 é de assustadores 72 O erro percentual aumenta de forma muito rápida nas proximidades da frequência de dobramento r 16 pois gt tem uma descontinuidade degrau o que faz com que Gf decaia muito lentamente como 1f Assim nas proximidades da frequência de dobramento a cauda invertida devido ao mascaramento é quase igual a Gf Além disso os valores extremos são a diferença entre os valores exato e da parte que sofreu dobra quase iguais aos exatos Consequentemente o erro percentual nas proximidades da frequência de dobramento r 16 neste exemplo é muito alto embora o erro absoluto seja muito pequeno Fica claro que para sinais com descontinuidades do tipo degrau o erro de mascaramento nas proximidades da frequência de dobramento sempre será grande em termos percentuais qualquer que seja o valor escolhido para N 0 Para garantir erro de mascaramento desprezível para qualquer valor de q devemos assegurar que N 0 q Essa observação se aplica a todos os sinais com descontinuidade do tipo degrau Filtragem Quando pensamos em filtragem em geral o fazemos em termos de uma solução orientada a hardware ou seja montagem de um circuito com componentes RLC e amplificadores operacionais Contudo a filtragem também admite uma solução orientada a software algoritmo computacional que fornece a saída filtrada yt para uma dada entrada gt Isso pode ser implementado de modo conveniente via DFT Seja gt o sinal a ser filtrado então os valores G q DFT de g k são calculados O espectro G q é formatado filtrado como desejado através da multiplicação de G q por H q em que H q são as amostras da função de transferência do filtro Hf H q Hqf 0 Por fim calculamos a DFT inversa ou IDFT de G qH q e obtemos a saída filtrada y k y k T sykT O próximo exemplo ilustra este procedimento EXEMPLO COMPUTACIONAL C33 O sinal gt na Fig 342a é aplicado a um filtro passabaixos ideal cuja função de transferência Hf é mostrada na Fig 342b Usemos a DFT para calcular a saída do filtro Figura 342 Filtragem de gt por Hf Já calculamos a DFT de gt com 32 amostras Fig 341d Agora devemos multiplicar G q por H q Para calcular H q recordemos que na determinação da DFT de gt com 32 amostras usamos f 0 025 Hz Como G q tem período N 0 32 H q deve ter o mesmo período e portanto amostras espaçadas de 025 Hz Isso significa que H q deve se repetir a cada 8 Hz ou 16π rads ver Fig 342c Assim as 32 amostras de H q são produzidas no intervalo 0 f 8 como Multiplicamos G q por H q e calculamos a DFT inversa O resultante sinal de saída é mostrado na Fig 342d A Tabela 34 lista valores de g k G q H q Y q e y k No Exemplo C32 já calculamos a DFT de gt com 32 amostras G q O programa MATLAB do Exemplo C32 pode ser armazenado como um arquivom por exemplo c32m Podemos importar G q no ambiente MATLAB via comando c32 A seguir geramos 32 amostras de H q multiplicamos G q por H q e para obter y k calculamos a DFT inversa Também podemos obter y k calculando a convolução de g k e h k Tabela 34 1 2 3 4 5 6 311 REFERÊNCIAS R V Churchill and J W Brown Fourier Series and Boundary Value Problems 3rd ed McGrawHill New York 1978 R N Bracewell Fourier Transform and Its Applications rev 2nd ed McGrawHill New York 1986 B P Lathi Signal Processing and Linear Systems Oxford University Press 2000 E A Guillemin Theory of Linear Physical Systems Wiley New York 1963 F J Harris On the Use of Windows for Harmonic Analysis with the Discrete Fourier Transform Proc IEEE vol 66 pp 51 83 Jan 1978 J W Tukey and J Cooley An Algorithm for the Machine Calculation of Complex Fourier Series Mathematics of Computation Vol 19 pp 297301 April 1965 EXERCÍCIOS Mostre que a transformada de Fourier de gt pode ser expressa como A seguir mostre que caso gt seja uma função par de t e caso gt seja uma função ímpar de t Agora mostre que Se gt for Então Gf é uma função real e par de t uma função real e par de f 312 a b 313 314 315 316 317 uma função real e par de t uma função real e par de f uma função real e ímpar de t uma função imaginária e ímpar de f uma função imaginária e par de t uma função imaginária e par de f uma função complexa e par de t uma função complexa e par de f uma função real e ímpar de t uma função real e ímpar de f Mostre que para uma função gt de valores reais a transformada inversa Eq 39b pode ser expressa como Essa é a forma trigonométrica da transformada de Fourier inversa Expresse a integral de Fourier transformada de Fourier inversa para gt e at ut na forma trigonométrica dada na parte a Se gt Gf mostre que gt Gf A partir da definição 39a determine a transformada de Fourier de cada sinal mostrado na Fig E314 Figura E314 A partir da definição 39a determine a transformada de Fourier de cada sinal mostrado na Fig E315 Figura E315 A partir da definição 39b determine a transformada de Fourier inversa de cada espectro mostrado na Fig E316 Figura E316 A partir da definição 39b determine a transformada de Fourier inversa de cada espectro mostrado na Fig 317 318 321 322 323 324 A partir da definição 39b determine a transformada de Fourier inversa de cada espectro mostrado na Fig E317 Figura E317 Mostre que apesar da semelhança os dois sinais nas partes a e b da Fig E318 são totalmente distintos no domínio do tempo Figura E318 Sugestão Gf Gf e jθg f Na parte a Gf 1 e j2πft0 f B enquanto na parte b Esboce gráficos das seguintes funções a Πt2 b Δ3ω100 c Πt 108 d sinc πω5 e sinc ω 10π5 f sinc t5 Πt10π Sugestão deslocada para a direita por a Da definição 39a mostre que a transformada de Fourier de Π t 5 é sinc πfe j10πf Da definição 39b mostre que a transformada de Fourier inversa de Π 2πf 102π é sinc πte j 10t Use os pares 7 e 12 na Tabela 31 e mostre que ut 05 δf 1j2πf 325 331 332 333 Sugestão Some 1 a sgn t e verifique o sinal resultante Mostre que cos 2πf 0 t θ ½δf f 0 e j θ δf f 0 e j θ Sugestão Use a fórmula de Euler para expressar cos 2πf 0 t θ em termos de exponenciais Aplique a propriedade de dualidade a pares adequados na Tabela 31 e mostre que A transformada de Fourier do pulso triangular gt na Fig E332a é dada por Use essa informação e as propriedades de translação e dilatação no domínio do tempo para determinar a transformada de Fourier de cada sinal mostrado na Fig E332bf Sugestão O reflexo de gt em relação ao eixo vertical resulta no pulso g 1 t na Fig E332b em consequência g 1 t gt O pulso na Fig E332c pode ser expresso como gt T g 1 t T soma de gt e g 1 t atrasados de T Os dois pulsos na Fig 332de podem ser expressos como gt T g 1 t T soma de gt atrasado de T e g 1 t adiantado de T para alguma escolha adequada de T O pulso na Fig 332f pode ser obtido pela dilatação temporal de gt por um fator 2 seguida de um atraso de 2 segundos ou atraso de 1 segundo e dilatação temporal por um fator 2 Figura E332 Usando apenas a propriedade de translação no domínio do tempo e a Tabela 31 determine a transformada de Fourier de cada um dos sinais mostrados na Fig E333 334 335 336 Figura E333 Sugestão O sinal na Fig E333a é a soma de dois pulsos retangulares deslocados O sinal na Fig E333b é sen t ut ut π sen t ut sen t ut π sen t ut sen t π ut π Comprove que a soma dessas duas senoides de fato resulta no pulso na Fig E333b De modo similar o sinal na Fig E333c pode ser expresso como cos t ut sen t π2 ut π2 comprove isso traçando os gráficos dos sinais O sinal na Fig 333d é e at ut ut T e at ut e aTe atTut T Use a propriedade de translação no domínio do tempo e mostre que se gt Gf então Isso é o dual da Eq 336 Com base neste resultado e nos pares 17 e 19 na Tabela 31 determine a transformada de Fourier de cada um dos sinais mostrados na Fig E334 Figura 334 Comprove os seguintes resultados Com base nesse resultado e na Tabela 31 determine a transformada de Fourier do sinal na Fig E335 Figura 335 Os sinais na Fig E336 são modulados com uma portadora cos 10t Utilizando propriedades adequadas da transformada de Fourier e a Tabela 31 determine as transformadas de Fourier desses sinais Esboce os gráficos dos espectros de amplitude e de fase para os sinais nas Fig E336a e b Sugestão Essas funções podem ser expressas na forma gt cos 2πf 0 t 337 338 339 a b c 3310 341 Figura 336 Utilizando a propriedade de translação no domínio da frequência e a Tabela 31 determine a transformada de Fourier inversa do espectro mostrado na Fig E337 Observe que nesse exercício a transformada de Fourier é dada no domínio ω Figura 337 Um sinal gt é limitado em frequência a B Hz Mostre que o sinal g n t é limitado em frequência a nB Hz Sugestão g 2 t Gf Gf e assim por diante Use a propriedade de largura de banda da convolução Determine a transformada de Fourier do sinal na Fig E333a empregando três métodos diferentes Por integração direta utilizando a definição 39a Empregando apenas o par 17 na Tabela 31 e a propriedade de translação no domínio do tempo Usando as propriedades de diferenciação e translação no domínio do tempo assim como o par δt 1 Sugestão 1 cos 2x 2 sen 2 x O processo de recuperação de um sinal gt de um sinal modulado gt cos 2πf 0 t é denominado demodulação Mostre que o sinal gt cos 2πf 0 t pode ser demodulado multiplicandoo por 2 cos 2πf 0 t e aplicando o produto a um filtro passabaixos de largura de banda B Hz a largura de banda de gt Considere B f 0 Sugestão 2 cos 2 2πf 0 t 1 cos 4πf 0 t Observe que o espectro de gt cos 4πf 0 t é centrado em 2f 0 e será suprimido pelo filtro passabaixos de largura de banda B Hz Os sinais g 1 t 10 4 Π10 4 t e g 2 t δt são aplicados às entradas de filtros passabaixos ideais H 1 f Πf20000 e H 2 f Πf10000 Fig E341 As saídas y 1 t e y 2 t desses filtros são multiplicadas para produzir o sinal yt y 1 t y 2 t a Trace os gráficos de G 1 f e G 2 f b Trace os gráficos de H 1 f e H 2 f c Trace os gráficos de Y 1 f e Y 2 f d Determine as larguras de banda de y 1 t y 2 t e de yt 351 352 353 354 355 361 Figura E341 Dentre os sistemas com as respostas ao impulso listadas a seguir qual é causal Considere um filtro com a seguinte função de transferência Usando os critérios dos domínios do tempo ht não causal e da frequência critério de PaleyWiener mostre que este filtro é fisicamente irrealizável É possível com a escolha de um valor suficientemente grande para t 0 tornar este filtro aproximadamente realizável Usando um critério próprio razoável de realização aproximada determine t 0 Sugestão Use o par 22 na Tabela 31 Mostre que um filtro com a função de transferência é irrealizável É possível com a escolha de um valor suficientemente grande para t 0 tornar esse filtro aproximadamente realizável Usando um critério próprio razoável de realização aproximada determine t 0 Sugestão Mostre que a resposta ao impulso é não causal Determine a máxima largura de banda de um sinal que pode ser transmitida através do filtro passabaixos RC na Fig E354 com R 1000 e C 10 9 presuma que na largura de banda as variações da resposta de amplitude ganho e do atraso temporal são respectivamente de 5 e 2 Figura E354 Um sinal passafaixa gt de largura de banda B 2000 Hz centrada em f 10 5 Hz é aplicado ao filtro RC mostrado na Fig E354 com RC 10 3 Considerando que na largura de banda a variação da resposta de amplitude menor que 2 e variação do atraso temporal menor que 1 caracterizam transmissão sem distorção determine se gt pode ser transmitido sem distorção Obtenha uma expressão aproximada para o sinal de saída Um certo canal tem resposta de amplitude ideal e resposta de fase não ideal Fig E361 dadas por a b 362 371 Mostre que yt a resposta do canal a um pulso de entrada gt limitado em frequência a B Hz é Sugestão Use e jk sen 2πfT 1 jk sen 2πfT Como este canal afetará sistemas TDM e FDM do ponto de vista de interferência entre sinais multiplexados Figura E361 A distorção causada por transmissão em multipercurso pode ser parcialmente corrigida por um equalizador com linha de retardo gradual Mostre que se α 1 a distorção no sistema multipercurso na Fig 331a pode ser aproximadamente corrigida se o sinal recebido representado na Fig 331a for aplicado ao equalizador com linha de retardo gradual mostrado na Fig E362 Sugestão A partir da Eq 364a fica claro que a função de transferência do filtro equalizador deve ser H eq f 11 α e j 2πfΔt Sabendo que se x 1 11 x 1 x x 2 x 3 determine os fatores de amostragem a i para que a resultante função de transferência seja Figura E362 Por integração direta mostre que a energia do pulso gaussiano é 12σπ Para comprovar esse resultado use o teorema de Parseval para determinar a energia E g de Gf Sugestão Veja o par 22 na Tabela 31 Use 372 373 374 375 376 Sugestão Veja o par 22 na Tabela 31 Use Mostre que Sugestão Observe que a integral é a energia de gt sinc kt Use o teorema de Parseval para calcular essa energia Generalize o teorema de Parseval e mostre que para sinais g 1 t e g 2 t de valores reais e cujas transformadas de Fourier existam Mostre que Sugestão Observe que Use esta informação e o resultado do Exercício 372 para mostrar que Esta integral fornecerá o resultado desejado Para o sinal determine a largura de banda essencial B Hz de modo que a energia contida nas componentes espectrais de gt de frequências abaixo de B Hz corresponda a 99 da energia E g do sinal Sugestão Aplique a propriedade de dualidade Eq 326 ao par 3 na Tabela 31 e determine Gf Um sinal passabaixos gt é aplicado a um dispositivo de resposta quadrática cuja saída g 2 t é aplicada a um filtro passabaixos ideal de ganho unitário e largura de banda Δf Hz Fig E376 Mostre que se Δf for muito pequeno Δf 0 a saída do filtro é um sinal dc de amplitude 2E g Δf em que E g é a energia de gt Sugestão Quando Δf 0 a saída yt é um sinal dc porque o espectro Yf está concentrado em f 0 de Δf a Δf impulso na origem Se g 2 t Af e yt Yf então Yf 2A0 Δfδf Agora mostre que E g A0 381 382 383 384 Figura E376 Mostre que a função de autocorrelação de gt C cos 2πf 0 t θ 0 é dada por R gτ C 2 2 cos 2πf 0 τ e que a correspondente PSD é S g f C 2 4δf f 0 δf f 0 A seguir mostre que para um sinal yt dado por a função de autocorrelação e a PSD são dadas por Sugestão Mostre que se gt g 1 t g 2 t então em que Caso g 1 t e g 2 t representem quaisquer dois dos infinitos termos em yt mostre que Para isso use o fato de que considerando um intervalo de tempo muito grande a área sob qualquer senoide é no máximo igual à área correspondente a um meio ciclo da senoide O sinal binário aleatório xt mostrado na Fig E382 transmite um dígito a cada T b segundos Um 1 binário é transmitido por um pulso pt de largura T b 2 e amplitude A um 0 binário é transmitido pela ausência de pulso Os dígitos 1 e 0 têm igual probabilidade de ocorrência que é aleatória Determine a função de autocorrelação R x τ e a PSD S xf Figura E382 Determine o valor quadrático médio ou potência da tensão de saída yt do circuito RC mostrado na Fig E354 com RC 2π considerando que a PSD da tensão de entrada S xf seja dada por a K b Ππf c δf 1 δf 1 Em cada caso calcule a potência valor quadrático médio do sinal de entrada xt Determine o valor quadrático médio ou potência da tensão de saída yt do sistema mostrado na Fig E38 4 considerando que a PSD da tensão de entrada S xf seja dada por Ππf Calcule a potência valor quadrático médio do sinal de entrada xt Figura 384 Para simplificar consideramos na Fig 32 que D n e portanto Gf são reais Contudo o argumento também se aplica a D n ou Gf complexo Considere isso uma prova irrefutável da máxima que diz que ter 0 de tudo é melhor do que ter 100 de nada Isso não deve ser considerado uma prova rigorosa da Eq 38 A situação não é tão simples como fizemos parecer 1 Simetria hermitiana é o termo usado para descrever funções complexas que satisfazem a Eq 311 As condições de Dirichlet restantes são em qualquer intervalo finito gt pode ter apenas um número finito de máximos e mínimos e um número finito de descontinuidades finitas Quando essas condições são satisfeitas a integral de Fourier no lado direito da Eq 39b converge para gt em todos os pontos em que gt é contínua em pontos em que gt é descontínua a integral converge para o valor médio dos limites de gt à direita e à esquerda do ponto de descontinuidade Na literatura sinc x também é denotada por Sa x Alguns autores definem sinc x como Ver a Seção 99 para uma prova rigorosa dessa afirmação Para um envelope bem definido é necessário B f 0 caso contrário as variações de Et serão da mesma ordem que as da portadora e será difícil separar o envelope da portadora A propriedade de largura de banda da convolução não se aplica a alguns casos patológicos A propriedade falha quando a convolução de duas funções é zero em um intervalo mesmo que as duas funções sejam não nulas por exemplo sen 2πf 0 t ut ut Tecnicamente a propriedade é válida até mesmo nesse caso desde que no cálculo da largura de banda da função que resulta da convolução levemos em consideração o intervalo em que a convolução é zero Válida apenas se a transformada de dgtdt existir Adicionalmente é necessário que θ h 0 seja 0 como na Fig 325 ou um valor constante nπ n inteiro ou seja θ h f nπ 2πft d O efeito da adição da fase nπ é no máximo uma mudança de sinal da função A Fig 325 mostra que para transmissão sem distorção a resposta de fase deve não apenas ser linear como também deve passar pela origem Essa última exigência pode ser um pouco relaxada no caso de sinais passafaixa A fase na origem pode ser uma constante qualquer θ h f θ 0 2πft d ou θ h 0 θ 0 A razão para isso reside na Eq 337 que mostra que a adição de uma fase constante θ 0 ao espectro de um sinal passafaixa equivale a deslocar a fase da portadora por θ 0 O sinal modulante envelope não é afetado O envelope de saída é igual ao de entrada atrasado por Esse atraso t d é chamado de atraso de grupo ou atraso de envelope a portadora de saída é igual à de entrada atrasada por Esse atraso é denominado atraso de fase sendo f 0 a frequência central da banda passante Assumimos que Hf seja quadráticointegrável ou seja assumimos que seja finita O AGC também elimina variações lentas do sinal original No caso de um sinal passabaixos a largura de banda essencial também pode ser definida como a frequência na qual o valor da amplitude do espectro é uma pequena fração digamos 510 do valor de pico No Exemplo 316 o pico de Gf é 1a e ocorre em f 0 Na prática o truncamento é efetuado de forma gradual com o uso de janelas graduais de modo a evitar vazamento espectral excessivo devido a um truncamento abrupto 5 Vale notar que embora a ESD exista em toda a banda de a o espectro trigonométrico existe apenas na banda de 0 a O intervalo espectral a se aplica ao espectro exponencial Contudo na prática sempre que nos referimos a uma largura de banda o fazemos no sentido trigonométrico Portanto a banda essencial é de 0 a B Hz ou W rads e não de B a B Para um sinal de valores complexos definimos Devemos ser cautelosos no uso de uma expressão unilateral como quando S g f contém um impulso na origem uma componente dc O impulso não deve ser multiplicado pelo fator 2 Para um sinal de valores complexos definimos O limite superior do somatório na Eq 395 é N 0 1 não N 0 pois o último termo do mesmo tem início em N 0 1 T s e cobre a área sob a curva até N 0 T s T 0 Podemos mostrar que um sinal não pode ser simultaneamente limitado no tempo e na frequência Se for um não pode ser o outro e vice versa 3 As relações de DFT também representam um par de transformadas e são exatas Se no entanto associarmos g k e G q às amostras de um sinal gt e de sua transformada de Fourier Gf respectivamente as relações de DFT se tornam aproximações devido aos efeitos de mascaramento e truncamento No Brasil é igualmente empregada a denominação transformada rápida de Fourier NT M 41 odulação em geral se refere a um processo que desloca o sinal de mensagem a uma banda específica de frequências ditada pelo canal físico por exemplo um modem telefônico para a banda de sinal de voz A modulação provê diversas vantagens como mencionado no Capítulo 1 entre as quais se incluem a facilidade de transmissão de RF e a multiplexação por divisão em frequência As modulações podem ser analógicas ou digitais Embora sistemas de comunicação tradicionais como rádios AMFM e sinais de televisão NTSC sejam baseados em modulações analógicas sistemas mais recentes como os de telefonia celular 2G e 3G HDTV e DSL são todos digitais Neste capítulo e no próximo focaremos as clássicas modulações analógicas modulação em amplitude e modulação em ângulo Antes de iniciarmos a discussão de modulações analógicas é importante que façamos a distinção entre sistemas de comunicação que não usam modulação sistemas de comunicação em banda base e sistemas que utilizam modulação sistemas de comunicação por portadora COMUNICAÇÃO EM BANDA BASE VERSUS COMUNICAÇÃO POR PORTADORA O termo banda base designa a banda de frequências do sinal de mensagem original proveniente da fonte ou transdutor de entrada Fig 12 Em telefonia a banda base é a faixa de frequências de áudio banda de sinais de voz de 0 a 35 kHz No caso de sinal de televisão NTSC a banda base de vídeo é a faixa de frequências de 0 a 43 MHz Para dados digitais ou modulação por codificação de pulsos PCM que usam sinalização bipolar à taxa de R b pulsos por segundo a banda base é aproximadamente a faixa de frequências de 0 a R b Hz Comunicação em Banda Base Na comunicação em banda base sinais de mensagem são transmitidos diretamente sem qualquer modificação Dado que em sua maioria sinais em banda base como sinais de áudio e de vídeo têm um conteúdo significativo em frequências baixas não podem ser transmitidos de modo eficiente através de enlaces de rádio enlaces sem fio Consequentemente canais de usuário dedicados como pares trançados e cabos coaxiais são alocados a cada usuário para comunicações de longas distâncias Uma vez que sinais em banda base têm bandas que se sobrepõem haveria forte interferência entre sinais que compartilhassem um mesmo canal Por esse motivo na comunicação em banda base uma boa parte do espectro não é utilizada Com a modulação de vários sinais em banda base e o resultante deslocamento de seus espectros a bandas de frequências que não se sobrepõem o que constitui a multiplexação por divisão em frequência FDM frequency division multiplexing muitos usuários podem compartilhar um canal utilizando a maior parte da largura de banda disponível Comunicação de longa distância através de um enlace de rádio também requer modulação para deslocar o espectro do sinal a frequências mais altas para permitir radiação mais eficiente de potência com a utilização de antenas de dimensões razoáveis Outro uso da modulação é a troca da largura de banda de transmissão por melhor desempenho diante de interferências Modulações com Portadora A comunicação que faz uso de modulação para deslocar o espectro de frequência de um sinal é conhecida como comunicação por portadora Em termos de modulação analógica um dos parâmetros básicos amplitude frequência ou fase de uma portadora senoidal de alta frequência f c Hz ou ω c 2πf c rads é variado linearmente com o sinal em banda base mt Isso resulta em modulação em amplitude AM amplitude modulation modulação em frequência FM frequency modulation ou modulação em fase PM phase modulation respectivamente A modulação em amplitude é uma operação linear enquanto os outros dois tipos de modulação com portadora são similares e não lineares geralmente designadas pelo termo comum modulação em ângulo Aqui cabe um comentário a respeito de sinais modulados por pulsos modulação em amplitude de pulso PAM pulse amplitude modulation modulação em largura de pulso PWM pulse width modulation modulação em posição de pulso PPM pulse position modulation modulação por codificação de pulsos PCM pulse code modulation e modulação delta DM delta modulation Apesar do termo modulação são sinais digitais em banda base Nesses casos modulação é usada não para designar deslocamento de frequência ou de banda mas sim os esquemas de codificação de pulsos digitais usados na representação dos sinais analógicos originais Em outras palavras o sinal de mensagem analógico modula parâmetros de um trem de pulsos digitais Esses sinais ainda podem modular uma portadora de modo que seus espectros sejam deslocados 42 sinais ainda podem modular uma portadora de modo que seus espectros sejam deslocados Modulações em Amplitude e Modulações em Ângulo Denotemos por mt o sinal de mensagem de fonte a ser transmitido pelo emissor aos receptores a transformada de Fourier do sinal é denotada por Mf Para deslocar a resposta de frequência de mt a uma nova faixa de frequências centrada em f c Hz notamos primeiro que a transformada de Fourier já revelou uma propriedade muito forte conhecida como propriedade de translação na frequência que permite alcançar este objetivo Em outras palavras tudo o que precisamos fazer é multiplicar mt por uma frequência senoidal f c de modo que Com isso alcançamos imediatamente o objetivo básico da modulação e movemos o conteúdo de frequências do sinal para que fique centrado em f c Esta simples multiplicação na verdade permite que variações na amplitude da senoide s 1t sejam proporcionais ao sinal de mensagem O método é de fato uma forma valiosa de modulação conhecida como modulação em amplitude De modo mais geral consideremos um sinal senoidal Há três variáveis em uma senoide amplitude frequência instantânea e fase O sinal de mensagem pode ser usado para modular qualquer um desses três parâmetros e permitir que st transporte a informação do transmissor ao receptor Amplitude At varia linearmente com mt modulação em amplitude Frequência varia linearmente com mt modulação em frequência Fase ϕt varia linearmente com mt modulação em fase Essas operações são conhecidas respectivamente como modulação em amplitude modulação em frequência e modulação em fase Neste capítulo descreveremos várias formas de modulação em amplitude em sistemas de comunicação usados na prática Modulações em amplitude são lineares e sua análise nos domínios do tempo e da frequência mais simples No Capítulo 5 discutiremos as modulações em ângulo não lineares separadamente Uso de f ou ω No Capítulo 3 observamos a equivalência das respostas de frequência denotadas pela frequência f e pela frequência angular ω Cada uma dessas duas notações tem suas próprias vantagens e desvantagens Após o estudo dos exemplos e exercícios do Capítulo 3 o leitor deve se sentir familiarizado e confortável com o uso das duas notações Assim de aqui em diante usaremos ambas selecionando uma ou outra com base na simplicidade de notação ou representação ou gráfica MODULAÇÃO EM AMPLITUDE COM BANDA LATERAL DUPLA Modulação em amplitude é caracterizada por uma amplitude At portadora de informação que é uma função linear do sinal de banda base mensagem mt Ao mesmo tempo a frequência ω c e fase θ c da portadora permanecem constantes Podemos considerar θ c 0 sem perda de generalidade Se a amplitude A da portadora for diretamente proporcional ao sinal modulante mt o sinal modulado será mt cos ω c t Fig 41 Como vimos anteriormente Eq 336 esse tipo de modulação simplesmente desloca o espectro de mt para a frequência da portadora Fig 41a Portanto se então Recordemos que Mf f c é Mf deslocada para a direita por f c e Mf f c é Mf deslocada para a esquerda por f c Dessa forma o processo de modulação desloca o espectro do sinal modulante para a esquerda e para a direita por f c Devemos notar também que se a largura de banda de mt for B Hz o sinal modulado terá largura de banda 2B Hz como indicado na Fig 41c Observemos ainda que o espectro do sinal modulado centrado em f ou ω rads consiste em duas partes uma no lado externo de f conhecida que o espectro do sinal modulado centrado em f c ou ω c rads consiste em duas partes uma no lado externo de f c conhecida como banda lateral superior USB upper sideband e uma no lado interno de f c conhecida como banda lateral inferior LSB lower sideband Na Fig 41c vemos ainda que a menos que o sinal de mensagem Mf tenha um impulso na frequência zero nesse esquema o sinal modulado não contém uma componente discreta da frequência da portadora f c Em outras palavras o processo de modulação não introduz uma senoide em f c Por esse motivo é referido como modulação em banda lateral dupla com portadora suprimida DSBSC doublesideband supressed carrier A relação entre B e f c é relevante A Fig 41c mostra que f c B o que evita a sobreposição dos espectros modulados centrados em f c e em f c Se f c B as duas cópias do espectro da mensagem se sobreporiam e a informação de mt seria perdida durante a modulação o que impossibilitaria a recuperação de mt do sinal modulado mt cos ω c t Fatores práticos podem impor restrições adicionais a f c Por exemplo em aplicações de difusão broadcasting a antena transmissora pode irradiar sem distorção apenas uma estreita largura de banda Isso significa que para evitar distorção causada pela antena transmissora devemos ter f c B 1 Na radiodifusão AM por exemplo com B 5 kHz e frequências portadoras entre 550 e 1600 kHz a razão f c B tem valor entre 100 e 300 Figura 41 Modulação DSBSC e demodulação Demodulação A modulação DSBSC traslada ou desloca o espectro de frequência para a esquerda e para a direita por f c ou seja para f c e f c como mostra a Eq 41 Para recuperar o sinal original mt do sinal modulado é necessário devolver o espectro à posição original O processo de recuperação do sinal original do sinal modulado translação do espectro de volta à sua posição original é referido como demodulação Observemos que na Fig 41c se o espectro do sinal modulado for deslocado para a esquerda e para a direita por f c e multiplicado por meio obteremos o espectro mostrado na Fig 41d que contém o espectro de banda base desejado mais espectros indesejáveis em 2f c Esses últimos podem ser suprimidos com o uso de um filtro passabaixas Assim a demodulação quase idêntica à modulação consiste em multiplicar o sinal modulado recebido mt cos ω c t por uma portadora cos ω c t e aplicar o resultado a um filtro passabaixas como indicado na Fig 41e Podemos chegar à mesma conclusão diretamente no domínio do tempo para isso observemos que o sinal et na Fig 41e é Portanto a transformada de Fourier do sinal et é Esta análise mostra que o sinal et consiste em duas componentes 12mt e 12mt cos 2ω c t juntamente com seus espectros que não se sobrepõem como ilustrado na Fig 41d O espectro da segunda componente que é um sinal modulado com portadora 2f c é centrado em 2f c Logo essa componente é suprimida pelo filtro passabaixas na Fig 41e A componente desejada 12Mf por ser um espectro de frequências baixas centrado em f 0 passa pelo filtro e resulta na saída 12mt Uma forma possível de característica de filtro passabaixas é mostrada em linha tracejada na Fig 41d O filtro permite a demodulação sem distorção do sinal de mensagem mt do sinal DSBSC Para nos livrarmos da inconveniente fração 12 na saída podemos usar uma portadora 2cos ω c t em vez de cos ω c t Na verdade mais adiante usaremos muito essa estratégia que não afeta as conclusões gerais Esse método de recuperação do sinal em banda base é denominado detecção síncrona ou detecção coerente em que usamos uma portadora com exatamente a mesma frequência e fase da portadora usada na modulação Assim para demodulação tornase necessário gerar uma portadora local no receptor com coerência sincronismo de frequência e fase com a portadora usada na modulação Exemplo 41 Para o sinal em banda base determinemos o sinal DSBSC e esbocemos seu espectro Identifiquemos a USB e a LSB Verifiquemos que o sinal modulado DSBSC pode ser demodulado pelo demodulador ilustrado na Fig 41e O caso neste exemplo é referido como modulação por tom pois o sinal modulante é uma senoide pura ou tom puro cos ω m t Para deixar claros os conceitos básicos da modulação DSBSC resolveremos esse problema nos domínios da frequência e do tempo Na abordagem do domínio da frequência trabalhamos com espectros dos sinais O espectro do sinal em banda base mt cos ω m t é dado por O espectro da mensagem consiste em dois impulsos localizados em f m como ilustrado na Fig 42a O espectro modulado DSBSC como visto na Eq 41 é o espectro da banda base na Fig 42a deslocado para a direita e para a esquerda por f c e multiplicado por meio como indicado na Fig 42b Este espectro consiste em impulsos nas frequências f c f m e f c f m O espectro no lado externo de f c é a USB e o espectro no lado interno de f c a LSB Observemos que o espectro DSBSC não tem uma componente na frequência da portadora f c Por isso é denominado portadora suprimida Na abordagem do domínio do tempo trabalhamos diretamente com sinais no domínio do tempo Para o sinal em banda base mt cos ω m t o sinal DSBSB φ DSBSC t é Isso mostra que quando o sinal em banda base mensagem é uma pura senoide de frequência f m o sinal modulado Isso mostra que quando o sinal em banda base mensagem é uma pura senoide de frequência f m o sinal modulado consiste em duas senoides uma componente de frequência f c f m a USB e uma componente de frequência f c f m a LSB A Fig 42b mostra o espectro de φ DSBSC t Portanto cada componente de frequência f m no sinal modulante origina duas componentes de frequências f c f m e f c f m no sinal modulado Notemos o fato curioso de que não há componente da frequência portadora f c no lado direito da equação anterior Como mencionado é por isso que a modulação é denominada modulação em banda lateral dupla com portadora suprimida DSBSC Agora comprovemos que o sinal modulado φ DSBSC t cos ω m t cos ω c t quando aplicado à entrada do demodulador na Fig 41e leva a uma saída proporcional ao desejado sinal em banda base cos ω m t O sinal et na Fig 41e é dado por Figura 42 Exemplo de modulação DSBSC O espectro do termo cos ω m t cos 2ω c t é centrado em 2ω c e será suprimido pelo filtro passabaixas produzindo a saída ½cos ω m t Esse resultado também pode ser obtido no domínio da frequência A demodulação faz com que o espectro na Fig 42b seja deslocado para a esquerda e para a direita por ω c e multiplicado por meio Isso resulta no espectro mostrado na Fig 42c O filtro passabaixas suprime os espectros centrados em 2ω c produzindo o espectro ½Mf Moduladores Moduladores podem ser construídos de diferentes maneiras A seguir discutiremos algumas importantes categorias de moduladores Moduladores Multiplicadores Neste caso a modulação é feita diretamente com a multiplicação de mt por cos ω c t com o uso de um multiplicador analógico cuja saída é proporcional ao produto dos dois sinais de entrada Um modulador desse tipo pode tipicamente ser obtido a partir de um amplificador de ganho variável em que o parâmetro de ganho como o β de um transistor é controlado por um dos sinais digamos mt Quando o sinal cos ω c t é aplicado à entrada desse multiplicador a saída é proporcional a mt cos ω c t No passado a multiplicação de dois sinais em uma faixa dinâmica razoável era um desafio para projetistas de circuitos No entanto com o avanço contínuo da tecnologia de semicondutores a multiplicação de sinais deixou de ser um grande problema Contudo apresentaremos várias configurações clássicas de moduladores que evitam o uso de multiplicadores O estudo desses moduladores provê um inestimável entendimento do conceito e uma excelente oportunidade para aprender algumas novas técnicas de análise de sinais Moduladores Não Lineares A modulação também pode ser obtida com o uso de dispositivos não lineares como diodo ou transistor semicondutor A Fig 43 mostra um esquema possível que faz uso de dois elementos não lineares idênticos as caixas rotuladas NL Admitamos que a característica entradasaída de qualquer dos elementos não lineares seja aproximada por uma série de potências potências em que xt e yt são a entrada e a saída respectivamente do elemento não linear A saída zt do somador na Fig 43 é dada por A substituição das duas entradas x 1t cos ω c t mt e x 2t cos ω c t mt nessa equação resulta em O espectro de mt é centrado na origem enquanto o espectro de mt cos ω c t é centrado em ω c Em consequência quando zt é aplicado a um filtro passafaixa centrado em ω c o sinal amt é suprimido e o desejado sinal modulado 4bmt cos ω c t pode passar pelo sistema sem distorção Há duas entradas nesse circuito mt e cos ω c t A saída do último somador zt não contém uma das entradas o sinal da portadora cos ω c t Em consequência o sinal da portadora não aparece na entrada do filtro passafaixa final O circuito atua como uma ponte balanceada para uma das entradas a portadora Circuitos que têm essa característica são denominados circuitos balanceados O modulador não linear na Fig 43 é um exemplo da classe de moduladores conhecida como moduladores balanceados Esse circuito é balanceado em relação a apenas uma das entradas a portadora a outra entrada mt ainda aparece no filtro passa faixa final que deve rejeitála Por tal razão o circuito é referido como modulador simplesmente balanceado Um circuito balanceado em relação às duas entradas é denominado modulado duplamente balanceado do qual o modulador em anel Fig 46 é um exemplo Figura 43 Modulador DSBSC não linear Moduladores Chaveados A operação de multiplicação requerida para modulação pode ser substituída por uma operação de chaveamento mais simples se nos dermos conta de que um sinal modulado pode ser obtido multiplicando mt não apenas por uma senoide pura mas também por qualquer sinal periódico ϕt da frequência angular fundamental ω c Um sinal periódico desse tipo pode ser expresso por uma série de Fourier trigonométrica como Logo Isso mostra que o espectro do produto mtϕt é o espectro Mω deslocado para ω c 2ω c nω c Caso esse sinal seja aplicado a um filtro passafaixa de largura de banda 2B Hz e centrado em ω c obteremos o desejado sinal modulado c 1mt cos ω c t θ 1 O trem de pulsos quadrados wt na Fig 44b é um sinal periódico cuja série de Fourier foi calculada anteriormente como reescrevendo os resultados do Exemplo 24 O sinal mtwt é dado por O sinal mtwt é dado por O sinal mtwt consiste não apenas na componente mt mas também em um número infinito de sinais modulados com frequências portadoras ω c 3ω c 5ω c Portanto o espectro de mtwt consiste em múltiplas cópias do espectro Mf da mensagem deslocadas a 0 f c 3f c 5f c com pesos relativos decrescentes como mostrado na Fig 44c Figura 44 Modulador chaveado para DSBSC Para modulação nosso interesse reside na extração apenas da componente modulada mt cos ω c t Para separar essa componente da multidão aplicamos o sinal mtwt a um filtro passafaixa de largura de banda 2B Hz ou 4π B rads centrado em f c Desde que a frequência da portadora f c 2B ou ω c 4π B esse procedimento suprimirá as componentes espectrais não centradas em f c produzindo o desejado sinal modulado 2πmt cos ω c t Fig 44d Vemos agora o resultado deste método A multiplicação de um sinal por um trem de pulsos quadrados é na verdade uma operação de chaveamento na qual o sinal mt é ligado e desligado periodicamente isso pode ser feito por meio de simples elementos comutadores controlados por wt A Fig 45a ilustra um desses elementos comutadores o modulador em ponte de diodos alimentado por uma senoide A cos ω c t para produzir a ação de chaveamento Os diodos D 1 D 2 e D 3 D 4 são pares casados Quando o sinal cos ω c t tem uma polaridade que torne o terminal c positivo em relação a d todos os diodos conduzem Como os diodos D 1 e D 2 são casados os terminais a e b têm o mesmo potencial e são efetivamente curtocircuitados Durante o próximo meio ciclo o terminal d é positivo em relação a c e os quatro diodos não conduzem fazendo com que os terminais a e b fiquem em circuito aberto A ponte de diodos na Fig 45a portanto funciona como uma chave eletrônica cujos terminais a e b abrem e fecham periodicamente com a frequência da portadora f c quando uma senoide A cos ω c t é aplicada aos terminais c e d Para obter o sinal mtwt podemos posicionar essa chave eletrônica terminais a e b em série Fig 45b ou em paralelo com o sinal mt como na Fig 45c Esses moduladores são conhecidos respectivamente como modulador em ponte de diodos série e modulador em ponte de diodos paralela O chaveamento de mt se repete a cada meio ciclo da portadora resultando no sinal chaveado mtwt que quando aplicado a um filtro passafaixa produz o desejado sinal modulado 2πmt cos ω c t Outro modulador chaveado conhecido como modulador em anel é mostrado na Fig 46a Durante o meio ciclo positivo da portadora os diodos D 1 e D 3 conduzem enquanto os diodos D 2 e D 4 estão abertos Assim o terminal a é conectado a c e o terminal b a d Durante o meio ciclo negativo da portadora os diodos D 1 e D 3 estão abertos enquanto os diodos D 2 e D 4 conduzem de modo que o terminal a é conectado a d e o terminal b a c Em consequência a saída é proporcional a mt durante o meio ciclo positivo e a mt durante o meio ciclo negativo Efetivamente mt é multiplicado por um trem de pulsos quadrados w 0t como mostrado na Fig 46b A série de Fourier para w 0t pode ser obtida com o uso do sinal wt da Eq 45 resultando em w 0t 2wt 1 Portanto podemos usar a série de Fourier de wt Eq 45 para determinar a série de Fourier de w 0t como w 0t 2wt 1 Portanto podemos usar a série de Fourier de wt Eq 45 para determinar a série de Fourier de w 0t como Figura 45 a Chave eletrônica em ponte de diodos b Modulador em ponte de diodos série c Modulador em ponte de diodos paralela Exemplo 42 Figura 46 Modulador em anel Assim temos O sinal mtw 0t é representado na Fig 46d Quando essa forma de onda é aplicada a um filtro passafaixa centrado em ω c Fig 46a a saída do filtro será o desejado sinal 4πmt cos ω c t Esse circuito tem duas entradas mt e cos ω c t Nenhum desses sinais aparece na entrada do filtro passafaixa final Assim esse circuito é um exemplo de um modulador duplamente balanceado Misturador ou Conversor de Frequências Analisemos um misturador de frequências ou conversor de frequências usado para alterar a frequência portadora de um sinal modulado mt cos ω c t de ω c para outra frequência ω I Isso pode ser feito com a multiplicação de mt cos ω c t por 2 cos ω mixt em que ω mix ω c ω I ou ω c ω I e a aplicação do produto a um filtro passafaixa como indicado na Fig 47a O produto xt é Se escolhermos ω mix ω c ω I temos Exemplo 43 Figura 47 Misturador ou conversor de frequências Se escolhermos ω mix ω c ω I obtemos Em qualquer dos casos desde que ω c ω I 2π B e ω I 2π B os vários espectros na Fig 47b não se sobreporão Em consequência um filtro passafaixa na saída centrado em ω I deixará passar o termo mt cos ω I t e suprimirá o outro termo produzindo a saída mt cos ω I t Dessa forma a frequência portadora foi trasladada de ω c para ω I A operação de misturaconversão de frequências também conhecida como heterodinagem consiste basicamente na translação do espectro por ω mix Isso é equivalente à operação de modulação com uma frequência portadora de modulação a frequência ω mix do oscilador local que difere da frequência de entrada por ω I Qualquer um dos moduladores discutidos anteriormente pode ser usado para a mistura de frequências Quando selecionamos a frequência portadora local como ω mix ω c ω I a operação é denominada conversão ascendente upconversion quando selecionamos a frequência portadora local como ω mix ω c ω I a operação é denominada conversão descendente downconversion Demodulação de Sinais DSBSC Como discutido anteriormente a demodulação de um sinal DSBSC envolve essencialmente a multiplicação pelo sinal da portadora e é idêntica à modulação Fig 41 No receptor multiplicamos o sinal de entrada por uma portadora local de frequência e fase em sincronismo com a portadora recebida O produto é então aplicado a um filtro passabaixas A única diferença entre modulador e demodulador se refere ao sinal de entrada e ao filtro de saída No modulador a mensagem mt é a entrada e a saída do multiplicador é aplicada a um filtro passafaixa centrado em ω c no demodulador a entrada é o sinal DSBSC e a saída do multiplicador é aplicada a um filtro passabaixas Portanto todos os moduladores discutidos anteriormente sem multiplicadores podem ser usados como demoduladores desde que os filtros passafaixa de saída sejam substituídos por filtros passabaixas de largura de banda B Para demodulação o receptor deve gerar uma portadora em sincronismo de fase e de frequência com a portadora de entrada Esses demoduladores são também denominados demoduladores síncronos ou coerentes ou ainda homódinos Analisemos o demodulador chaveado que utiliza a chave eletrônica ponte de diodos na Fig 45a como comutador em série ou em paralelo O sinal de entrada é mt cos ω c t A portadora provoca o chaveamento periódico do sinal de entrada Portanto a saída é mt cos ω c t wt Fazendo uso da identidade trigonométrica cos x cos y 05cosx y cos x y obtemos Os termos da forma mt cos nω c t têm espectros centrados em nω c e são suprimidos pelo filtro passabaixas que produz a saída 1π mt Deixamos como exercício para o leitor a comprovação de que ao funcionar como demodulador a saída do circuito em anel na Fig 46a com um filtro passabaixas na saída é 2π mt duas vezes a saída do demodulador chaveado desse exemplo 43 chaveado desse exemplo MODULAÇÃO EM AMPLITUDE AM Na seção anterior iniciamos a discussão da modulação em amplitude com a modulação em amplitude DSBSC pois essa pode ser facilmente entendida e analisada tanto no domínio do tempo como no domínio da frequência Contudo nem sempre a simplicidade analítica equivale à simplicidade de implementação prática A demodulação coerente de um sinal DSBSC requer que o receptor possua um sinal de portadora em sincronismo com a portadora recebida Na prática essa exigência não é atendida com facilidade Como o sinal modulado pode ter viajado centenas de quilômetros e pode ter sofrido algum deslocamento de frequência desconhecido o sinal recebido tem na verdade a forma resulta de um atraso temporal t 0 desconhecido Para demodulação coerente o receptor deve ser suficientemente sofisticado para gerar um oscilador local cos ω c Δωt θ d a partir apenas do sinal recebido rt Um receptor desse tipo pode ser de difícil implementação e ter custo elevado Em sistemas de difusão o alto custo deve ser evitado pois podem existir numerosos receptores para cada transmissor Como alternativa ao demodulador coerente o transmissor deve enviar uma portadora A cos ω c t juntamente com o sinal modulado mt cos ω c t de modo que não seja necessária a geração de uma portadora no receptor Nesse caso o transmissor deve transmitir a uma potência de saída muito mais alta o que aumenta os custos da alternativa Em comunicação ponto a ponto em que há um transmissor para cada receptor uma maior complexidade no receptor pode ser justificável desde que seu custo seja compensado por um transmissor mais barato Em sistemas de difusão em que há um grande número de receptores para cada transmissor é mais econômico ter um transmissor caro de alta potência e receptores simples e baratos pois qualquer redução de custo de receptores é multiplicada pelo número de unidades receptoras Por isso sistemas de difusão tendem a privilegiar a transferência de custos dos numerosos receptores para os poucos transmissores A segunda opção transmissão de uma portadora juntamente com o sinal modulado é a escolha óbvia no caso de sistemas de difusão tendo em vista os benefícios de custos Isso nos leva aos chamados sistemas AM de modulação em amplitude em que o sinal transmitido φ AMt é dado por O espectro de φ AMt é basicamente o mesmo que o de φ DSBSC t mt cos ω c t exceto pelos dois impulsos adicionais em f c Uma comparação entre φ AMt e φ DSBSC t mt cos ω c t deixa claro que o sinal AM é idêntico ao sinal DSBSC com A mt como o sinal modulante no lugar de mt O valor de A é sempre tomado como positivo Portanto para esboçar a forma de onda de φ AMt desenhamos o envelope ou envoltória A mt e sua imagem A mt e preenchemos o espaço entre as duas curvas com a senoide na frequência da portadora f c O valor de A afeta o envelope temporal do sinal modulado Os dois casos são considerados na Fig 48 No primeiro caso A tem valor suficientemente grande para que A mt 0 seja sempre não negativo No segundo o valor de A não é bastante para satisfazer esta condição No primeiro caso o envelope tem a mesma forma que mt deslocada de um valor dc constante A No segundo a formas do envelope e de mt são diferentes pois a parte negativa de A mt é retificada Isso significa que podemos detectar o desejado sinal mt se detectarmos o envelope no primeiro caso em que A mt 0 Essa detecção não é possível no segundo caso Veremos que a detecção de envelope é uma operação extremamente simples e barata que não requer a geração de uma portadora local para demodulação No entanto como visto anteriormente o envelope AM contém informação sobre mt apenas se o sinal AM A mt cos ω c t satisfizer a condição A mt 0 para todo t a b Figura 48 Sinal AM e seu envelope Agora sejamos mais específicos a respeito da definição de envelope Consideremos um sinal Et cos ω c t Caso Et varie lentamente em comparação à portadora senoidal cos ω c t o envelope de Et cos ω c t é Et Isso significa ver Eq 48b que se e somente se A mt 0 para todo t o envelope de φ AMt é A mt A mt Em outras palavras para que a detecção de envelope detecte mt corretamente duas condições devem ser satisfeitas f c largura de banda de mt A mt 0 Essa conclusão pode ser prontamente comprovada a partir da Fig 48d e e Na Fig 48d em que A mt 0 A mt é de fato o envelope e mt pode ser recuperado desse envelope Na Fig 48e em que A mt não é sempre positivo o envelope A mt é retificado de A mt e mt não pode ser recuperado desse envelope Em consequência na Fig 48d a demodulação de φ AMt corresponde à simples detecção de envelope Assim a condição para detecção de envelope de um sinal AM é Se mt 0 para todo t A 0 satisfaz a condição 49a Nesse caso não há necessidade de adicionar qualquer portadora pois o envelope do sinal DSBSC mt cos ω c t é mt de modo que esse sinal DSBSC pode ser detectado via detecção de envelope Na discussão a seguir presumiremos que mt 0 para todo t ou seja mt pode ser negativo para alguns valores de t Sinais de Mensagem mt com Deslocamento Nulo Sejam m p os valores máximo e mínimo de mt respectivamente Fig 48 Isto significa que mt m p Logo a condição para detecção de envelope 49a é equivalente a Dessa forma a mínima amplitude de portadora necessária para viabilizar a detecção de envelope é m p Isso fica bem claro da Fig 48 Definimos o índice de modulação μ como Exemplo 44 Para que a detecção de envelope seja sem distorção a condição é A m p Portanto é a condição necessária para demodulação sem distorção de sinais AM com detector de envelope Quando A m p a Eq 410a mostra que μ 1 sobremodulação Nesse caso a opção de detecção de envelope deixa de ser viável Precisamos então lançar mão da demodulação síncrona Vale notar que a demodulação síncrona pode ser usada para qualquer valor de μ pois o demodulador recuperará o sinal A mt Basta um bloco dc adicional para remover a tensão DC A O detector de envelope consideravelmente mais simples e barato que o detector síncrono pode ser usado apenas para μ 1 Sinais de Mensagem mt com Deslocamento Não Nulo Em raras ocasiões o sinal de mensagem mt terá um deslocamento não nulo de modo que seus valores máximo m max e mínimo m min não sejam simétricos m min m max Nesse caso podemos observar que qualquer deslocamento do envelope não altera a forma da saída do detector de envelope Na verdade um deslocamento constante não carrega qualquer informação Assim a detecção de envelope ainda seria sem distorção se com a definição do índice de modulação modificada para Esbocemos a forma de onda de φ AMt para índices de modulação μ 05 e μ 1 com mt b cos ω m t Esse caso é referido como modulação por tom pois o sinal modulante é uma senoide pura ou tom puro Aqui m max b e m min b Logo segundo a Eq 410a o índice de modulação é Com isso b μA e Portanto A Fig 49 mostra os sinais modulados correspondentes a μ 05 e μ 1 respectivamente Figura 49 Sinal AM modulado por tom a μ 05 e b μ 1 Exemplo 45 Figura 49 Sinal AM modulado por tom a μ 05 e b μ 1 Potências da Banda Lateral e da Portadora Em AM a vantagem da detecção de envelope tem um preço pois o termo da portadora não transporta informação de modo que desse ponto de vista potência da portadora é desperdiçada A potência da portadora P c é o valor quadrático médio de A cos ω c t que é A 22 A potência da banda lateral P s é a potência de mt cos ω c t que é Eq 393 Logo A informação útil da mensagem reside na potência da banda lateral enquanto a potência da portadora é usada por conveniência na modulação e na demodulação A potência total é a soma das potências da portadora desperdiçada e da banda lateral útil A eficiência de potência η é definida como Para o caso especial de modulação por tom Logo com a condição 0 μ 1 Podemos observar que η cresce monotonamente com μ e que η max ocorre em μ 1 de modo que η max 33 Portanto para modulação por tom na melhor condição μ 1 apenas um terço da potência transmitida é usada para transportar mensagens No caso de sinais práticos a eficiência é ainda pior da ordem de 25 ou menos em comparação com sinais DSB SC A melhor condição implica μ 1 Menores valores de μ degradam a eficiência ainda mais Por essa razão compressão de volume e limitação de pico são comumente empregadas em AM para assegurar que modulação completa μ 1 é mantida na maior parte do tempo Determinemos η e a porcentagem da potência total transportada pelas bandas laterais da onda AM com modulação por tom quando μ 05 e μ 03 Para μ 05 Logo apenas 11 da potência total reside nas bandas laterais Para μ 03 Ou seja apenas 43 da potência está nas bandas laterais que contêm o sinal de mensagem Geração de Sinais AM Em princípio a geração de sinais AM é idêntica à de sinais DSBSC discutidos na Seção 42 exceto pela componente adicional de portadora A cos ω c t que deve ser adicionada ao sinal DSBSC Demodulação de Sinais AM Como no caso de sinais DSBSC o sinal AM pode ser demodulado de forma coerente por uma portadora gerada localmente Contudo a demodulação AM coerente ou síncrona viola o propósito de AM pois não tira vantagem da componente adicional de portadora A cos ω c t Como vimos no caso μ 1 o envelope do sinal AM segue o sinal de mensagem mt A seguir consideremos dois métodos incoerentes de demodulação AM sob a condição 0 μ 1 detecção por retificação e detecção de envelope Detector Retificador Se um sinal AM for aplicado a um circuito consistindo em um diodo e um resistor Fig 410 a parte negativa da onda AM será removida A saída através do resistor é uma versão retificada de meia onda do sinal AM Visualmente o diodo funciona como um tesoura que corta os meios ciclos negativos da senoide modulada Em essência na saída do retificador o sinal AM é multiplicado por wt Logo a saída retificada de meia onda v Rt é Figura 410 Detector retificador de AM Quando v Rt é aplicado a um filtro passabaixas com frequência de corte B Hz a saída é A mtπ e todos os outros termos em Quando v Rt é aplicado a um filtro passabaixas com frequência de corte B Hz a saída é A mtπ e todos os outros termos em v R de frequências maiores que B Hz são suprimidos O termo dc Aπ pode ser bloqueado por um capacitor Fig 410 resultando na saída desejada mtπ A saída pode ser dobrada com o uso de um retificador de onda completa É interessante observar que por causa da multiplicação por wt a detecção por retificação é para todos os efeitos uma detecção síncrona realizada sem o uso de um oscilador local Em AM a alta componente da portadora assegura que as passagens por zero sejam periódicas e portanto que informação a respeito da frequência e da fase da portadora no transmissor estejam embutidas no próprio sinal AM Detector de Envelope A saída de um detector de envelope segue o envelope do sinal modulado O circuito simples ilustrado na Fig 411a funciona como um detector de envelope No ciclo positivo do sinal de entrada a entrada cresce e pode ultrapassar a tensão carregada no capacitor v C t Ligando o diodo e permitindo que o capacitor C se carregue até a tensão de pico do ciclo do sinal de entrada À medida que o sinal de entrada cai abaixo do valor de pico seu valor rapidamente fica abaixo da tensão no capacitor que é muito próxima do valor de pico causando a abertura do diodo Agora o capacitor se descarrega através do resistor R a uma taxa mais baixa com constante de tempo RC Durante o próximo ciclo positivo o mesmo drama se repete Quando o sinal de entrada ultrapassa a tensão no capacitor o diodo volta a conduzir Novamente o capacitor se carrega até o valor de pico deste novo ciclo O capacitor se descarrega lentamente durante o ciclo negativo Durante cada ciclo positivo o capacitor se carrega até a tensão de pico do sinal de entrada e então se descarrega lentamente até o próximo ciclo positivo como ilustrado na Fig 411b Assim a tensão de saída v C t segue o crescente envelope do sinal AM de entrada Igualmente importante o lento descarregamento do capacitor através do resistor R permite que a tensão no capacitor siga o envelope decrescente O descarregamento do capacitor entre picos positivos origina um sinal oscilatório de frequência ω c na saída Essa oscilação ripple pode ser reduzida com a escolha de uma maior constante de tempo RC de modo que o capacitor se descarregue muito pouco entre picos positivos RC 1ω c Contudo a escolha de um valor muito grande para RC impossibilitaria que a tensão no capacitor seguisse um envelope de declínio rápido ver Fig 411b Uma vez que a máxima taxa de declínio do envelope AM é determinada pela largura de banda B do sinal de mensagem mt o critério de projeto para RC deve ser A saída do detector de envelope é v C t A mt com um ripple de frequência ω c O termo dc A pode ser bloqueado por um capacitor ou um simples filtro passaaltas RC O ripple pode ser ainda mais reduzido com o uso de um outro filtro RC passa baixas 44 Figura 411 Detector de envelope para AM MODULAÇÕES EM AMPLITUDE COM EFICIÊNCIA DE LARGURA DE BANDA Como ilustrado na Fig 412 o espectro DSB tanto para portadora suprimida como para AM tem duas bandas laterais uma banda lateral superior USB e uma banda lateral inferior LSB cada uma contendo a informação completa do sinal em banda base mt Em consequência para um sinal em banda base mt com largura de banda B Hz modulações DSB requerem para transmissão o dobro da largura de banda de radiofrequência Para melhorar a eficiência espectral da modulação em amplitude existem dois esquemas básicos que ou tiram proveito da redundância espectral de 100 ou a removem Modulação em banda lateral simples SSB singlesideband que remove a LSB ou a USB e usa apenas uma largura de banda de B Hz para um sinal de mensagem mt modulação em amplitude em quadratura QAM quadrature amplitude modulation que usa a redundância espectral para enviar duas mensagens na mesma largura de banda de 2B Hz Figura 412 a Espectro original da mensagem b Redundância de largura de banda na modulação DSB Figura 413 Espectros SSB obtidos com supressão de uma das bandas laterais de DSB Modulação em Amplitude Banda Lateral Simples SSB Como ilustrado na Fig 413 a LSB ou a USB pode ser suprimida do sinal DSB via filtragem passafaixa Esquemas em que apenas uma das bandas laterais é transmitida são conhecidos como de transmissão em banda lateral simples SSB e requerem apenas a metade da largura de banda do sinal DSB Um sinal SSB pode ser demodulado de modo coerente síncrono da mesma forma que um sinal DSBSC Por exemplo a multiplicação de um sinal USB Fig 413c por cos ω c t desloca o espectro do mesmo para a esquerda e para a direita por ω c resultando no espectro ilustrado na Fig 413e Uma filtragem passabaixas desse sinal produz o desejado sinal em banda base O mesmo se aplica a sinais LSB Como a demodulação de sinais SSB é idêntica à de sinais DSB os transmissores podem utilizar apenas a metade da largura de banda de sinais DSBSC sem qualquer custo adicional nos receptores Como uma componente de portadora não acompanha o sinal modulado SSB as saídas desse tipo de moduladores são referidas como sinais com portadora suprimida SSBSC Transformada de Hilbert A seguir apresentaremos uma nova ferramenta que usaremos mais adiante conhecida como transformada de Hilbert Usamos x ht e xt para denotar a transformada de Hilbert do sinal xt Vale observar que o lado direito da Eq 415 tem a forma de uma convolução Figura 414 Função de transferência de um deslocador de fase ideal de π2 transformador de Hilbert A aplicação da propriedade de dualidade do par 12 da Tabela 31 resulta em 1πt j sgn f Aplicação da propriedade da convolução temporal à convolução da Eq 415 leva a Da Eq 416 temos que se mt passar por uma função de transferência Hf j sgn f a saída será m ht a transformada de Hilbert de mt Como temos que Hf 1 e θ hf π2 para f 0 e π2 para f 0 como mostrado na Fig 414 Dessa forma se alterarmos a fase de cada componente de mt de π2 sem alterar sua amplitude o sinal resultante será m ht a transformada de Hilbert de mt Portanto um transformador de Hilbert é um deslocador de fase ideal que translada a fase de cada componente espectral de π2 Representação de Sinais SSB no Domínio do Tempo Uma vez que os blocos fundamentais de um sinal SSB são as bandas laterais busquemos primeiro uma expressão para cada banda lateral no domínio do tempo A Fig 415a mostra o espectro de mensagem Mf A Fig 415b mostra sua metade direita M f e a Fig 415c a metade esquerda M f Das Fig 415b e c observamos que Agora podemos expressar o sinal SSB em termos de mt e m ht A partir da Fig 415d fica claro que o espectro USB Φ USB f pode ser expresso como Da propriedade de translação na frequência a transformada inversa dessa equação é dada por Da mesma forma podemos mostrar que a Mf b Mf c Mf d Mf fc Exemplo 46 Figura 415 Expressão de espectros SSB em termos de M f e M f Logo um sinal SSB genérico φ SSB t pode ser expresso como em que o sinal menos se aplica a USB e o sinal mais a LSB Dada a expressão de sinais SSBSC no domínio do tempo podemos agora confirmar analiticamente e não graficamente que sinais SSBSC podem ser demodulados coerentemente Logo o produto φ SSB t 2 cos ω c t produz o sinal em banda base e outro sinal SSB com portadora 2ω c O espectro na Fig 413e mostra precisamente esse resultado Um filtro passabaixas suprimirá os termos SSB indesejados fornecendo o desejado sinal em banda base mt Assim o demodulador é idêntico ao demodulador síncrono usado para sinais DSBSC Portanto qualquer um dos demoduladores DSBSC discutidos na Seção 42 pode ser usado para demodular um sinal SSBSC Modulação por Tom SSB Determinemos φ SSB t para o caso simples de uma modulação por tom ou seja em que o sinal modulante é uma senoide mt cos ω m t Determinemos também a demodulação coerente desse sinal SSB Recordemos que a transformada de Hilbert atrasa a fase de cada componente espectral de π2 No caso considerado há apenas uma componente espectral de frequência ω m O atraso da fase de mt de π2 resulta em Logo da Eq 420c Portanto Para comprovar esses resultados consideremos o espectro de mt Fig 416a e seus espectros DSBSC Fig 416b USB Fig 416c e LSB Fig 416d Fica evidente que os espectros nas Fig 416c e d correspondem de fato aos espectros de φ USB t e φ LSB t deduzidos anteriormente Figura 416 Espectros SSB para modulação por tom Por fim a demodulação coerente da modulação SSB por tom é obtida de que pode ser aplicado a um filtro passabaixas para recuperar o tom de mensagem cos ω m t Sistemas de Modulação SSB Três métodos são comumente empregados para gerar sinais SSB deslocamento de fase filtragem seletiva e o método de Weaver 1 Nenhum desses métodos de modulação é preciso e todos em geral requerem que o espectro do sinal em banda base tenha baixa potência nas proximidades da origem O método de deslocamento de fase usa diretamente a Eq 420 como base A Fig 417 mostra sua implementação A caixa rotulada π2 é um deslocador de fase que atrasa a fase de cada componente espectral positiva de π2 Portanto é um transformador de Hilbert Vale notar que um deslocador de fase de Hilbert ideal é irrealizável pois o deslocador de fase de Hilbert requer uma mudança brusca de fase de π na frequência zero Quando a mensagem mt tem um nulo dc e pouco conteúdo de baixa frequência a aproximação prática desse deslocador de fase ideal praticamente não afeta a precisão da modulação SSB No método de filtragem seletiva o mais usado na geração de sinais SSB um sinal DSBSC é passado por um filtro de corte abrupto para eliminar a banda lateral indesejada Para a obtenção de USB o filtro deve deixar passar sem atenuação todas as componentes acima da frequência f c e deve suprimir completamente todas as componentes abaixo de f c Uma operação como essa exige um filtro ideal que é irrealizável Contudo uma boa aproximação é possível caso exista alguma separação entre a banda passante e a banda de rejeição Felizmente o sinal de voz satisfaz esta condição pois seu espectro exibe pouco conteúdo de potência na origem Fig 418a Adicionalmente testes mostraram que para sinais de voz componentes de frequências abaixo de 300 Hz não são importantes Em outras palavras podemos suprimir todas as componentes abaixo de 300 Hz e acima de 3500 Hz sem afetar a inteligibilidade de modo considerável Assim a filtragem da banda lateral indesejada se torna relativamente fácil no caso de sinais de voz pois nos resta uma região de transição de 600 Hz em torno da frequência de corte f c Para minimizar interferência em canais adjacentes a banda lateral indesejada deve ser atenuada em pelo menos 40 dB Figura 417 Geração de SSB com o método de deslocamento de fase Figura 418 a Espectro de potência relativa de um sinal de voz e b correspondente espectro USB Para frequência portadora f c muito alta a razão entre a separação de banda 600 Hz e a frequência portadora pode ser demasiadamente pequena e em consequência uma transição de 40 dB em amplitude pode ser difícil de alcançar Nesse caso um terceiro método conhecido como método de Weaver 1 faz uso de dois estágios de modulação em amplitude SSB Primeiro a modulação é efetuada com uma frequência portadora baixa f c 1 O resultante sinal SSB efetivamente alarga a separação para 2fc1 ver espectro hachurado na Fig 418b A seguir esse sinal é tratado como um novo sinal em banda base o que permite alcançar a modulação SSB em uma frequência portadora mais elevada Detecção de Sinais SSB com Portadora SSBC Agora consideremos sinais SSB com uma portadora adicional SSBC Tais sinais podem ser expressos como e mt pode ser recuperado por detecção síncrona multiplicando φ SSBC por cos ω c t se a componente de portadora A cos ω c t puder ser extraída via filtragem de banda estreita de φ SSBC Alternativamente se a amplitude A da portadora for suficientemente grande mt também pode ser aproximadamente recuperado de φ SSBC por detecção de envelope ou com retificação Para vermos isso reescrevemos φ SSBC como em que Et o envelope de φ SSBC é dado por ver Eq 341a Se A mt em geral A m ht e os termos podem ser ignorados Assim Usando expansão em série de Taylor e descartando termos de ordens superiores pois mtA 1 obtemos Fica evidente que para uma portadora intensa o sinal SSBC pode ser demodulado por um detector de envelope Em AM a detecção de envelope exige a condição A mt enquanto em SSBC a condição é A mt Portanto no caso SSB a necessária amplitude da portadora é muito maior que em AM e consequentemente a eficiência de SSBC é pateticamente baixa Modulação em Amplitude em Quadratura QAM Dada a dificuldade em gerar sinais SSBSC com precisão a modulação em amplitude em quadratura QAM representa uma alternativa atraente a SSBSC QAM pode ser gerada com exatidão sem a exigência de filtros passafaixa com corte abrupto O funcionamento de QAM é baseado na trans missão de dois sinais DSB com portadoras de mesma frequência mas em quadratura de fase como ilustrado na Fig 419 Esse esquema é referido como modulação em amplitude em quadratura QAM ou multiplexação em quadratura 45 Figura 419 Multiplexação em amplitude em quadratura Como mostrado na Fig 419 as caixas rotuladas π2 são deslocadores de fase que atrasam a fase de uma entrada senoidal de π2 rad Se os dois sinais de mensagens em banda base a serem transmitidos forem m 1t e m 2t o correspondente sinal QAM φ QAMt a soma de dois sinais modulados DSB é Os dois sinais modulados ocupam a mesma banda No entanto os dois sinais em banda base podem ser separados no receptor por detecção síncrona caso as duas portadoras locais sejam usadas em quadratura de fase como mostrado na Fig 419 Para comprovarmos isso consideremos a saída do multiplicador x 1t no braço superior do receptor Fig 419 Os dois últimos termos são sinais passafaixa centrados em 2ω c Na verdade formam um sinal QAM com frequência portadora 2ω c Esses termos são suprimidos por um filtro passafaixa resultando na desejada saída demodulada m 1t Do mesmo modo podemos mostrar que a saída do braço inferior do receptor é m 2t Assim dois sinais em banda base cada um com largura de banda de B Hz podem ser transmitidos simultaneamente em uma largura de banda 2B com o uso de transmissão DSB e multiplexação em quadratura O canal superior também é referido como canal em fase I e o canal inferior como canal em quadratura Q Os dois sinais m 1t e m 2t podem ser demodulados separadamente No entanto vale notar que a demodulação QAM deve ser totalmente síncrona Um erro na fase ou na frequência da portadora no demodulador resultará em perda e interferência entre os dois canais Para mostrarmos isso consideremos que a portadora no demodulador seja 2 cos ω c t θ Nesse caso Os dois filtros passabaixas suprimem os dois sinais modulados por portadora de frequência angular 2ω c resultando na primeira saída do demodulador m 1tcosθ m 2tsenθ Assim além do desejado sinal m 1t também temos o sinal recebido m 2t no braço superior do receptor Um fenômeno semelhante ocorre no braço inferior Essa interferência cocanal é indesejável Dificuldades semelhantes surgem quando há erro na frequência local ver Exercício 441 Adicionalmente atenuação desigual na USB e na LSB durante a transmissão leva a interferência cruzada ou cocanal Multiplexação em quadratura é usada em televisão analógica em cores para multiplexar os chamados sinais de crominância que transportam informação sobre cores Nesse caso a sincronização é alcançada com a inserção periódica de uma breve explosão de sinal da portadora referida como explosão de cor no sinal transmitido A transmissão de televisão digital por satélite também faz uso de QAM Em termos de exigências de largura de banda a SSB é semelhante à QAM mas menos exigente em termos de frequência e fase da portadora e da necessidade de um meio de transmissão sem distorção Contudo a geração de SSB se torna difícil quando o sinal em banda base mt tem significante conteúdo espectral próximo a dc MODULAÇÕES EM AMPLITUDE BANDA LATERAL VESTIGIAL VSB Como discutido anteriormente a geração de sinais SSB exatos é difícil Em geral isso requer que o sinal de mensagem mt tenha um nulo em torno de dc Um deslocador de fase necessário para o método de deslocamento de fase é irrealizável ou pode ser realizado apenas de forma aproximada A geração de sinais DSB é muito mais simples mas requer o dobro da largura de banda de sinal A modulação em banda lateral vestigial VSB vestigial sideband também referida como sistema de banda lateral assimétrica representa um equilíbrio entre DSB e SSB A VSB herda as vantagens de DSB e de SSB mas evita suas desvantagens a um pequeno custo A geração de sinais VSB é relativamente simples e ao mesmo tempo a largura de banda dos mesmos é apenas a um pequeno custo A geração de sinais VSB é relativamente simples e ao mesmo tempo a largura de banda dos mesmos é apenas um pouco maior tipicamente 25 que a de sinais SSB Em VSB em vez de rejeitar uma banda lateral completamente como em SSB um corte gradual de uma banda lateral como mostrado na Fig 420d é aceitável O sinal em banda base pode ser recuperado exatamente por um detector síncrono em conjunto com um filtro equalizador apropriado H of na saída do receptor Fig 421 Caso uma portadora mais intensa seja transmitida juntamente com o sinal VSB o sinal em banda base pode ser recuperado por um detector de envelope ou detector retificador Figura 420 Espectros do sinal modulante e dos correspondentes sinais DSB SSB e VSB Se o filtro formatador vestigial que produz VSB a partir de DSB for H if Fig 421 o espectro do resultante sinal VSB é Este filtro formatador VSB H if permite a transmissão de uma banda lateral e suprime a outra não completamente mas de forma gradual Isso facilita a realização do filtro mas resulta em uma largura de banda ligeiramente maior do que a de SSB em que a outra banda lateral é totalmente suprimida A largura de banda do sinal VSB é tipicamente 25 a 33 maior que a de sinais SSB Desejamos que mt seja recuperável de φ VSB t com demodulação síncrona no receptor Para isso o sinal VSB recebido φ VSB t é multiplicado por 2 cos ω c t O produto et é dado por O sinal et é ainda aplicado a um filtro passabaixas equalizador com função de transferência H of A saída do filtro equalizador deve ser mt O espectro do sinal de saída é dado por A substituição da Eq 423 na equação anterior e a eliminação do espectro em 4f c suprimido pelo filtro passabaixas H of resultam em Logo Como H if é um filtro passafaixa os termos H if f c contêm componentes passabaixas Filtro VSB Complementar e Detecção de Envelope de Sinais VSBC Como um caso especial de um filtro no modulador VSB podemos escolher H if tal que O filtro de saída consiste apenas em um filtro passabaixas com função de transferência O sinal resultante VSB mais portadora VSBC pode ser demodulado por detecção de envelope Podemos comprovar esse método de demodulação usando exatamente o mesmo argumento empregado no caso de sinais SSBC Em particular devido à Eq 426 podemos definir um novo filtro passabaixas Figura 421 Modulador e demodulador VSB Definindo um novo sinal passabaixas complexo como podemos reescrever o sinal VSB como Fica claro que os sinais modulados SSB e VSB têm a mesma forma com m ht de SSB substituído por um sinal passabaixas m v t em VSB Aplicando a mesma análise feita para a detecção de envelope de SSBC a adição de uma portadora intensa a φ VSB t permitirá a detecção de envelope de VSBC Mostramos que para detecção de envelope SSBC requer uma portadora muito mais intensa que DSBC AM Como VSBC é Exemplo 47 Mostramos que para detecção de envelope SSBC requer uma portadora muito mais intensa que DSBC AM Como VSBC é um caso intermediário a portadora adicional exigida em VSB é mais intensa que em AM mas menos intensa que em SSBC A frequência portadora de um certo sinal VSB é f c 20 kHz e a largura de banda do sinal em banda base é 6 kHz O filtro formatador VSB na saída H if que corta a gradualmente a banda lateral inferior ao longo de 2 kHz é mostrado na Fig 422a Determinemos o filtro de saída H of necessário à recepção sem distorção A Fig 422b mostra os segmentos passabaixas de H if f c H if f c Desse espectro nos interessa apenas a porção na banda base a restante porção indesejada é suprimida pelo filtro de saída Na banda de 0 a 2 kHz a amplitude desse espectro é 05 de 2 a 6 kHz a amplitude é 1 como mostrado na Fig 422b A Fig 422c mostra o desejado filtro de saída H of que é o recíproco do espectro na Fig 422b Eq 425 Figura 422 Modulador VSB e filtros do receptor Figura 423 Filtro do transmissor H T f filtro do frontend do receptor H R f e filtro passabaixas de saída do receptor H of para sistemas de televisão VSB 46 Uso de VSB na Difusão de Televisão VSB é um interessante equilíbrio entre SSB e DSB o que a torna muito atraente para sistemas de difusão de televisão O sinal de vídeo de televisão em banda base ocupa uma enorme largura de banda de 45 MHz de modo que um sinal DSB requer uma largura de banda de 9 MHz Para economizar largura de banda poderia ser desejável o uso de SSB Infelizmente isso criaria diversos problemas Primeiro o sinal de vídeo em banda base tem potência razoável na região de baixas frequências o que dificultaria a supressão completa de uma banda lateral Segundo para um receptor de difusão um detector de envelope é mais conveniente do que um detector síncrono pois reduz o custo do receptor Vimos anteriormente que SSBC tem baixa eficiência de potência Adicionalmente o uso de SSB aumentaria o custo do receptor A formatação espectral de sinais VSB de televisão é ilustrada na Fig 423 O espectro vestigial é controlado por dois filtros o filtro de RF do transmissor H T f e o filtro de RF do receptor H Rf No conjunto temos H if H T fH Rf Portanto o projeto do filtro de saída do receptor H of segue a Eq 425 O espectro DSB de um sinal de televisão é mostrado na Fig 424a O filtro de formatação vestigial H if corta gradualmente o espectro da banda lateral inferior de 075 MHz a 125 MHz abaixo da frequência portadora f c como ilustrado na Fig 424b O filtro de saída do receptor H of é projetado segundo a Eq 425 A resultante largura espectral VSB é de 6 MHz Esse valor deve ser comparado com os 9 MHz da largura de banda DSB e os 45 MHz da largura de banda SSB Figura 424 Espectro de sinal de televisão a sinal DSB b sinal transmitido SINCRONIZAÇÃO DA PORTADORA LOCAL Em um sistema modulado em amplitude com portadora suprimida DSBSC SSBSC e VSBSC o receptor coerente deve gerar uma portadora local em sincronia de frequência e fase com a portadora recebida Como discutido anteriormente qualquer discrepância de frequência ou fase da portadora local causa distorção na saída do detector Consideremos um caso SSBSC em que o sinal recebido é devido ao atraso de propagação e ao deslocamento de frequência Doppler A portadora local continua sendo 2 cos ω c t O produto do sinal recebido pela portadora local é et dado por 47 A componente passafaixa é suprimida pelo filtro passabaixas do receptor deixando a saída e ot como Se Δω e δ forem ambos nulos nenhum erro de frequência nem de fase então e 0t mt como esperado Na prática se a onda de rádio viajar uma distância de d metros à velocidade da luz c o atraso de fase será que pode ser qualquer valor no intervalo π π Dois osciladores com inicialmente a mesma frequência também podem se afastar Se o receptor ou o transmissor estiver viajando a uma velocidade v e o máximo deslocamento de frequência Doppler será A velocidade v e depende do veículo em questão nave espacial avião carro etc Por exemplo para uma velocidade v e de 108 kmh e uma frequência portadora de 100 MHz o máximo deslocamento de frequência Doppler será de 10 Hz Um deslocamento fixo Δω de cada componente de frequência destrói a relação harmônica entre as mesmas Para Δf 10 Hz as componentes de frequência em 1000 e 2000 Hz serão deslocadas para 1010 e 2010 Hz respectivamente Isso afeta a relação harmônica entre elas e em consequência a qualidade de sinais que não são de áudio É interessante observar que sinais de áudio são altamente redundantes e a menos que Δf seja muito grande uma alteração como essa não destrói a inteligibilidade da saída Para sinais de áudio Δf 30 Hz não afeta a qualidade dos mesmos de modo significativo Δf 30 Hz resultará em uma qualidade de som semelhante à voz do Pato Donald Contudo a inteligibilidade não é completamente perdida Em geral há duas maneiras de recuperar uma portadora que chega ao receptor Uma consiste em o transmissor transmitir um sinal piloto senoidal que pode ser a portadora exata ou diretamente a ela relacionado por exemplo um piloto na metade da frequência portadora O piloto é separado no receptor por um filtro de largura de banda muito estreita e sintonizado na frequência do piloto O sinal piloto é amplificado e usado para sincronizar o oscilador local Em outro método no qual um piloto não é transmitido o receptor emprega um dispositivo não linear para processar o sinal recebido e gerar uma componente separada da portadora que pode ser extraída por meio de filtros passafaixa estreitos Fica claro que filtros passafaixa eficientes e de pequena largura de banda são muito importante para os dois métodos Além disso o filtro passafaixa também deve ter a capacidade de ajustar de modo adaptativo sua frequência central para combater deslocamentos de frequência ou deslocamentos Doppler significativos Afora algumas configurações típicas de filtros passafaixa a malha de captura de fase PLL phase locked loop que tem papel crucial na aquisição de portadora de vários esquemas de modulação pode ser vista como um desses filtros passafaixa adaptativos Os princípios de PLL serão discutidos mais adiante neste capítulo MULTIPLEXAÇÃO POR DIVISÃO EM FREQUÊNCIA FDM A multiplexação de sinais permite a transmissão de vários sinais em um mesmo canal No Capítulo 6 discutiremos da multiplexação por divisão no tempo TDM time division multiplexing na qual vários canais compartilham um mesmo canal no tempo Em FDM frequency division multiplexing diversos sinais compartilham a banda de um canal Cada sinal é modulado por uma frequência portadora diferente Essas portadoras referidas como subportadoras são adequadamente separadas para evitar sobreposição interferência dos espectros dos vários sinais modulados Cada sinal pode usar um tipo distinto de modulação por exemplo DSBSC AM SSBSC VSBSC ou até mesmo modulação em frequência ou modulação em fase O espectro do sinal modulado pode ser separado por uma estreita banda de guarda para evitar interferência e facilitar a separação de sinais no receptor Quando todos os espectros dos sinais modulados são somados obtemos um sinal composto que pode ser considerado como um sinal em banda base que para transmissão pode modular uma portadora de radiofrequência RF No receptor o sinal de entrada é primeiro demodulado pela portadora de RF para recuperar o sinal em banda base composto a seguir esse é aplicado a filtros passafaixa para separar todos os sinais modulados Cada sinal modulado é então demodulado individualmente por uma subportadora apropriada para fornecer os desejados sinais em banda base originais Um exemplo simples de FDM é o sistema de telefonia analógica de longa distância Há dois tipos de sistemas de portadoras de 48 1 2 3 Um exemplo simples de FDM é o sistema de telefonia analógica de longa distância Há dois tipos de sistemas de portadoras de telefonia de longa distância o sistema legado de hierarquia analógica de portadora L e o sistema norteamericano de hierarquia digital de portadora T ou o sistema europeu de portadora E 3 Ambos foram padronizados pela União Internacional de Telecomunicações International Telecommunications Union conhecida antes de 1992 como CCITT Comité Consultatif International Téléphonique et Télégraphique Discutiremos primeiro a hierarquia de telefonia analógica que utiliza FDM e modulação SSB a discussão da hierarquia digital será feita posteriormente no Capítulo 6 Figura 425 Sistema de multiplexação por divisão em frequência para telefonia analógica de longa distância na hierarquia de portadora L Na hierarquia analógica de portadora L 4 cada canal de voz é modulado com uso de SSBC Doze canais de voz formam um grupo básico de canais que ocupa a banda de 60 a 108 kHz Como mostrado na Fig 425 cada canal de usuário utiliza a LSB e a multiplexação por divisão em frequência FDM é alcançada mantendo uma separação de 4 kHz entre portadoras de canal Acima na hierarquia 5 cinco grupos formam um supergrupo via FDM A multiplexação de 10 supergrupos gera um grupo mestre a multiplexação de seis supergrupos forma um grupo jumbo que consiste em 3600 canais de voz em uma banda de frequência de 16984 MHz no sistema L4 A cada nível da hierarquia a partir do supergrupo espaçamentos adicionais de frequência são previstos para redução de interferência e para a inserção de frequênciaspiloto O sinal multiplexado pode ser alimentado à entrada de banda base de um canal de rádio de microondas ou diretamente a um sistema de transmissão coaxial MALHA DE CAPTURA DE FASE PHASE LOCKED LOOP PLL E ALGUMAS APLICAÇÕES Malha de Captura de Fase PLL A malha de captura de fase PLL é um dispositivo muito importante geralmente usado para rastrear a fase e a frequência de uma componente de portadora de um sinal recebido Portanto é um dispositivo útil para a demodulação síncrona de sinais AM com portadora suprimida ou com uma portadora de baixa intensidade piloto A PLL também pode ser usada para a demodulação de sinais modulados em ângulo especialmente sob condições de baixa relação sinalruído SNR signaltonoise ratio A PLL também encontra importantes aplicações em vários sistemas de recuperação de relógio incluindo recuperação de tempo em receptores digitais Por essas razões a PLL tem um papel essencial em praticamente todos os modernos sistemas de comunicação digitais e analógicos Uma PLL tem três componentes básicos Um oscilador controlado por tensão VCO voltagecontrolled oscillator Um multiplicador que funciona como um detector de fase PD phase detector ou comparador de fase Um filtro de malha Hs 3 Um filtro de malha Hs Figura 426 Malha de captura de fase e seu circuito equivalente Funcionamento Básico da PLL O funcionamento da PLL é similar ao de um sistema de realimentação Fig 426a Em um típico sistema de realimentação o sinal de realimentação tende a seguir o sinal de entrada Caso o sinal de realimentação não seja igual ao de entrada a diferença entre os dois conhecida como erro alterará o sinal de realimentação até que este se aproxime do sinal de entrada O princípio de funcionamento de uma PLL é semelhante exceto que a grandeza realimentada e comparada não é a amplitude mas a fase O VCO ajusta sua própria frequência até que suas frequência e fase acompanhem a frequência e a fase do sinal de entrada Nesse ponto os dois sinais estão em sincronismo exceto se por uma possível diferença de fase constante O oscilador controlado por tensão VCO é um oscilador cuja frequência pode ser controlada linearmente por uma tensão de entrada Se a tensão de entrada em um VCO for e ot sua saída será uma senoide com frequência instantânea dada por em que c é uma constante do VCO e ω c a frequência livre do VCO quando e ot 0 A saída do multiplicador sofre uma filtragem passabaixas pelo filtro de malha e então é aplicada à entrada do VCO Essa tensão altera a frequência do oscilador e mantém a malha travada locked forçando a saída do VCO a rastrear a fase e consequentemente a frequência da senoide de entrada Se a saída do VCO for B cos ω c t θ ot sua frequência instantânea será Portanto Notemos que c e B são parâmetros constantes da PLL Admitamos que o sinal que chega sinal de entrada da PLL seja A sen ω c t θ it Caso o sinal que chega seja A sen ω ot ψt ainda pode ser expresso como A sen ω c t θ it em que θ it ω o ω c t ψt Logo a análise a seguir é geral e não é restrita à condição de que a frequência do sinal que chega seja igual à do sinal livre do VCO A saída do multiplicador é O termo da soma de frequências é suprimido pelo filtro de malha Assim a saída efetiva do filtro de malha é ½AB sen θ it θ ot Seja ht a resposta do filtro de malha ao impulso unitário portanto Substituindo a Eq 432 na Eq 431 e tomando K ½cB obtemos em que θ e t é o erro de fase definido como Essas equações juntamente com a Eq 431 sugerem prontamente um modelo para a PLL como ilustrado na Fig 426b O projeto da PLL requer seleção criteriosa do filtro de malha Hs e do ganho da malha AK Diferentes filtros de malha podem permitir que a PLL capture e rastreie sinais de entrada com distintos tipos de variação de frequência O ganho da malha por sua vez pode afetar a faixa de variações de frequência que podem ser rastreadas Análise de PLL sob Pequeno Erro Na análise de PLL sob pequeno erro sen θ e θ e de modo que o diagrama de blocos na Fig 426b se reduz ao sistema linear invariante no tempo mostrado na Fig 427a Uma simples análise de realimentação fornece Portanto a PLL atua como um filtro com função de transferência AKHss AKHs como indicado na Fig 427b O erro Θ e s é dado por Uma das importantes aplicações de PLL é a aquisição de frequência e de fase para efeitos de sincronização Seja A sen ω 0t φ 0 o sinal que chega Desejamos gerar um sinal local de frequência ω 0 e fase φ 0 Supondo que a frequência quiescente do VCO seja ω c o sinal que chega pode ser expresso como A sen ω c t θ it em que e Consideremos o caso especial de Hs 1 A substituição dessa equação na Eq 435 resulta em Consideremos o caso especial de Hs 1 A substituição dessa equação na Eq 435 resulta em Logo Observemos que Figura 427 Circuitos equivalentes de uma PLL linearizada Portanto depois da morte do transiente em cerca de 4AK segundos o erro de fase mantém um valor constante ω 0 ω c AK Isso significa que a frequência da PLL por fim se iguala à frequência recebida ω 0 Existe no entanto um erro de fase constante A saída da PLL é Para uma PLL de segunda ordem que usa o teorema do valor final fornece diretamente 6 Nesse caso a PLL adquire por fim tanto a frequência como a fase do sinal recebido Podemos usar a análise sob pequeno erro para mostrar que uma malha de primeira ordem não é capaz de rastrear um sinal recebido cuja frequência instantânea varia linearmente com o tempo No entanto com o emprego de uma malha de segunda ordem Eq 437 um sinal desse tipo pode ser rastreado a menos de uma fase constante erro de fase constante com uma malha de Eq 437 um sinal desse tipo pode ser rastreado a menos de uma fase constante erro de fase constante com uma malha de terceira ordem o sinal pode ser rastreado com erro de fase nulo 7 Vale ressaltar que a análise anterior leva em consideração um modelo linear válido apenas quando θ e t π2 Isso significa que as frequências ω 0 e ω c devem ser muito próximas para que essa análise seja válida No caso geral devemos usar o modelo não linear na Fig 426b Para esse tipo de análise sugerimos uma consulta a Viterbi 7 Gardner 8 ou Lindsey 9 Análise de Malha de Primeira Ordem Aqui usaremos o modelo não linear na Fig 426b considerando o caso simples Hs 1 para o qual ht δt e a Eq 433 fornece Como θ e θ i θ 0 Consideremos agora o problema da aquisição de frequência e de fase Suponhamos que o sinal que chega seja A sen ω 0t φ 0 e que o VCO tenha uma frequência quiescente ω c Logo e Figura 428 Trajetória de uma PLL de primeira ordem Para uma melhor compreensão do comportamento da PLL usemos a Eq 440 para esboçar o gráfico de em função de θ e A Eq 440 mostra que é uma senoide deslocada verticalmente como mostrado na Fig 428 Para satisfazer a Eq 440 a operação da malha deve permanecer na trajetória da senoide como indicado na Fig 428 Quando 0 o sistema está em equilíbrio pois nesses pontos θ e deixa de variar no tempo Assim θ e θ 1 θ 2 θ 3 e θ 4 são pontos de equilíbrio Para um erro de fase inicial θ e 0 θ e0 Fig 428 então θ e correspondente a esse valor de θ e é negativo Portanto o erro de fase inicialmente diminuirá ao longo da trajetória da senoide até o valor θ 3 em que é alcançado equilíbrio Assim em estado estacionário o erro de fase é uma constante θ 3 Isso significa que a malha está travada em frequência ou seja a frequência do VCO passa a ser ω 0 mas há um erro de fase θ 3 Notemos contudo que se ω 0 ω c AK não há pontos de equilíbrio na Fig 428 a malha jamais alcança a condição de travamento e θ e se desloca ao longo da trajetória indefinidamente Portanto essa malha simples pode alcançar travamento de fase desde que a diferença entre a frequência de entrada ω 0 e a frequência quiescente ω c do VCO não seja superior a AK Na Fig 428 existem vários pontos de equilíbrio Metade desses pontos no entanto são pontos de equilíbrio instável o que implica que uma pequena perturbação no estado do sistema afastará mais o ponto de operação destes pontos de equilíbrio Os pontos θ 1 e θ 3 são estáveis pois qualquer pequena perturbação ao estado do sistema tenderá a trazêlo de volta a esses pontos Consideremos por exemplo o ponto θ 3 Caso o estado seja perturbado ao longo da trajetória em direção à direita será negativo o que tende a reduzir θ e e trazêlo de volta a θ 3 Caso o ponto de operação seja perturbado a partir de θ 3 para a esquerda será positivo e θ e tenderá a crescer e o ponto de operação retornará a θ 3 Contudo se o ponto de operação for perturbado em θ 2 em direção à direita será positivo e θ e aumentará até alcançar θ 3 Se em θ 2 o ponto de operação for perturbado para a esquerda direção à direita será positivo e θ e aumentará até alcançar θ 3 Se em θ 2 o ponto de operação for perturbado para a esquerda será negativo e θ e aumentará até alcançar θ 1 Portanto θ 2 é um ponto de equilíbrio instável Qualquer perturbação como ruído deslocará o ponto de operação para θ 1 ou θ 3 Do mesmo modo podemos mostrar que θ 4 é um ponto instável e que θ 1 é um ponto de equilíbrio estável O ponto de equilíbrio θ 3 ocorre onde 0 Logo da Eq 440 o que concorda com o resultado obtido anteriormente na análise sob pequeno erro Eq 436b A malha de primeira ordem está sujeita a um erro de fase constante Além disso pode alcançar travamento em frequência somente se a diferença entre a frequência que chega e a frequência quiescente do VCO não ultrapassar AK rads Malhas de ordens superiores superam essas desvantagens mas criam um novo problema de estabilidade Uma análise mais detalhada pode ser encontrada em Gardener 8 Generalização de Comportamentos de PLL Para generalização suponhamos que a malha esteja travada ou seja que as frequências das senoides de entrada e de saída sejam iguais Nesse caso dizemos que os dois sinais são mutuamente coerentes em fase ou estão em travamento de fase O VCO rastreia a frequência e a fase do sinal recebido Uma PLL é capaz de rastrear a frequência de entrada somente em uma faixa finita de deslocamentos de frequência Essa faixa é denominada faixa de retenção holdin range ou de travamento lock range Caso inicialmente as frequências de entrada e de saída não sejam suficientemente próximas a malha pode não alcançar o travamento A faixa de frequências na qual a entrada provocará o travamento da malha é denominada faixa de aquisição pullin range ou de captura capture range Caso a frequência de entrada varie muito rapidamente a malha pode não alcançar travamento Se a senoide de entrada for ruidosa a PLL não apenas é capaz de seguir a senoide mas também de limpála A PLL ainda pode ser usada como um demodulador de sinais modulados em frequência FM e como sintetizador de frequência como mostraremos no próximo capítulo Multiplicadores e divisores de frequência também podem ser construídos com PLL Por ser um circuito integrado relativamente barato a PLL se tornou um dos circuitos de comunicação mais utilizados Em naves espaciais devido ao deslocamento Doppler e à deriva do oscilador a frequência do sinal recebido contém muita incerteza O deslocamento Doppler da portadora pode chegar a 75 kHz enquanto a banda do sinal modulado desejado pode ser de apenas 10 Hz A recepção de um sinal desse tipo com receptores comuns exigiria um filtro de largura de banda de 150 kHz quando o sinal desejado tem uma largura de banda de apenas 10 Hz Isso causaria um aumento indesejável no ruído do receptor por um fator de 15000 pois a potência de ruído é proporcional à largura de banda Em casos como esse a PLL se mostra conveniente pois é capaz de seguir continuamente a frequência recebida de modo que a necessária largura de banda do filtro passa a ser de apenas 10 Hz Aquisição de Portadora em DSBSC A seguir discutiremos dois métodos de regeneração de portadora com o uso de PLL no receptor em DSBSC método quadrático e malha Costas Método Quadrático Este esquema é delineado na Fig 429 O sinal recebido é elevado ao quadrado e aplicado a um filtro passafaixa estreito de alto Q sintonizado em 2ω c A saída desse filtro é a senoide k cos 2ω c t juntamente com algum sinal residual indesejável Esse sinal é aplicado a uma PLL para a obtenção de uma senoide mais limpa no dobro da frequência portadora a senoide é então passada por um divisor de frequências 21 resultando em uma portadora local em sincronismo de fase e frequência com a portadora recebida A análise é simples O sinal quadrático xt é Como m 2t é um sinal não negativo tem valor médio não nulo ao contrário de mt que em geral tem valor médio nulo Suponhamos que o valor médio componente dc de m 2t2 seja k Com isso podemos expressar m 2t2 como Figura 429 Uso do quadrado do sinal para gerar uma portadora para demodulação coerente em que ϕt é um sinal em banda base de média zero m 2t menos sua componente dc Assim O filtro passafaixa é um filtro de banda estreita de alto Q sintonizado em 2ω c Esse filtro suprime totalmente o sinal m 2t cujo espectro é centrado em ω 0 O filtro também elimina a maior parte do sinal ϕt cos 2ω c t Isso ocorre porque o sinal embora tenha espectro centrado em 2ω c tem potência zero infinitesimal em 2ω c pois ϕt tem um valor dc zero Além disso essa componente é distribuída ao longo da banda de 4B Hz centrada em 2ω c Portanto muito pouco desse sinal passa pelo filtro de banda estreita Em contraste o espectro de k cos 2ω c t consiste em impulsos localizados em 2ω c Logo toda sua potência é centrada em 2ω c e passará pelo filtro Portanto a saída do filtro é k cos 2ω c t mais um pequeno resíduo indesejado de ϕt cos 2ω c t Esse resíduo pode ser eliminado com o uso de uma PLL que siga k cos 2ω c t A saída da PLL depois da passagem por um divisor de frequências 21 fornece a portadora desejada Aqui cabe uma ressalva Como o sinal recebido é perdido ao ser elevado ao quadrado temos uma ambiguidade de polaridade ou ambiguidade de fase π na portadora gerada No caso de sinais analógicos isso é irrelevante Contudo no caso de sinais digitais em banda base a polaridade da portadora é essencial e esse método não pode portanto ser usado diretamente Malha de Costas Outro esquema para a geração de uma portadora local proposto por Costas 10 é mostrado na Fig 430 O sinal recebido é mt cos ω c tθ i No receptor um VCO gera a portadora cos ω c t θ o O erro de fase é θ e θ i θ o Vários sinais são indicados na Fig 430 Os dois filtros passabaixas suprimem termos de altas frequências e fornecem mt cos θ e e mt sen θ e Essas saídas são então multiplicadas resultando em m 2t sen 2θ e A aplicação desse sinal a um filtro passabaixas de banda estreita produz a saída R sen 2θ e em que R é a componente dc de m 2t2 O sinal R sen 2θ e é aplicado à entrada de um VCO com frequência quiescente ω c A entrada R sen 2θ e aumenta a frequência de saída que por sua vez reduz θ e Esse mecanismo foi discutido em detalhes no contexto da Fig 426 Figura 430 Malha de aquisição de fase de Costas para a geração de uma portadora para demodulação coerente Aquisição de Portadora em SSBSC Para sincronização em um receptor SSBSC podemos usar osciladores a cristal altamente estáveis com cristais cortados para a mesma frequência no transmissor e no receptor Em frequências muito altas nas quais cristais de quartzo podem não ter desempenho adequado uma portadora piloto pode ser transmitida Esses são os mesmos métodos empregados para DSBSC Contudo nem o método quadrático nem a malha de Costas utilizados em DSBSC podem ser usados em SSBSC Para comprovar isto escrevemos o sinal SSBSC como 49 em que Elevando este sinal ao quadrado obtemos O sinal E 2t é eliminado por um filtro passafaixa Lamentavelmente o sinal remanescente não é uma senoide pura de frequência 2ω c como no caso DSB Nada podemos fazer para remover a fase variante no tempo 2θt dessa senoide Assim para SSB a técnica quadrática não funciona O mesmo argumento pode ser usado para mostrar que a malha de Costas também não funciona Essas conclusões se aplicam ainda a sinais VSB EXERCÍCIOS COM O MATLAB Nesta seção apresentamos exercícios baseados em MATLAB para reforçar alguns dos conceitos básicos de modulação analógica cobertos nas seções anteriores Usaremos exemplos que podem ilustrar a modulação e a demodulação de sinais DSBSC AM SSB SC e QAM Modulação e Demodulação DSBSC O primeiro programa MATLAB triplesincm gera um sinal que é quase estritamente limitado em banda e consiste em três versões atrasadas de um mesmo sinal Figura 431 Sinais do exemplo nos domínios do tempo e da frequência durante a modulação DSB O sinal DSBSC pode ser gerado com o arquivo MATLAB ExampleDSBm que gera um sinal DSBSC para t 004 004 A frequência portadora é 300 Hz O sinal de mensagem original e o sinal DSBSC nos domínios do tempo e da frequência são ilustrados na Fig 431 O primeiro exemplo de modulação ExampleDSBdemfiltm é baseado em um sinal de mensagem estritamente passa baixas m 0t A seguir geramos um sinal de mensagem diferente que não é estritamente limitado em banda Na verdade o novo sinal de mensagem consiste em dois triângulos A demodulação coerente também é implementada com um filtro passabaixas de resposta ao impulso finita FIR finite impulse response de ordem 40 O sinal de mensagem original mt o sinal DSBSC mt dos ω c t o sinal do demodulador et mt cos 2 ω c t e o sinal de mensagem m dt recuperado após filtragem passabaixas são ilustrados na Fig 432 no domínio do tempo e na Fig 433 no domínio da frequência O filtro passabaixas no demodulador tem largura de banda de 150 Hz O resultado da demodulação quase não exibe distorção Figura 432 Sinais nos domínios do tempo durante a modulação e a demodulação DSB Figura 433 Sinais nos domínios da frequência durante a modulação e a demodulação DSBSC Lfftlengtht Lfft2ceillog2Lfft MfrefftshiftfftmsigLfft freqqmLfft2Lfft21Lfftts Bm150 Bandwidth of the signal is Bm Hz hfir140Bmts Modulação e Demodulação AM Neste exercício geraremos um sinal AM convencional com índice de modulação μ 1 Usando o mesmo sinal de mensagem mt o programa MATLAB ExampleAMdemfiltm gera o sinal de mensagem o correspondente sinal AM o sinal retificado em demodulação não coerente e o sinal retificado após filtragem passabaixas O filtro passabaixas no demodulador tem largura de banda de 150 Hz Os sinais no domínio do tempo são ilustrados na Fig 434 e os correspondentes sinais no domínio da frequência na Fig 435 Figura 434 Sinais no domínio do tempo em modulação AM e demodulação não coerente Notemos o grande impulso no espectro do sinal AM A limitada janela temporal significa que um impulso ideal não é possível e que apenas picos intensos centrados na frequência portadora 300 Hz são visíveis Por fim como o sinal de mensagem não é estritamente limitado em banda a relativamente baixa frequência portadora de 300 Hz força o filtro passabaixas no demodulador a truncar algumas das componentes do sinal de mensagem no demodulador Distorção é visível nas proximidades dos cantos abruptos do sinal recuperado Figura 435 Sinais no domínio da frequência em modulação AM e demodulação não coerente Lfftlengtht Lfft2ceillog2Lfft MfrefftshiftfftmsigLfft freqqmLfft2Lfft21Lfftts Bm150 Bandwidth of the signal is Bm Hz Modulação e Demodulação SSBSC Para ilustrar os processos de modulação e de demodulação SSBSC esse exercício gera um sinal SSBSC usando o mesmo sinal de mensagem m 1t com triângulos duplos A frequência portadora continua sendo 300 Hz O programa MATLAB ExampleSSBdemfiltm executa essa função É aplicada demodulação coerente na qual um simples filtro passabaixas com largura de banda de 150 Hz é usado para produzir o sinal de mensagem recuperado Os sinais no domínio do tempo são mostrados na Fig 436 enquanto os correspondentes sinais no domínio da frequência são mostrados na Fig 437 Figura 436 Sinais no domínio do tempo durante modulação SSBSC e demodulação coerente Figura 437 Sinais no domínio da frequência durante modulação SSBSC e demodulação coerente Modulação e Demodulação QAM Neste exercício aplicaremos a QAM para modular e demodular dois sinais de mensagem m 1t e m 2t A frequência portadora permanece em 300 Hz mas dois sinais são modulados e detectados simultaneamente O sinal QAM é demodulado coerentemente com a multiplicação por cos 600π t e sen 600π t para recuperar os dois sinais de mensagem Cada produto é filtrado pelo mesmo filtro passabaixas de ordem 40 O programa MATLAB ExampleQAMdemfiltm completa essa ilustração produzindo gráficos dos sinais no domínio do tempo durante a modulação e a demodulação do primeiro sinal m 1t e do segundo sinal m 2t Os resultados para m 1t nos domínios do tempo e da frequência são mostrados nas Fig 438 e Fig 439 respectivamente As Fig 440 e Fig 441 mostram respectivamente os resultados para m 2t nos domínios do tempo e da frequência Figura 438 Sinais no domínio do tempo durante modulação QAM e demodulação coerente da primeira mensagem m 2t Figura 439 Sinais no domínio da frequência durante modulação QAM e demodulação coerente da primeira mensagem m 2t Figura 440 Sinais no domínio do tempo durante modulação QAM e demodulação coerente da segunda mensagem m 2t Figura 441 Sinais no domínio da frequência durante modulação QAM e demodulação coerente da segunda mensagem m 2t Lfftlengtht Lfft2ceillog2Lfft Mfrefftshiftfftmsig1Lfft Mfrefftshiftfftmsig2Lfft 1 2 3 4 5 6 7 8 9 10 421 a b c d 422 423 REFERÊNCIAS Single Sideband Issue Proc IRE vol 44 Dec 1956 D K Weaver Jr A Third Method of Generation and Detection of Single Sideband Signals Proc IRE vol 44 pp 17031705 Dec 1956 Bell Telephone Laboratories Transmission Systems for Communication 4th ed Murray Hill NJ 1970 R T James ATT Facilities and Services Proc IEEE vol 60 pp 13421349 Nov 1972 W L Smith Frequency and Time in Communications Proc IEEE vol 60 pp 589594 May 1972 B P Lathi B P Linear Systems and Signals Oxford University Press New York 2000 A J Viterbi Principles of Coherent Communication McGrawHill New York 1966 F M Gardner Phaselock Techniques 3rd ed Wiley Hoboken NJ 2005 W C Lindsey Synchronization Systems in Communication and Control PrenticeHall Englewood Cliffs NJ 1972 J P Costas Synchronous Communication Proc IRE vol 44 pp 17131718 Dec 1956 EXERCÍCIOS Para cada um dos sinais em banda base i mt cos 1000π t ii mt 2cos 1000π t sen 2000π t iii mt cos 1000π t cos 3000π t faça o seguinte Esboce o espectro de mt Esboce o espectro do sinal DSBSC mt cos 10000 π t Identifique os espectros da banda lateral superior USB e da banda lateral inferior LSB Identifique as frequências na banda base e as correspondentes frequências nos espectros DSBSC USB e LSB Explique em cada caso a natureza da translação de frequência Repita o Exercício 421 apenas as partes a b e c para i mt sinc 100t ii mt e t iii mt e t1 Observe que e t1 é e t atrasado de 1 segundo Para o último caso é necessário considerar tanto o espectro de magnitude como o de fase Repita o Exercício 421 apenas as partes a b e c para mt e t para a portadora cos 10000t π4 424 a b c d e 425 a b 426 a b π4 Sugestão Use a Eq 337 Projete um modulador DSBSC para gerar um sinal modulado kmt cos ω ct θ em que mt é um sinal limitado em banda a B Hz A Fig E424 mostra um modulador DSBSC disponível no estoque O gerador de portadora disponível produz cos 3 ω ct em vez de cos ω ct É possível gerar o sinal desejado usando apenas esse equipamento Você pode empregar qualquer tipo de filtro que achar necessário Que tipo de filtro é exigido na Fig E424 Determine os espectros do sinal nos pontos b e c e indique as bandas de frequências ocupadas por esses espectros Qual é o mínimo valor utilizável de ω c Esse esquema funcionaria se a saída do gerador de portadora fosse sen 3 ω ct Explique Figura E424 Esse esquema funcionaria se a saída do gerador de portadora fosse cos n ω ct para qualquer inteiro n 2 Projete um modulador DSBSC para gerar um sinal modulado kmt cos ω ct θ com uma frequência portadora f c 300 kHz ω c 2π 300000 O seguinte equipamento está disponível no estoque i gerador de sinal com frequência 100 kHz ii modulador em anel iii filtro passafaixa sintonizado em 300 kHz Mostre como gerar o sinal desejado Se a saída do modulador for k mt cos ω ct determine k Moduladores e demoduladores em amplitude também podem ser construídos sem o uso de multiplicadores Na Fig E426 a entrada ϕt mt e a amplitude A ϕt Os dois diodos são idênticos com uma resistência de r ohms no modo de condução e resistência infinita no modo de corte Mostre que a saída e 0 t é dada por em que wt é o sinal periódico chaveado mostrado na Fig 220a com período 2πW c segundos Mostre que esse circuito pode ser usado como um modulador DSBSC Como você usaria esse circuito como demodulador síncrono para sinais DSBSC 427 428 a b c 429 a b 4210 431 Figura E426 Na Fig E426 caso ϕt sen ω ct θ e a saída e 0 t seja aplicada a um filtro passabaixas mostre que o circuito pode ser usado como um detector de fase ou seja um circuito que mede a diferença de fase entre duas senoides de mesma frequência ω c Sugestão Mostre que a saída do filtro é um sinal dc proporcional a sen θ Dois sinais m 1 t e m 2 t ambos limitados em banda a 5000 Hz devem ser transmitidos simultaneamente em um canal com o esquema de multiplexação ilustrado na Fig E428 No ponto b o sinal é o sinal multiplexado que modula uma portadora de frequência 20000 Hz No ponto c o sinal modulado é transmitido no canal Esboce os espectros de sinais nos pontos a b e c Qual deve ser a largura de banda do canal Projete um receptor para recuperação dos sinais m 1 t e m 2 t a partir do sinal modulado no ponto c O sistema mostrado na Fig E429 é usado para embaralhar sinais de áudio A saída yt é a versão embaralhada da entrada mt Determine o espectro do sinal embaralhado yt Sugira um método para o desembaralhamento de yt para recuperar mt Figura E428 Uma versão ligeiramente modificada desse desembaralhador foi usada comercialmente pela primeira vez em um enlace de telefone via rádio de 25 milhas conectando Los Angeles à ilha de Santa Catalina Figura E429 Um sinal DSBSC é dado por mt cos 2π10 6 t A frequência portadora desse sinal 1 MHz deve ser alterada para 400 kHz O único equipamento disponível consiste em um modulador em anel um filtro passa faixa centrado em 400 kHz e um gerador de onda senoidal cuja frequência pode ser variada de 150 a 210 kHz Mostre como o sinal desejado cmt cos 2π H 400 H 10 3 t pode ser obtido de mt cos 2π10 6 t Determine o valor de c A Fig E431 mostra um esquema para demodulação coerente síncrona Mostre que esse esquema pode demodular o sinal AM A mt cos 2πf ct independentemente do valor de A 432 433 a b a 435 436 437 438 Figura E431 Esboce a forma de onda do sinal AM A mt cos 2πf ct para o sinal triangular periódico mt mostrado na Fig E432 com índices de modulação a μ 05 b μ 1 c μ 2 d μ Como você interpreta o caso μ Figura E432 Para o sinal AM com mt mostrado na Fig E432 e μ 08 Determine a amplitude e a potência da portadora Determine a potência na banda lateral e a eficiência de potência η Esboce a forma de onda do sinal DSBSC correspondente ao sinal de mensagem mt cos 2π t b O sinal DSBSC da parte a é aplicado à entrada de um detector de envelope Mostre que a saída do detector de envelope não é mt mas mt Mostre que em geral se um sinal AM A mt cos ω ct for detectado por envelope a saída é A mt Então mostre que a condição para a recuperação de mt com um detector de envelope é A mt 0 para todo t Mostre que qualquer esquema que possa ser usado para gerar sinais DSBSC também gera sinais AM A recíproca é verdadeira Justifique Mostre que qualquer esquema que possa ser usado para demodular sinais DSBSC também demodula sinais AM A recíproca é verdadeira Justifique No texto a eficiência de potência de AM para uma senoide mt foi determinada Efetue uma análise similar para o caso em que mt é um sinal binário aleatório como mostrado na Fig E437 e μ 1 Esboce a forma de onda do sinal AM com μ 1 Determine a potência na banda lateral e a potência total potência do sinal AM assim como a razão entre elas eficiência de potência η Figura E437 Na era inicial do rádio sinais AM eram demodulados por um detector a cristal seguido por um filtro passa baixas e um bloqueador dc como mostrado na Fig E438 Considere que um detector a cristal seja basicamente um dispositivo quadrático Determine os sinais nos pontos a b c e d Identifique o termo de distorção na saída yt Mostre que se A mt a distorção é pequena 441 442 a b i ii iii iv v 443 444 a b c 445 a b 446 a b c Figura E438 Em um sistema QAM Fig 419 a portadora gerada localmente tem um erro de frequência Δω e um erro de fase δ ou seja a portadora no receptor é cos ω c Δωt δ ou sen ω c Δωt δ Mostre que a saída do braço superior do receptor é em vez de m 1 t e que a saída do braço inferior do receptor é em vez de m 2 t Um sinal modulante mt é dado por mt cos 100π t 2 cos 300π t mt sen 100π t sen 500π t Em cada caso Esboce o espectro de mt Determine e esboce o espectro do sinal DSBSC 2mt cos 1000πt Do espectro obtido em ii elimine o espectro LSB e obtenha o espectro USB Conhecendo o espectro USB em ii escreva a expressão φ USBt para o sinal USB Repita iii e iv para obter o sinal φ LSBt Para os sinais no Exercício 442 use a Eq 420 e determine as expressões temporais φ LSBt e φ USBt com uma frequência portadora ω c 1000 rads Sugestão Se mt for uma senoide sua transformada de Hilbert m h t será a senoide mt com um atraso de fase de π2 rad Determine φ LSBt e φ USBt para o sinal modulante mt π B sinc 2 2π Bt com B 2000 Hz e frequência portadora f c 10000 Hz Faça o seguinte Esboce os espectros de mt e do correspondente sinal DSBSC 2mt cos ω ct Para determinar o espectro LSB elimine a USB do espectro DSBSC obtido na parte a Determine o sinal φ LSBt que é a transformada de Fourier inversa do espectro LSB determinado na parte b Siga o mesmo procedimento e determine φ USBt Se m h t for a transformada de Hilbert de mt então Mostre que a transformada de Hilbert de m h t é mt Mostre que as energias de mt e de m h t são idênticas Um sinal LSB é demodulado coerentemente como mostrado na Fig E446 Lamentavelmente devido ao atraso na transmissão o sinal de portadora recebido não é 2 cos ω ct como foi transmitido mas 2 cos ω ct Δωt δ O oscilador local ainda é cos ω ct Mostre que Quando δ 0 a saída yt é o sinal mt com todas as componentes espectrais deslocadas de Δω Sugestão Observe que a saída yt é idêntica ao lado direito da Eq 420a com ω c substituído por Δω Quando Δω 0 a saída é o sinal mt com as fases de todas as componentes espectrais deslocadas de δ Sugestão Mostre que o espectro de saída Yf Mfe j δ para f 0 e igual a Mfe jδ quando f 0 Em cada um desses casos explique a natureza da distorção Sugestão Para a parte a a demodulação consiste no deslocamento de um espectro LSB para a esquerda e para a direita por ω c Δω e na filtragem passabaixas do resultado Para a parte b use a 447 451 expressão 420b para φ LSBt multipliquea pela portadora local 2 cos ω ct δ e aplique o resultado a um filtro passabaixas Figura E446 Um sinal USB é gerado com o método de deslocamento de fase Fig 417 Se a entrada a esse sistema for m h t em vez de mt qual será a saída Esse ainda é um sinal SSB com largura de banda igual à de mt Esse sinal pode ser demodulado para recuperar mt Em caso afirmativo como Um filtro vestigial H i f mostrado no transmissor da Fig 421 tem a função de transferência mostrada na Fig E451 A frequência portadora é f c 10 kHz e a largura de banda do sinal em banda base é de 4 kHz Determine a correspondente função de transferência do filtro equalizador H o f mostrado no receptor da Fig 421 Sugestão Use a Eq 425 Figura E451 O termo portadora suprimida não significa necessariamente a ausência de espectro na frequência da portadora f c mas que não existe uma componente discreta da frequência da portadora Isso implica que o espectro da modulação DSBSC não tem impulsos em f c o que também implica que o sinal modulado mt cos 2πft não contém um termo da forma k cos 2πft supondo que mt tenha valor médio nulo A fase θ 1 não é relevante Isto pode não ser verdade para todo t mas é verdade para a maioria dos valores de t O termo malha de sincronismo de fase é igualmente empregado para PLL NT Com uma diferenca π2 Na verdade ht 2B sinc 2πBt em que B é a largura de banda do filtro de malha Esse é um filtro passabaixos estreito que suprime o sinal de alta frequência centrado em 2ω c Isto leva a Hs 1 em uma estreita banda passabaixos de B Hz Isso também explica por que não podemos extrair a portadora diretamente de mt cos ω ct passando por um filtro de banda estreita centrado em ωc A razão é que a potência de mt cos ω ct em ωc é zero pois mt não tem componente dc o valor médio de mt é zero C 51 omo discutido no capítulo anterior uma modulação de portadora pode ser feita modulando a amplitude a frequência ou a fase de uma portadora senoidal de frequência f c Nele focamos os vários sistemas de modulação linear em amplitude e as correspondentes demodulações Agora discutiremos modulações não lineares em frequência FM frequency modulation e em fase PM phase modulation também conhecidas como modulações em ângulo MODULAÇÃO NÃO LINEAR No caso de sinais AM a amplitude de uma portadora é modulada por um sinal mt e portanto o conteúdo de informação em mt está nas variações de amplitude da portadora Como vimos os dois outros parâmetros de uma portadora senoidal frequência e fase também podem ser variados proporcionalmente ao sinal de mensagem na forma de sinais modulados em frequência e em fase respectivamente A seguir descreveremos a essência da modulação em frequência FM e da modulação em fase PM Falsa Largada Na década de 1920 radiodifusão estava em sua infância Contudo havia uma busca intensa por técnicas para redução de ruído estática Como a potência de ruído é proporcional à largura de banda do sinal modulado bandas laterais esforços foram dedicados ao desenvolvimento de um esquema de modulação que reduzisse a largura de banda Ainda mais importante a redução da largura de banda também permitiria mais usuários e havia rumores sobre a descoberta de um novo método que eliminava as bandas laterais sem banda lateral sem largura de banda A ideia da modulação em frequência FM em que a frequência portadora seria variada em proporção com a mensagem mt era intrigante A frequência angular da portadora ωt seria variável no tempo de modo que ωt ω c kmt sendo k uma constante arbitrária Se a amplitude de pico de mt for m p os valores máximo e mínimo da frequência portadora serão ω c km p e ω c km p respectivamente Portanto as componentes espectrais permaneceriam nessa faixa com uma largura de banda de 2km p centrada em ω c O entendimento era que o controle do parâmetro constante k controlava a largura de banda do sinal modulado Embora isso fosse verdade havia também a esperança de que o uso de um valor arbitrariamente pequeno para k tornaria a largura de banda de informação arbitrariamente pequena Essa possibilidade era vista como um passaporte ao paraíso das comunicações Lamentavelmente resultados experimentais mostraram que esse raciocínio continha sério erro A largura de banda de FM como foi revelado é sempre maior que ou na melhor das hipóteses igual a a largura de banda de AM Em alguns casos a largura de banda de FM é muitas vezes maior que a de AM Onde estava a falácia no raciocínio original Logo descobriremos O Conceito de Frequência Instantânea Enquanto sinais AM transportam a mensagem em suas amplitudes variantes sinais FM podem variar a frequência instantânea proporcionalmente ao sinal modulante mt Isso significa que a frequência portadora é alterada de modo contínuo a cada instante À primeira vista isso não faz muito sentido pois para definir uma frequência devemos ter um sinal senoidal com a mesma frequência pelo menos ao longo de um ciclo ou meio ciclo ou um quarto de ciclo Esse problema nos faz recordar o primeiro encontro com velocidade instantânea em um curso introdutório de mecânica Até a apresentação de derivadas por Leibniz e Newton estávamos acostumados a pensar em velocidade como sendo constante em um intervalo de tempo e éramos incapazes de ao menos imaginar que a velocidade pudesse variar a cada instante Jamais esquecemos o encanto e o deslumbramento causados pela análise de derivadas e velocidade instantânea quando esses conceitos nos foram apresentados Uma experiência similar aguarda o leitor no que diz respeito à frequência instantânea Consideremos um sinal senoidal generalizado φt dado por em que θt é o ângulo generalizado uma função de t A Fig 51 mostra um caso hipotético de θt O ângulo generalizado para uma senoide convencional A cos ω c t θ 0 é uma reta ω c t θ 0 como ilustrado na Fig 51 Um caso geral hipotético de θt corresponde à tangente ao ângulo ω c t θ 0 em algum instante t O ponto crucial é que em torno de t em um pequeno intervalo Δt 0 o sinal φt A cos θt e a senoide A cos ω c t θ 0 são idênticos ou seja Podemos afirmar que nesse pequeno intervalo Δt a frequência angular de φt é ω c Como ω c t θ 0 tangencia θt a frequência angular de φt é a inclinação de seu ângulo θt nesse pequeno intervalo Podemos generalizar esse conceito em cada instante de tempo e definir a frequência instantânea ω i em um instante qualquer de tempo t como a inclinação de θt em t Assim para φt na Eq 51 a frequência angular instantânea e o ângulo generalizado se relacionam por Figura 51 Conceito de frequência instantânea Agora podemos ver a possibilidade de transmitir a informação de mt variando o ângulo θ de uma portadora Tais técnicas de modulação em que o ângulo de uma portadora é variado de alguma forma por um sinal modulante mt são conhecidas como modulação em ângulo ou modulação exponencial Duas possibilidades simples são a modulação em fase PM e a modulação em frequência FM Em PM o ângulo θt varia linearmente com mt em que k p é uma constante e ω c a frequência portadora Supondo que θ 0 0 sem perda de generalidade A resultante onda PM é Nesse caso a frequência angular instantânea ω it é dada por Portanto em PM a frequência angular instantânea ω i varia linearmente com a derivada do sinal modulante Se a frequência angular instantânea ω i variar linearmente com o sinal modulante temos FM Assim em FM a frequência angular instantânea ω i é em que k f é uma constante O ângulo θt é agora dado por Aqui assumimos que o termo constante em θt é zero sem perda de generalidade A onda FM é Figura 52 Modulações em fase e em frequência são equivalentes e intercambiáveis Relação entre FM e PM Das Eqs 53b e 55 fica aparente que PM e FM não são apenas muito parecidas mas também inseparáveis A substituição de mt na Eq 53b por mα dα transforma PM em FM Assim um sinal que seja a onda FM correspondente a mt também é a onda PM correspondente a mα dα Fig 52a Da mesma forma a onda PM correspondente a mt também é a onda FM correspondente a Fig 52b Portanto ao examinar um sinal modulado em ângulo φt não há como saber se o mesmo é FM ou PM Na verdade não faz sentido perguntar se um final modulado em ângulo é FM ou PM Isso é análogo a perguntar a um homem casado que tem filhos se ele é um pai ou um filho Essa discussão e a Fig 52 também mostram que não é necessário discutir separadamente os métodos de geração e demodulação de cada tipo de modulação As Eqs 53b e 55 mostram que tanto em PM como em FM o ângulo de uma portadora varia proporcionalmente a alguma medida de mt Em PM o ângulo é diretamente proporcional a mt enquanto em FM é proporcional à integral de mt Como mostrado na Fig 52b um modulador em frequência pode ser usado diretamente para gerar um sinal FM ou a mensagem de entrada mt pode ser processada por um filtro diferenciador com função de transferência Hs s para gerar um sinal PM Exemplo 51 Contudo por que limitarmos nosso estudo a esses casos Há um número infinito de modos de processar mt antes de FM Caso restrinjamos a escolha a um operador linear uma medida de mt pode ser obtida como a saída de um sistema linear invertível invariante no tempo com função de transferência Hs ou resposta ao impulso ht A portadora com modulação em ângulo generalizada φ EMt pode ser expressa como Desde que Hs seja uma operação reversível ou invertível mt pode ser recuperado de ψt passando esse sinal modulado por um sistema com função de transferência Hs 1 como mostrado na Fig 53 Assim PM e FM são apenas dois casos especiais com ht k pδt e ht k put respectivamente Isso mostra que se analisarmos um tipo de modulação em ângulo como FM podemos estender os resultados prontamente a qualquer outro tipo Historicamente o conceito de modulação em ângulo iniciou com FM de modo que neste capítulo analisaremos primeiro FM com discussão ocasional de PM No entanto isso não significa que FM é superior a outros tipos de modulação em ângulo Ao contrário para a maioria dos sinais práticos PM é superior a FM Na verdade o desempenho ótimo não é alcançado nem com PM puro nem com FM puro mas com algo entre esses dois tipos de modulação Potência de uma Onda Modulada em Ângulo Embora as frequência e fase instantâneas de uma onda modulada em ângulo possam variar com o tempo a amplitude A permanece constante Portanto a potência de uma onda modulada em ângulo PM ou FM sempre é A 22 independentemente do valor de k p ou de k f Figura 53 Modulação em ângulo generalizada via filtro Hs e recuperação da mensagem com a passagem do sinal modulado pelo filtro inverso 1Hs Esbocemos as formas de onda FM e PM para o sinal modulante mostrado na Fig 54a As constantes k f e k p são 2π H 10 5 e 10π respectivamente e a frequência portadora f c é de 100 MHz Para FM ω i ω c k k mt Dividindo tudo por 2π temos a equação em termos da variável f frequência em hertz A frequência instantânea f i é Como mt aumenta e diminui linearmente com o tempo a frequência instantânea aumenta linearmente de 999 a 1001 MHz em um meio ciclo e cai linearmente de 1001 a 991 MHz no meio ciclo restante do sinal modulante Fig 54b PM para mt é FM para mt Isso resulta da Eq 53c Para PM Exemplo 52 Como oscila entre os valores de 20000 a 20000 a frequência portadora oscila entre 999 e 1001 MHz a cada meio ciclo de como mostrado na Fig 54d Figura 54 Formas de onda FM e PM Este método indireto para esboçar a forma de onda PM usando para modular a portadora em frequência funciona desde que mt seja um sinal contínuo Caso mt seja descontínuo o sinal PM sofrerá mudanças bruscas de fase e em consequência conterá impulsos Esse método indireto falha em pontos de descontinuidade Nesses casos uma abordagem direta deve ser usada no ponto de descontinuidade para especificar as mudanças bruscas de fase Isso é demonstrado no próximo exemplo Esbocemos as formas de onda FM e PM para o sinal modulante digital mt mostrado na Fig 55a As constantes k f e k p valem 2π 10 5 e π2 respectivamente e f c 100 MHz Para FM Como mt oscila entre 1 e 1 a frequência da onda FM oscila entre 999 e 1001 MHz como mostrado na Fig 55b O esquema de modulação de uma portadora em frequência por um sinal digital Fig 55b é denominado chaveamento de frequência FSK frequency shift keying pois os dígitos de informação são transmitidos via chaveamento de diferentes frequências ver Seção 78 Para PM A derivada Fig 55c é zero exceto em pontos de descontinuidade de mt em que impulsos de amplitude 2 estão presentes Isso significa que a frequência do sinal PM permanece a mesma exceto nesses instantes isolados do tempo Não fica imediatamente claro como uma frequência instantânea pode sofrer uma alteração de tamanho infinito e retornar ao valor original em tempo zero Consideremos a abordagem direta Figura 55 Formas de onda FM e PM Esta onda PM é mostrada na Fig 55d Tal esquema de modulação em fase de uma portadora por um sinal digital é denominado chaveamento de fase PSK phase shift keying pois os dígitos de informação são transmitidos via chaveamento da fase da portadora Notemos que PSK também pode ser visto como uma modulação DSBSC por mt A onda PM φ PMt neste caso apresenta descontinuidade de fase em instantes nos quais estão localizados impulsos de Nesses instantes a fase da portadora sofre uma alteração de π instantaneamente Um deslocamento de fase finito em tempo zero implica frequência instantânea infinita nesses instantes Isso está em acordo com nossa observação a respeito de A descontinuidade de fase de φ PMt no instante em que mt é descontínuo é k pm d em que m d é o valor da descontinuidade de mt no dado instante Neste exemplo a amplitude de mt sofre uma descontinuidade de 2 de 1 a 1 Logo a descontinuidade de fase de φ PMt é k pm d π2 H 2 π rad que confirma o resultado obtido anteriormente Quando é um sinal digital como na Fig 55a φ PMt apresenta uma descontinuidade de fase nos pontos em que mt tem uma descontinuidade degrau A seguir mostraremos que para evitar ambiguidade na demodulação nesses casos o desvio de fase k pmt deve ficar restrito ao intervalo π π Por exemplo se k p fosse 3π2 então Neste caso φ PMt A sen ω c t quando mt 1 ou 13 Isso certamente causará ambiguidade no receptor quando A sen ω c t for recebido Especificamente o receptor não é capaz de determinar o valor exato de mt Tal ambiguidade jamais ocorre se k pmt ficar restrito ao intervalo π π O que causa essa ambiguidade Quando mt tem uma descontinuidade degrau a fase de φ PMt muda instantaneamente Como a fase φ 0 2nπ é indistinguível da fase φ 0 ambiguidades serão inerentes ao demodulador a menos que as variações de fase fiquem limitadas ao intervalo π π Isso significa que k p deve ser suficientemente pequeno para restringir a mudança de fase k pmt ao intervalo π π 52 Nenhuma restrição é imposta ao valor de k p se mt for contínuo Nesse caso a mudança de fase com o tempo deixa de ser instantânea e passa a ser gradual uma fase φ 0 2nπ exibirá n ciclos adicionais da portadora para uma fase de apenas φ 0 A onda PM pode ser detectada com um demodulador FM seguido por um integrador ver Exercício 541 Os n ciclos adicionais serão detectados pelo demodulador FM e a subsequente integração produzirá uma fase 2nπ Assim as fases φ 0 e φ 0 2nπ podem ser detectadas sem ambiguidade Essa conclusão pode ser comprovada a partir do Exemplo 51 em que a máxima mudança de fase é Δφ 10π Como um sinal limitado em banda não pode ter descontinuidades do tipo degrau também podemos dizer que quando mt for limitado em banda nenhuma restrição é imposta ao valor de k p LARGURA DE BANDA DE ONDAS MODULADAS EM ÂNGULO Diferentemente de AM a modulação em ângulo é não linear de modo que nenhuma propriedade da transformada de Fourier pode ser aplicada diretamente para efeitos de análise de largura de banda Para determinar a largura de banda de uma onda FM definamos e de modo que a relação para sinais FM é Expandindo a exponencial e jkfa t na Eq 58a em uma série de potências obtemos e A onda modulada consiste em uma portadora não modulada mais vários termos modulados em amplitude como at sen ω c t a 2t cos ω c t a 3t sen ω c t O sinal at é uma integral de mt Se Mf for limitado em banda a B Af também será limitado em banda a B O espectro de a 2t é simplesmente Af Af e limitado em banda a 2B De modo similar o espectro de a nt é limitado em banda a nB Portanto o espectro consiste em uma portadora não modulada mais os espectros de at a 2t a nt centrados em ω c Fica claro que a onda modulada não é limitada em banda tem largura de banda infinita e não guarda uma relação simples com o espectro do sinal modulante como no caso de AM Embora a largura de banda de uma onda FM seja em teoria infinita para sinais práticos com at limitado k fat permanecerá finito Como n aumenta muito mais rápido que k fat n temos Portanto podemos concluir que a maior parte da potência do sinal modulado reside em uma largura de banda finita Esse é o principal fundamento da análise de largura de banda de modulações em ângulo Há duas possibilidades em termos de largura de banda FM de banda estreita e FM de banda larga Aproximação para Modulação em Ângulo de Banda Estreita Em contraste com AM modulações em ângulo são não lineares A relação não linear entre at e φt fica evidente dos termos que envolvem a nt na Eq 59b Quando k f é muito pequeno tal que todos os termos de ordens superiores na Eq 59b são desprezíveis exceto os dois primeiros Assim temos uma boa aproximação Essa aproximação é uma modulação linear cuja expressão é similar à de um sinal AM com sinal de mensagem at Como a largura de banda de at é B Hz a largura de banda de φ FMt na Eq 510 é 2B Hz segundo a propriedade de translação em frequência devido ao termo at sen ω c t Por essa razão o sinal FM correspondente ao caso k fat 1 é denominado FM de banda estreita NBFM narrowband FM De modo similar o sinal PM de banda estreita NBPM narrowband PM é aproximado por NBPM também tem uma largura de banda aproximada de 2B Uma comparação entre NBFM Eq 510 e AM Eq 59a ressalta as semelhanças e diferenças entre os dois tipos de modulação Os dois têm a mesma largura de banda modulada 2B O espectro da banda lateral apresenta no caso de FM um deslocamento de fase de π2 em relação à portadora e no caso de AM está em fase com a portadora Devemos no entanto recordar que apesar das aparentes semelhanças os sinais AM e FM têm formas de onda muito distintas Em um sinal AM a frequência de oscilação é constante e a amplitude varia no tempo em um sinal FM a amplitude permanece constante e a frequência varia no tempo Análise de FM de Banda Larga A Falácia Revelada Um sinal de FM faz sentido apenas caso seu desvio de frequência seja suficientemente grande Em outras palavras em aplicações práticas de FM o valor escolhido para a constante k f é grande o bastante para que a condição k fat 1 não seja atendida Nesses casos nos referimos aos sinais FM como FM de banda larga WBFM wideband FM Assim na análise de largura de banda de WBFM não podemos ignorar todos os termos de ordens superiores na Eq 59b Inicialmente escolheremos a rota dos pioneiros que com seu raciocínio intuitivamente simples falharam na estimativa da largura de banda de FM Se descobrirmos a falácia em seu raciocínio teremos uma chance para obter uma melhor estimativa da largura de FM de banda larga Figura 56 Estimativa da largura de banda de uma onda FM Consideremos uma mensagem mt passabaixos com largura de banda de B Hz Esse sinal pode ser bem aproximado por um sinal em escada como mostrado na Fig 56a O sinal mt é agora aproximado por pulsos de amplitude constante Por conveniência cada um desses pulsos será denominado uma célula Para assegurar que contenha toda a informação de mt a largura da célula em não deve ser maior que o intervalo de Nyquist 12B segundo de acordo com o teorema da amostragem Capítulo 6 A análise do sinal FM correspondente a é relativamente mais simples por conta dos pulsos células de amplitude constante e largura T 12B segundos Consideremos uma célula típica com início em t t k Essa célula tem amplitude constante mt k Assim o sinal FM a ela correspondente é uma senoide de frequência ω c k fmt k e duração T 12B como mostrado na Fig 56b O sinal FM para consiste em uma sequência de pulsos senoidais como este de frequência constante e duração T 12B correspondentes às várias células de O espectro FM para é a soma das transformadas de Fourier dos pulsos senoidais associados às células A transformada de Fourier do pulso senoidal na Fig 56b que corresponde à késima célula é uma função sinc mostrada hachurada na Fig 56c dada pela Eq 327a com τ 12B e Eq 326 com f 0 f c k fmt k 2π Notemos que o espectro desse pulso se espalha nos dois lados da frequência central ω c k fmt k por 4πB como o lóbulo principal da função sinc A Fig 56c mostra os espectros de pulsos senoidais correspondentes a várias células As amplitudes mínima e máxima das células são m p e m p respectivamente Portanto as frequências centrais mínima e máxima dos pulsos senoidais curtos correspondentes ao sinal FM para todas as células são ω c k fm p e ω c k fm p respectivamente Consideremos o lóbulo principal da função sinc dessas respostas de frequências como contribuição significativa à largura da banda FM como mostrado na Fig 56c Assim os valores máximo e mínimo das frequências significativas nesse espectro são ω c k fm p 4πB e ω c k fm p 4πB respectivamente A largura de banda do espectro FM é aproximadamente Agora podemos entender a falácia no raciocínio dos pioneiros As frequências portadoras máxima e mínima são ω c k fm p e ω c k fm p respectivamente Por isso foi concluído que as componentes espectrais também devem estar contidas nesse intervalo resultando em uma largura da banda de FM igual a 2k fm p A hipótese implícita é que uma senoide de frequência ω tem todo seu espectro concentrado em ω Infelizmente isso é verdadeiro somente no caso da senoide eterna com duração T o que transforma a função sinc em um impulso Para uma senoide de duração finita com duração de T segundos o espectro se espalha como a função sinc nos dois lados de ω por pelo menos a largura do lóbulo principal que é 2πT Os pioneiros deixaram escapar esse efeito de espalhamento Por conveniência de notação dado o desvio da frequência portadora em radianos por segundos de k fm p denotaremos o pico do desvio de frequência em hertz por Δf Assim A largura de banda de FM estimada em hertz pode então ser expressa como A estimativa de largura de banda agora obtida é um pouco maior que o valor real pois corresponde à aproximação de mt em degraus e não ao verdadeiro sinal mt que é consideravelmente mais suave Portanto a real largura de banda de FM é menor que esse valor estimado Com base na Fig 56c fica claro que uma melhor aproximação para a largura de banda FM fica entre Portanto devemos reajustar nossa estimativa de largura de banda Para efetuar essa correção observemos que para o caso NBFM k f é muito pequeno Dessa forma em NBFM dado um valor fixo m p Δf é muito pequeno em comparação com B Nesse caso ignoramos o pequeno termo Δf na Eq 512 e obtemos Contudo mostramos anteriormente que no caso de banda estreita a largura de banda FM é aproximadamente 2B Hz Isso indica que uma melhor estimativa para a largura de banda é Este é exatamente o resultado obtido por Carson 1 que investigou esse problema de forma rigorosa para modulação por tom senoide mt Na literatura esta fórmula recebe o nome de regra de Carson Observemos que para um caso verdadeiramente de banda larga onde Δf B a Eq 513 pode ser aproximada por Como Δω k fm p essa fórmula é precisamente a que os pioneiros usaram para a largura de banda FM O único erro estava em pensar que essa fórmula seria válida para todos os casos especialmente para o de banda estreita em que Δf B Definamos uma razão de desvio β como A regra de Carson pode ser expressa em termos da razão de desvio como A razão de desvio controla o grau de modulação e em consequência tem um papel semelhante ao do índice de modulação em AM De fato para o caso especial de FM modulado por tom a razão de desvio β é denominado índice de modulação Modulação em Fase Todos os resultados deduzidos para FM se aplicam diretamente a PM Assim no caso de PM a frequência instantânea é dada por Portanto o pico de desvio de frequência Δf é Supondo que então Portanto Um aspecto muito interessante de FM é o fato de Δω k fm p depender somente do valor de pico de mt Δω é independente do espectro de mt Em PM por sua vez depende do valor de pico de Contudo tem forte dependência da composição espectral de mt A presença de componentes de altas frequências em mt implica rápidas variações temporais resultando em um maior valor para Reciprocamente uma predominância de componentes de frequências baixas resultará em um menor valor para Dessa forma embora a largura de banda de sinais FM Eq 513 seja praticamente independente da forma espectral de mt a largura de banda de sinais PM Eq 518 é fortemente afetada pela forma espectral de mt Quando o espectro de mt está concentrado nas frequências baixas B PM será menor que quanto o espectro de mt estiver concentrado nas frequências altas Análise Espectral da Modulação em Frequência por Tom Para uma portadora FM com um sinal de mensagem genérico mt a análise espectral requer o uso da aproximação do sinal por degraus Modulação por tom é um caso especial para o qual uma análise espectral exata é possível mt é uma senoide Usemos este caso especial para comprovar a aproximação de largura de banda FM Seja Da Eq 57 com a hipótese que inicialmente a 0 temos Assim da Eq 58a temos Além disso e a largura de banda de mt é 2πB ω m rads A razão de desvio ou neste caso o índice de modulação é Logo Notemos que e jβ sen ω mt é um sinal periódico com período 2πω m e pode ser expandido em uma série de Fourier exponencial como em que A integral no lado direito não pode ser calculada em uma forma fechada e deve ser integrada por expansão em uma série infinita Essa integral é tabelada e denotada por J nβ a função de Bessel de primeira espécie e ordem n A Fig 57a mostra gráficos dessa função em função de n e para diversos valores de β Assim Substituindo a Eq 520 na Eq 519 obtemos e Figura 57 a Variação de J nβ em função de n para diversos valores de β b Espectro de onda FM modulada por tom O sinal FM modulado por tom tem uma componente de portadora e um número infinito de bandas laterais de frequências ω c ω m ω c 2ω m ω c nω m como mostrado na Fig 57b Esse resultado contrasta fortemente com o obtido para o espectro DSBSC que tem apenas uma banda lateral de cada lado da frequência portadora A magnitude da nésima banda lateral em ω c nω m é J nβ Dos gráficos de J nβ na Fig 57a podemos verificar que para um dado β J nβ decresce com n e que há um número finito de linhas espectrais significativas nas bandas laterais Podemos ver na Fig 57a que J nβ é desprezível para n β 1 Portanto o número de impulsos significativos nas bandas laterais é β 1 A largura de banda da portadora FM é dada por o que está em acordo com o resultado obtido anteriormente Eq 513 Quando β 1 NBFM existe somente uma banda lateral significativa e a largura de banda é B FM 2f m 2B É importante notar que a análise desse caso de modulação por tom é uma comprovação não uma prova da fórmula de Carson Na literatura modulação por tom em FM é em geral discutida em detalhe Como no entanto modulação em ângulo é uma modulação não linear os resultados deduzidos para modulação por tom podem ter pouca relação com situações práticas Na verdade na melhor das hipóteses esses resultados não fazem sentido e na pior podem ser enganosos se generalizados a sinais práticos Como autores e professores parecenos que dar demasiada ênfase à modulação por tom pode ser enganador Por isso aqui omitimos discussão adicional sobre o assunto O método para determinar o espectro de uma onda FM modulada por tom pode ser usado na determinação do espectro de uma onda FM para o caso em que mt é um sinal periódico genérico Como at é um sinal periódico e jkfat também é um sinal periódico que pode ser expresso em uma série de Fourier exponencial como na equação anterior Feito isso é relativamente simples escrever φ FMt em termos da portadora e das bandas laterais Exemplo 53 a b Estimemos B FM e B PM para o sinal modulante mt na Fig 54a para k f 2π 10 5 e k p 5π Suponhamos que a largura de banda essencial do sinal periódico mt seja igual à frequência de seu terceiro harmônico Repitamos o exercício para o caso em que a amplitude de mt é dobrada mt multiplicado por 2 a A amplitude de pico de mt é unitária Assim m p 1 A seguir determinemos a largura de banda essencial B de mt Deixamos como exercício mostrar que a série de Fourier para esse sinal periódico é dada por em que Podemos observar que as amplitudes dos harmônicos decaem rapidamente com n O terceiro harmônico é apenas 11 da fundamental e o quinto harmônico 4 Isso significa que as potências do terceiro e do quinto harmônicos correspondem a 121 e 016 da potência da componente fundamental respectivamente Assim podemos tomar a largura de banda essencial de mt como a frequência de seu terceiro harmônico ou seja Para FM e A razão de desvio β é dado por e Para PM A amplitude de pico de é 20000 e Logo A razão de desvio β é dado por e b Quando multiplicamos mt por 2 dobramos seu valor de pico Ou seja m p 2 Contudo a largura de banda não é alterada de modo que B 15 kHz Para FM e A razão de desvio β é dado por e Para PM Quando multiplicamos mt por 2 dobramos sua derivada de modo que agora 40000 e e A razão de desvio β é dado por e Exemplo 54 Exemplo 55 a b c d e a b Observemos que dobrar a amplitude do sinal dobrar mt resulta aproximadamente no dobro do desvio de frequência Δf tanto da forma de onda FM como da forma de onda PM Repitamos o Exemplo 51 para o caso em que mt é dilatado temporalmente por um fator 2 ou seja o período de mt passa a ser 4 H 10 4 Recordemos que a dilatação temporal de um sinal por um fator 2 reduz a largura espectral largura de banda do sinal por um fator 2 Podemos comprovar isso observando que a frequência fundamental agora é 25 kHz e o terceiro harmônico 75 kHz Logo B 75 kHz que é a metade da largura de banda no exemplo anterior Além disso a dilatação temporal não afeta a amplitude de pico de modo que m p 1 Contudo fica dividido por 2 ou seja 10000 Para FM Para PM Notemos que a dilatação temporal de mt tem pouco efeito sobre a largura de banda FM mas reduz a largura de banda PM à metade do valor original Isso comprova a observação feita anteriormente que o espectro PM depende fortemente do espectro de mt Um sinal modulado em ângulo com portadora ω c 2π H 10 5 é descrito pela equação Determinemos a potência do sinal modulado Determinemos o desvio de frequência Δf Determinemos a razão de desvio β Determinemos o desvio de fase Δϕ Estimemos a largura de banda de φ EMt A largura de banda do sinal é a maior frequência em mt ou sua derivada Nesse caso B 2000π2π 1000 Hz A amplitude da portadora é 10 e a potência Para determinar o desvio de frequência Δf determinemos a frequência instantânea ω i que é dada por d e O desvio da portadora é 15000 cos 3000t 20000π cos 2000t As duas senoides se somam em fase em algum ponto de modo que o valor máximo dessa expressão é 15000 20000π Esse é o máximo desvio da portadora Δω Logo O ângulo θt ωt 5 sen 3000t 10 sen 2000πt O desvio de fase é o valor máximo do ângulo entre parênteses dado por Δϕ 15 rad B EM 2Δf B 2677465 Hz Vale observar a generalidade do método para estimar a largura de banda de uma onda modulada em ângulo Não é preciso saber se é uma onda FM PM ou de algum outro tipo de modulação em ângulo O método é aplicável a qualquer sinal modulado em ângulo Uma Nota Histórica Edwin H Armstrong 18901954 Hoje ninguém duvida que FM tem um papel importante em radiodifusão e comunicações No entanto até a década de 1960 a radiodifusão FM parecia fadada ao fracasso devido ao antieconômico uso de largura de banda A história de FM é repleta de estranhas ironias O ímpeto por trás do desenvolvimento de FM residia no desejo de reduzir a largura de banda na transmissão de sinais Um raciocínio superficial mostrara que seria possível reduzir a largura de banda de transmissão com o uso de FM Contudo resultados experimentais mostraram o contrário Na verdade a largura de banda de transmissão de FM era maior do que a de AM Uma cuidadosa análise matemática efetuada por Carson mostrou que FM exigia uma largura de banda maior que AM Lamentavelmente Carson não reconheceu a vantagem compensadora de FM no que diz respeito à capacidade de eliminação de ruído Sem muita base ele concluiu que FM introduzia distorção inerente e não exibia qualquer vantagem compensadora 1 Em um artigo posterior escreveu 53 Edwin H Armstrong Reproduzido com permissão de Armstrong Family Archives Na verdade à medida que mais e mais esquemas são analisados e testados e a natureza essencial do problema se torna mais claramente perceptível somos forçados a concluir que a estática ruído assim como os pobres sempre estará entre nós 2 Assim a opinião de um dos maiores matemáticos especializados na área de comunicações da época atrasou o desenvolvimento de FM em mais de uma década A vantagem supressora de ruído de FM foi posteriormente provada pelo major Edwin H Armstrong 3 um brilhante engenheiro cujas contribuições ao campo de sistemas de rádio são comparáveis às de Hertz e Marconi Em grande parte o trabalho de Armstrong foi responsável pela retomada do interesse em FM Embora não tenha inventado o conceito Armstrong é considerado o pai da moderna modulação FM Nascido a 18 de dezembro de 1890 na cidade de Nova York Edwin H Armstrong é reconhecido como um dos pioneiros da radioeletricidade do século XX Armstrong tem o crédito da invenção do circuito regenerativo Patente americana 1113149 concedida em 1912 quando ele era aluno de graduação na Columbia University do circuito superheteródino Patente americana 1342885 concedida em 1918 quando ele servia ao exército dos Estados Unidos estacionado em Paris durante a Primeira Guerra Mundial do circuito super regenerativo Patente americana 1424065 concedida em 1922 e do sistema completo de radiodifusão FM Patente americana 1941066 de 1933 Todas foram contribuições inovadoras ao campo do rádio Em 1933 a revista Fortune declarou a modulação em frequência de banda larga é a quarta e talvez a maior em uma lista de invenções de Armstrong que moldaram grande parte da moderna radiodifusão O major Armstrong é o reconhecido inventor do circuito de realimentação regenerativo que tirou a arte do rádio do estágio dos fones de ouvido baseados no detector a cristal e tornou possível a amplificação da difusão do circuito superheteródino que é a base de praticamente todo o rádio moderno e do circuito superregenerativo agora em largo uso em sistemas de ondas curtas 4 Armstrong foi o último de uma linhagem de inventores solitários Após receber a patente por FM em 1933 Armstrong leu seu agora famoso artigo que posteriormente foi publicado nos anais do IRE 3 acompanhado da primeira demonstração pública da radiodifusão FM no dia 5 de novembro de 1935 em uma reunião secional do Instituto de Engenheiros de Rádio IRE Institute of Radio Engineers um predecessor do IEEE A dramática redução do ruído estático com FM não foi bem recebida pela indústria da radiodifusão que viu FM como uma ameaça a seu vasto investimento comercial em rádio AM Para estabelecer a difusão FM Armstrong travou uma longa e cara batalha com a indústria da radiodifusão que encorajada pela Comissão Federal de Comunicação FCC Federal Communication Commission lutou com unhas e dentes para resistir à modulação FM Mesmo assim em dezembro de 1941 67 estações comerciais FM foram autorizadas com cerca de meio milhão de receptores em uso e 43 pedidos de autorização pendentes Durante audiência da FCC em setembro de 1944 o Conselho de Planejamento Técnico de Rádio RTPB Radio Technical Planning Board fez sua recomendação final para que 75 canais fossem alocados a FM na faixa de 41 a 56 MHz Apesar da recomendação do RTPB que representava a melhor orientação para a comunidade de engenharia de rádio persistia intenso lobby para que a FCC deslocasse a banda FM principalmente por parte daqueles que divulgavam a preocupação quanto às fortes interferências que poderiam ocorrer na banda de 40 MHz em decorrência de reflexões na ionosfera Assim em junho de 1945 a FCC com base no testemunho errôneo de um especialista técnico bruscamente deslocou a largura de banda alocada a FM da faixa de 42 a 50 MHz para 88 a 108 MHz Esse foi um duro golpe em FM pois tornou obsoletos mais de meio milhão de receptores e equipamentos transmissores antenas etc fabricados e vendidos pela indústria de FM às 50 estações desde 1941 para a banda de 42 a 50 MHz Armstrong lutou contra a decisão e posteriormente conseguiu que o especialista técnico reconhecesse seu erro Apesar de tudo isso as alocações da FCC permaneceram inalteradas Nas disputas judiciais Armstrong gastou a considerável fortuna que havia acumulado com as invenções Os gigantes da radiodifusão que haviam resistido a FM com tanto empenho mudaram de opinião e usaram suas invenções sem pagarlhe os devidos royalties Armstrong gastou muito de seu tempo em tribunais em alguns dos mais longos notáveis e cáusticos processos judiciais de patentes da época 5 Por fim sem recursos com energia exaurida e vida familiar destroçada o desiludido Armstrong cometeu suicídio em 1945 pulou da janela de seu apartamento no décimo terceiro andar em River House Nova York A viúva de Armstrong prosseguiu com a batalha judicial e venceu Na década de 1960 FM estava bem estabelecida como um sistema superior de rádio 6 e Edwin H Armstrong devidamente reconhecido como o inventor da modulação em frequência Em 1955 a UIT adicionou seu nome ao rol de grandes inventores Em 1980 Edwin H Armstrong foi introduzido ao US National Inventors Hall of Fame Hall da Fama de Inventores Americanos em 1983 seu retrato foi estampado em um selo do correio dos Estados Unidos 7 GERAÇÃO DE ONDAS FM Existem basicamente duas maneiras de gerar ondas FM direta e indireta Primeiro descreveremos o gerador de FM de banda estreita utilizado na geração indireta de FM de sinais de banda larga modulados em ângulo Geração de NBFM Para NBFm e sinais NBPM mostramos anteriormente que como k fat 1 e k pmt 1 respectivamente os sinais modulados podem ser aproximados como As duas aproximações são lineares e similares à expressão para a onda AM Na verdade as Eq 521 sugerem um possível método para a geração de sinais FM e PM de banda estreita com o uso de moduladores DSBSC A representação em diagrama de bloco de tais sistemas é mostrada na Fig 58 Figura 58 a Gerador PM de banda estreita b Gerador de sinal FM de banda estreita Figura 59 a Limitador e filtro passafaixa usados para remover variações de amplitude em uma onda FM b Característica entradasaída do limitador c Entrada do limitador e correspondente saída d Saída do limitador em função de θ É importante ressaltar que o sinal NBFM gerado como na Fig 58b tem alguma distorção devido à aproximação na Eq 510 A saída desse modulador NBFM também exibe algumas variações de amplitude Um dispositivo não linear projetado para limitar a amplitude de um sinal passafaixa pode remover a maior parte dessa distorção Limitador PassaFaixa As variações de amplitude de uma portadora modulada em ângulo podem ser eliminadas com um limitador passafaixa que consiste em um limitador seguido por um filtro passafaixa Fig 59a A característica entradasaída de um limitador é mostrada na Fig 59b Observemos que para uma entrada senoidal a saída do limitador passafaixa será uma onda quadrada de amplitude unitária qualquer que seja a amplitude senoidal de entrada Além disso os pontos em que a senoide de entrada se anula pontos de cruzamento do zero são preservados na saída pois quando a entrada é zero a saída também é zero Fig 59b Assim uma entrada senoidal modulada em ângulo v it At cos θt resulta em uma onda quadrada modulada em ângulo de amplitude constante v ot como indicado na Fig 59c Como vimos uma operação não linear desse tipo preserva a informação da modulação em ângulo Quando v ot é aplicado ao filtro passafaixa centrado em ω c a saída é uma onda modulada em ângulo de amplitude constante Para comprovar isso consideremos a onda de entrada modulada em ângulo em que A saída v ot do limitador é 1 ou 1 dependendo se v it At cos θt é positivo ou negativo Fig 59c Como At 0 v ot pode ser expresso como uma função de θ Portanto como uma função de θ v o é uma função periódica de onda quadrada com período 2π Fig 59d que pode ser expandida em uma série de Fourier Capítulo 2 Em qualquer instante de tempo t θ ω c t k f mα dα Logo como função do tempo a saída v o é dada por A saída portanto tem a onda original FM mais ondas FM com frequências multiplicadas por fatores 3 5 7 Podemos aplicar a saída do limitador a um filtro passafaixa com frequência central ω c e largura da banda B FM como mostrado na Fig 59a A saída do filtro e ot é a desejada portadora modulada em ângulo com amplitude constante Embora tenhamos deduzido esses resultados para FM os mesmo também se aplicam a PM modulação em ângulo em geral O filtro passafaixa não apenas mantém constante a amplitude da desejada portadora modulada em ângulo mas ainda suprime parcialmente o ruído de canal quando esse é pequeno 8 Método Indireto de Armstrong No método indireto de Armstrong o NBFM é gerado como mostrado na Fig 58b ou Eq 510 O sinal NBFM é então convertido em WBFM com o uso de multiplicadores de frequência adicionais Um multiplicador de frequência pode ser realizado por um dispositivo não linear seguido por um filtro passafaixa Primeiro consideremos um dispositivo não linear cujo sinal de saída yt correspondente a uma entrada xt seja dado por Caso um sinal FM passe por esse dispositivo o sinal de saída será Portanto um filtro passafaixa centrado em 2ω c recuperará um sinal FM com o dobro da frequência instantânea original Em geral um dispositivo linear deve ter uma característica da forma Se xt A cos ω c t k f mα dα com o uso de identidades trigonométricas podemos mostrar prontamente que yt tem a forma Ou seja a saída terá espectros em ω c 2ω c nω c com desvios de frequência Δf 2Δf nΔf respectivamente Cada uma dessas componentes é um sinal FM separado dos outros Assim um filtro passafaixa centrado em nω c pode recuperar um sinal FM cuja frequência instantânea é ω c multiplicado por um fator n Esses dispositivos que consistem em uma não linearidade e um filtro passafaixa são conhecidos como multiplicadores de frequência Na verdade um multiplicador de frequência pode aumentar tanto a frequência portadora como o desvio de frequência por um fator inteiro n Dessa forma se desejarmos um aumento de doze vezes no desvio de frequência podemos usar um dispositivo não linear de décima segunda ordem ou dois de segunda ordem e um de terceira ordem em cascata A saída tem um filtro passafaixa centrado em 12ω c para que selecione somente o termo apropriado cujos frequência portadora e desvio de frequência Δf são 12 vezes os valores originais Isso forma a base do modulador indireto de Armstrong Primeiro o NBFM é gerado aproximadamente A seguir a frequência NBFM é multiplicada e suas variações de amplitude limitadas Em geral desejamos aumentar Δf por um fator n muito grande Isso também aumenta a frequência portadora por n Um aumento tão grande na frequência portadora pode não ser necessário Se for esse o caso podemos aplicar mistura de frequências ver Exemplo 42 Fig 47 para deslocar a frequência portadora até o valor desejado Um diagrama simplificado de um transmissor FM comercial baseado no método de Armstrong é mostrado na Fig 510 A saída final deve ter uma frequência portadora de 912 MHz e Δf 75 kHz Iniciamos com NBFM com frequência portadora f c1 200 kHz gerada por um oscilador a cristal Figura 510 Diagrama em blocos do transmissor FM indireto de Armstrong Essa frequência foi escolhida devido à facilidade de construção de osciladores a cristal estáveis assim como moduladores balanceados para a mesma Para manter β 1 como necessário para NBFM o valor do desvio Δf é escolhido como 25 Hz Para Exemplo 56 modulação por tom β Δff m O espectro de banda base necessário para fins de alta fidelidade ocupa a faixa de 50 Hz a 15 kHz A escolha de Δf 25 Hz é razoável pois para o pior caso possível f m 50 resulta em β 05 Para alcançar Δf 75 kHz devemos multiplicar por 7500025 3000 Isso pode ser feito com dois estágios multiplicadores de 64 e 48 como indicado na Fig 510 resultando em uma multiplicação total de 64 H 48 3072 e em Δf 768 kHz A multiplicação é efetuada por meio de dobradores e triplicadores de frequência em cascata segundo a necessidade Dessa forma uma multiplicação por 64 pode ser obtida com seis dobradores em cascata e uma multiplicação por 48 com quatro dobradores e um triplicador em cascata No entanto a multiplicação de f c 200 kHz por 3072 resultaria em uma portadora de cerca de 600 MHz Esse problema é resolvido por meio de uma translação ou conversão de frequência após o primeiro multiplicador Fig 510 A primeira multiplicação por 64 resulta em uma frequência portadora f c 2 200 kHz H 64 128 MHz e em um desvio de portadora Δf 2 25 H 64 16 kHz Agora usamos um conversor de frequência ou misturador com frequência portadora de 109 MHz para trasladar todo o espectro Isso resulta em uma nova frequência portadora f c 3 128 109 19 MHz O conversor de frequência traslada todo o espectro sem alterar Δf Assim Δf 3 16 kHz A multiplicação por 48 resulta em f c 4 19 H 48 912 MHz e Δf 4 16 H 48 768 kHz Este esquema tem a vantagem de estabilidade de frequência mas está sujeito a ruído inerente causado por excessiva multiplicação e distorção nas frequências modulantes mais baixas em que o valor de Δff m não é suficientemente pequeno Discutamos a natureza da distorção inerente ao gerador de FM indireto de Armstrong Dois tipos de distorção surgem neste esquema distorção de amplitude e distorção de frequência A onda NBFM é dada por Eq 510 em que Distorção de amplitude ocorre porque a amplitude AEt da forma de onda modulada não é constante Esse não é um problema sério pois variações de amplitude podem ser eliminadas por um limitador passafaixa como discutido anteriormente nessa seção ver Fig 59 Idealmente θt deve ser igual a k fat Contudo na equação anterior a fase θt é e a frequência instantânea ω it No caso ideal a frequência instantânea deveria ser k fmt Os termos remanescentes nessa equação são a distorção Investiguemos o efeito dessa distorção na modulação por tom em que mt α cos ω m t at α sen ω m tω m e o índice de modulação é β αk fω m Dessa última equação fica evidente que esse esquema tem distorção por harmônicos impares sendo o terceiro harmônico o termo mais importante Desprezando os termos restantes a última equação fica escrita como A razão entre a distorção por terceiro harmônico e o sinal desejado pode ser obtida para o gerador na Fig 510 Para o estágio NBFM Logo o pior caso ocorre na frequência modulante mais baixa Por exemplo se a frequência do tom for apenas 50 Hz β 05 Nesse caso a distorção por terceiro harmônico é 115 ou 667 Geração Direta Em um oscilador controlado por tensão VCO a frequência é controlada por uma tensão externa A frequência de oscilação varia linearmente com a tensão de controle Podemos gerar uma onda FM usando o sinal modulante como um sinal de controle Isso fornece Podemos construir um VCO com um amplificador operacional e um comparador histerético 9 como um circuito disparador de Schmitt ou Schmitt trigger Outra forma de alcançar o mesmo objetivo consiste em variar um dos parâmetros reativos C ou L do circuito ressonante de um oscilador Um diodo semicondutor com polarização reversa atua como um capacitor cuja capacitância varia com a tensão de polarização A capacitância desses diodos conhecidos por diferentes nomes comerciais por exemplo Varicap Varactor Voltacap pode ser aproximada como uma função linear da tensão de polarização mt em um intervalo limitado Nos osciladores Hartley ou Colpitt por exemplo a frequência de oscilação é dada por Se a capacitância C for variada pelo sinal modulante mt ou seja se então Exemplo 57 Neste cálculo utilizamos a aproximação em série de Taylor com n 12 Logo Como C C 0 kmt o máximo desvio de capacitância é Portanto Na prática Δff c é em geral pequeno logo ΔC é uma pequena fração de C 0 o que ajuda a limitar a distorção harmônica causada pela aproximação empregada nessa dedução Podemos também gerar FM diretamente por meio de um reator com núcleo saturável no qual a indutância de uma bobina é variada por uma corrente através de uma segunda bobina em volta do mesmo núcleo Isso resulta em um indutor variável cuja indutância é proporcional à corrente na segunda bobina A geração direta de FM produz em geral um desvio de frequência suficiente e requer pouca multiplicação de frequência Contudo a estabilidade de frequência desse método é pobre Na prática é feito uso de realimentação para estabilizar a frequência A frequência de saída é comparada com uma frequência constante gerada por um oscilador a cristal estável Um sinal de erro erro na frequência é detectado e realimentado ao oscilador para corrigir o erro Propriedades da Modulação em Ângulo A FM como modulação em ângulo em geral tem certas propriedades características que recomendam sua aplicação em diversos sistemas de rádio A largura de banda de transmissão de sistemas AM não pode ser alterada Por isso sistemas AM não são capazes de trocar potência de sinal por largura de banda de transmissão Sistemas baseados em modulação por codificação de pulso PCM Capítulo 6 têm essa capacidade assim como sistemas de modulação em ângulo Na modulação em ângulo a largura de banda de transmissão pode ser ajustada pelo valor de Δf Para sistemas de modulação em ângulo a SNR é aproximadamente proporcional ao quadrado da largura de banda de transmissão B T Em PCM a SNR varia exponencialmente com B T e portanto é superior à modulação em ângulo Projetemos um modulador FM indireto para gerar um sinal FM com frequência portadora 973 MHz e Δf 1024 kHz Há disponibilidade de um gerador NBFM com f c1 20 kHz e Δf 5 Hz Somente dobradores de frequência podem ser usados como multiplicadores Adicionalmente para mistura de frequência há disponibilidade de um oscilador local LO com frequência ajustável entre 400 e 500 kHz Figura 511 Projeto de um modulador indireto de Armstrong O modulador é mostrado na Fig 511 Devemos determinar M 1 M 2 e f LO Primeiro o gerador NBFM produz O WBFM final deve ter Calculemos agora o fator total de multiplicação de frequência Como apenas dobradores de frequência podem ser utilizados temos três equações Temos ainda Para determinar f LO há três relações possíveis Cada uma deve ser testada para estabelecer qual delas cai na faixa a Primeiro testemos f c 3 f c 2 f LO Isso nos leva a Portanto temos 54 Este valor está fora da faixa de frequência do oscilador local b A seguir testemos f c3 f c2 f LO que nos leva a Assim temos Se n 2 7 f LO 440 kHz que está na faixa de valores realizáveis com o oscilador local c Se escolhermos f c3 f LO f c2 teremos Portanto temos Nenhum inteiro n 2 levará a um valor realizável de f LO Assim o projeto final é M 1 16 M 2 128 e f LO 440 kHZ DEMODULAÇÃO DE SINAIS FM A informação contida em sinais FM reside na frequência instantânea ω i ω c k fmt Portanto um circuito seletivo em frequência com função de transferência Hf 2aπf b na faixa FM produziria uma saída proporcional à frequência instantânea Fig 512a Existem diversos circuitos com tais características O mais simples é um diferenciador ideal com função de transferência j2πf Figura 512 a Resposta do demodulador de frequência b Saída de um diferenciador para a onda FM de entrada c Demodulação FM por diferenciação direta Se aplicarmos φ FMt a um diferenciador ideal a saída será Tanto a amplitude como a frequência do sinal são moduladas Fig 512 o envelope é Aω c k fmt Como Δω k fm p ω c temos ω c k fmt 0 para todo t e mt pode ser obtido com a detecção de envelope de Fig 512c A amplitude A da portadora FM que chega ao receptor deve ser constante Caso a amplitude A não seja constante mas uma função do tempo no lado direito da Eq 526 haverá um termo adicional contendo dAdt Mesmo que este termo seja desprezível o envelope de φ FMt será Atω c k fmt e a saída do detector de envelope será proporcional a mtAt o que ainda causará distorção Portanto é essencial manter A constante Diversos fatores como ruído de canal e desvanecimento fazem A variar A variação em A deve ser suprimida por meio de um limitador passafaixa discutido na Seção 53 antes que o sinal seja aplicado ao detector FM Demoduladores de Frequência Práticos O diferenciador representa apenas uma forma de converter a variação de frequência de sinais FM em variações de amplitude que subsequentemente podem ser detectadas por um detector de envelope Podemos usar um amplificador operacional como diferenciador no receptor FM O papel do diferenciador pode ser substituído por um sistema linear cuja resposta de frequência contenha um segmento linear com inclinação positiva A aproximação da inclinação linear ideal na Fig 512a constitui o método conhecido como detecção de inclinação Figura 513 a Filtro passaaltos RC b Segmento de inclinação positiva na resposta de amplitude Um dispositivo simples pode ser o filtro passaaltos RC da Fig 513 A resposta de frequência RC é Assim se o parâmetro RC for muito pequeno tal que seu produto pela frequência portadora ω c RC 1 o filtro RC aproxima um diferenciador De modo similar um simples circuito sintonizado RLC seguido por um detector de envelope também pode funcionar como detector de frequência pois abaixo da frequência de ressonância ω o 1 sua resposta de frequência Hf aproxima uma inclinação linear Assim o projeto do receptor requer Como a operação é feita com a inclinação de Hf esse método também é conhecido como detecção de inclinação Contudo como a inclinação de Hf é linear somente em uma faixa muito estreita a saída contém considerável distorção Essa deficiência pode ser parcialmente corrigida por um discriminador balanceado formado por dois detectores de inclinação Outro demodulador balanceado o detector de razão largamente utilizado no passado oferece melhor proteção contra variações de amplitude que discriminadores Durante muitos anos detectores de razão foram o padrão em quase todos os receptores FM 10 Detectores de cruzamento do zero também são utilizados devido aos avanços em circuitos digitais integrados O primeiro passo consiste em usar o amplificador limitador da Fig 59a para gerar o pulso retangular de saída na Fig 59c O resultante trem de pulsos retangulares de largura variável pode então ser aplicado para disparar um contador digital que é um contador de frequência projetado para medir a frequência instantânea a partir do número de cruzamentos do zero A taxa de cruzamentos do zero é igual à frequência instantânea do sinal de entrada Demodulação FM via PLL Consideremos uma PLL travada ao sinal de entrada sen ω c t θ it e um sinal de erro e ot Quando o sinal de entrada é um sinal FM e Com a PLL travada podemos presumir um pequeno erro de frequência Assim o sinal de saída do filtro de malha é 55 Portanto a PLL atua como um demodulador FM Se o sinal de entrada for uma onda PM e 0t k pc Neste caso é necessário integrar e ot para que obtenhamos o desejado sinal mt Para uma análise mais precisa do comportamento da PLL como demodulador FM consideremos o caso de um pequeno erro modelo linear da PLL com Hs 1 Para esse caso a análise de realimentação da PLL sob pequeno erro do Capítulo 4 passa a Se E os e Ms forem as transformadas de Laplace de e ot e mt respectivamente das Eqs 527 e 528 obtemos Logo Portanto a saída da PLL e ot é uma versão distorcida de mt e é equivalente à saída de um circuito de um polo simples como um circuito RC simples com função de transferência k fAKc s AK tendo mt como entrada Para reduzir a distorção devemos escolher AK bem acima da largura de banda de mt de modo que e ot k fmtc Na presença de pequeno ruído o comportamento da PLL é comparável ao de um discriminador de frequência A vantagem da PLL em relação ao discriminador de frequência deixa de existir somente quando o ruído é grande EFEITOS DE DISTORÇÃO NÃO LINEAR E INTERFERÊNCIA Imunidade da Modulação em Ângulo a Não Linearidades Uma propriedade muito útil da modulação em ângulo é sua amplitude constante que a torna menos susceptível a não linearidades Consideremos por exemplo um amplificador com distorção não linear de segunda ordem cujas entrada e saída estão relacionadas por Fica claro que o primeiro termo é o desejado termo de amplificação do sinal enquanto os termos restantes são as indesejadas distorções não lineares Para o sinal modulado em ângulo Podemos empregar identidades trigonométricas para reescrever a saída não ideal yt do sistema como Um valor suficientemente grande de ω c torna as componentes de yt separáveis no domínio da frequência assim um filtro passafaixa centrado em ω c e largura de banda igual a B FM ou B PM pode extrair a desejada componente de sinal FM c 1 cos ω c t ψt sem distorção Isso mostra que sinais modulados em ângulos são imunes às distorções não lineares Em AM uma não linearidade similar causa não apenas modulações indesejadas com frequências portadoras nω c mas também distorção do sinal desejado Por exemplo se um sinal DSBSC mt cos ω c t passar por uma não linearidade yt a xt b x 3t a saída será Se este sinal for aplicado a um filtro passafaixa a saída será amt 3b4m 3tcos ω c t Notemos a componente de distorção 3b4m 3t que aparece junto com o sinal desejado amt Imunidade a não linearidade é a principal razão do uso de modulação em ângulo em sistemas de rádio de microondas nas quais os níveis de potência são elevados Isso requer amplificadores de microondas de classe C altamente eficientes Adicionalmente a amplitude constante dá a FM uma espécie de imunidade contra desvanecimento rápido O efeito de variações de amplitude causadas por desvanecimento rápido pode ser eliminado com o uso de controle automático de ganho e limitação em banda passante Essas vantagens tornaram a FM atraente para a tecnologia por trás da primeira geração 1G de sistemas de telefonia celular As mesmas vantagens também tornam FM atraente para sistemas de rádio de microondas Nos sistemas legados de telefonia de longa distância vários canais são multiplexados por meio de sinais SSB para formar sinais de portadora L Os sinais multiplexados são modulados em frequência e transmitidos em sistemas de rádio de microondas com muitos enlaces em tandem Contudo nessa aplicação FM não é usado para reduzir efeitos de ruído mas para tirar proveito de outras vantagens associadas à amplitude constante assim é usado NBFM em vez de WBFM Efeito de Interferência A modulação em ângulo quando comparada com AM também é menos vulnerável a interferências de pequenos sinais entre canais adjacentes Consideremos o simples caso de interferência entre uma portadora não modulada A cos ω c t e outra senoide I cos ω c ωt O sinal recebido rt é em que Quando o sinal interferente é pequeno em comparação com a portadora I A A fase de e a frequência instantânea Se o sinal E rt cos ωc t t for aplicado a um demodulador de fase ideal a saída y dt será t De modo similar a saída y dt de um demodulador de frequência ideal será Logo Figura 514 Efeito de interferência em PM FM e FM com préênfasedeênfase PDE Observemos que nos dois casos a saída de interferência é inversamente proporcional à amplitude da portadora A Assim quanto maior a amplitude da portadora A menor o efeito da interferência Isso difere muito do que se passa em sinais AM nos quais a saída de interferência independe da amplitude da portadora Portanto no que diz respeito à supressão de interferência fraca I A sistemas com modulação em ângulo são muito melhores que sistemas AM Devido à supressão de interferência fraca em FM quando ouvimos rádios FM observamos o que é conhecido como efeito de captura No caso de dois transmissores em que a separação entre as frequências portadoras é menor que a faixa de áudio em vez de interferência observamos que a portadora mais intensa efetivamente suprime captura a mais fraca Testes subjetivos mostraram que em sinais de áudio mesmo um baixo nível de interferência de 35 dB pode causar efeitos indesejáveis Portanto em AM o nível de interferência deve ser mantido abaixo de 35 dB No caso de FM devido ao efeito de captura basta que o nível de interferência fique abaixo de 6 dB A Fig 514 mostra curvas da amplitude da interferência IA para PM e IωA para FM em função de ω na saída do receptor Em PM a amplitude da interferência é constante para todo ω e no caso de FM aumenta linearmente com ω Interferência Devido a Ruído de Canal Em um sinal modulado em ângulo o ruído de canal atua como uma interferência Consideremos a forma mais comum de ruído o ruído branco que tem densidade espectral de potência constante Esse ruído pode ser considerado como a soma de senoides de todas as frequências na banda Todas as componentes têm a mesma amplitude devido à densidade uniforme Isso significa que I é constante para todo ω o espectro da amplitude da interferência na saída do receptor e mostrado na Fig 514 O espectro da amplitude da interferência é constante para PM e no caso de FM cresce linearmente com ω Figura 515 Préênfase e deênfase em um sistema FM Figura 516 a Filtro de préênfase e b sua resposta de frequência c Filtro de deênfase e d sua resposta de frequência PréÊnfase e Deênfase na Difusão FM A Fig 514 mostra que em FM a interferência ruído aumenta linearmente com a frequência e a potência de ruído na saída do receptor se concentra nas frequências altas Uma análise da Fig 418b mostra que a densidade espectral de potência PSD de um sinal de áudio mt se concentra nas frequências abaixo de 21 kHz Assim a PSD de ruído se concentra nas frequências altas nas quais mt é mais fraco Isso pode parecer uma catástrofe Contudo na verdade nessa situação há uma oportunidade velada para uma grande redução do ruído O processo ilustrado na Fig 515 funciona da seguinte maneira no transmissor as componentes mais fracas do sinal de áudio mt acima de 21 kHz são amplificadas antes da modulação por um filtro de préênfase com função de transferência H pf No receptor a saída do demodulador é aplicada a um filtro de deênfase com função de transferência H df 1H pf Dessa forma o filtro de deênfase desfaz a préênfase atenuando deenfatizando as componentes de altas frequências acima de 21 kHz e assim restaura o sinal original mt O ruído no entanto entra no canal e portanto não passa por préênfase amplificação Todavia o ruído passa pelo filtro de deênfase que atenua as componentes de altas frequências em que está concentrada a maior parte da potência de ruído Fig 514 O processo de préênfasedeênfase PDE preserva o sinal desejado mas reduz a potência de ruído consideravelmente Filtros de Préênfase e de Deênfase A Fig 514 oferece uma oportunidade para préênfase Nas frequências baixas FM é menos sujeito a interferência que PM nas frequências altas ocorre o oposto Se pudermos fazer nosso sistema se comportar como FM nas frequências baixas e como PM nas frequências altas teremos o melhor dos dois mundos Na difusão comercial isso é feito com um sistema Fig 515 de filtros de préênfase antes da modulação H pf e deênfase após a modulação H df mostrados na Fig 516 A frequência f 1 é de 21 kHz e f 2 tipicamente 30 kHz ou mais bem acima da faixa de áudio de modo que f 2 fique fora da faixa de interesse Esses filtros podem ser realizados por simples circuitos RC Fig 516 A escolha de f 1 21 kHz foi aparentemente feita com base na experiência Foi observado que essa escolha de f 1 mantinha a mesma amplitude de pico m p com ou sem préênfase 11 Esse resultado satisfazia a condição de uma largura de banda de transmissão fixa A função de transferência de préênfase é em que K o ganho é tomado com o valor ω 2ω 1 Assim 56 Para 2π f ω 1 Para frequências ω 1 2π f ω 2 Portanto nas frequências intermediárias 21 15 kHz o circuito de préênfase atua como um diferenciador o que efetivamente transforma o esquema em PM nessas frequências Isso significa que FM com PDE é FM na faixa de frequências do sinal modulante de 0 a 21 kHz e quase PM na faixa de 21 kHz a 15 kHz como desejado O filtro de deênfase H df é dado por Notemos que para 2πf ω 2 H pf j2πf ω 1ω 1 Logo H pf H df 1 na faixa de frequências de 0 a 15 kHz Por motivos históricos e práticos filtros ótimos PDE não são usados na vida real Pode ser mostrado que a PDE aumenta a SNR em 1327 dB uma razão de potência de 2125 O efeito colateral benéfico de PDE é uma melhora na característica de interferência Como a interferência sinais indesejados e estações vizinhas entra após o estágio transmissor passa apenas pela operação de deênfase e não pela de amplificação ou préênfase Assim nas frequências acima de 21 kHz as amplitudes de interferências sofrem atenuação quase linear com a frequência O método PDE de redução de ruído não se limita à difusão FM Também é usado na gravação de áudio e na gravação analógica fonográfica nas quais o ruído de chiado também se concentra nas frequências altas Um som de chiado claro é causado por irregularidades no material de gravação Sistemas Dolby de redução de ruído para fitas de áudio têm o mesmo princípio de funcionamento embora o sistema DolbyA seja um pouco mais elaborado Nos sistemas DolbyB e C a banda é dividida em duas subbandas abaixo e acima de 3 kHz em vez de 21 kHz No sistema DolbyA projetado para uso comercial as bandas são divididas em quatro subbandas abaixo de 80 Hz 80 Hz3 kHz 39 kHz e acima de 9 kHz O grau de préênfase é otimizado para cada banda Também podemos usar PDE na difusão AM para melhorar a SNR de saída Contudo na prática isso não é feito por várias razões Primeira em AM a amplitude do ruído de saída é constante com a frequência e não aumenta linearmente como em FM Portanto a deênfase não resulta em um ganho tão grande em AM quanto no FM Segunda a introdução de PDE obrigaria modificações nos receptores já em uso Terceira o aumento da amplitude das componentes de alta frequência préênfase aumentaria a interferência com estações adjacentes esse problema não ocorre em FM Além disso um aumento na razão de desvio de frequência β nas altas frequências tornaria o projeto do detector mais difícil RECEPTORES ANALÓGICOS AMFM SUPERHETERÓDINOS O receptor de rádio usado em sistemas de difusão AM e FM é chamado receptor superheteródino Fig 517 O receptor consiste em uma seção de RF radiofrequência um conversor de frequência Exemplo 42 um amplificador de frequência intermediária FI um detector de envelope e um amplificador de áudio A seção de RF consiste basicamente em um filtro sintonizável e em um amplificador que pega a estação desejada sintonizando o filtro à apropriada faixa de frequências A próxima seção o misturador conversor de frequências traslada a portadora de ω c a uma frequência FI fixa ω FI ver Exemplo 42 para conversão de frequências Para esse fim o receptor usa um oscilador local cuja frequência f LO é exatamente um valor f FI maior que a frequência portadora de entrada f c ou seja f LO f c f FI A sintonia simultânea do oscilador local e do filtro de RF sintonizável é feita por um único botão de sintonia Capacitores de sintonia nos dois circuitos são agrupados e projetados de modo que a frequência de sintonia do oscilador local seja sempre f FI Hz acima da frequência de sintonia f c do filtro de RF Isso significa que cada estação sintonizada é trasladada a uma frequência intermediária fixa de f FI Hz pelo conversor de frequências para processamento posterior na FI Essa estrutura do receptor superheteródino é largamente utilizada na maioria dos sistemas de difusão As frequências intermediárias são escolhidas em 455 kHz rádio AM 107 MHz rádio FM e 38 MHz recepção de TV Como descoberto por Armstrong para sinais AM a translação de todas as estações a uma frequência intermediária fixa para AM f FI 455 kHz nos permite obter seletividade adequada É difícil projetar filtros passafaixa precisos com 10 kHz de largura de banda espectro do sinal de áudio modulado quando a frequência central f c é muito alta Isso é particularmente verdadeiro para o caso de filtros sintonizáveis Assim o filtro de RF não é capaz de oferecer seletividade adequada para evitar canais adjacentes Contudo quando trasladado a uma frequência intermediária por um conversor o sinal é ainda amplificado por um amplificador de FI em geral um amplificador de três estágios que tem boa seletividade Isso é possível porque a frequência FI é razoavelmente baixa além disso a frequência central do amplificador de FI é fixa e sintonizada na fábrica Portanto a seção de FI é capaz de efetivamente eliminar a interferência entre canais adjacentes devido à alta seletividade Essa seção também amplifica o sinal para a detecção de envelope Figura 517 Receptor superheteródino Na verdade toda a seletividade é obtida na seção de FI a seção de RF tem um papel secundário A principal função da seção de RF é a supressão de frequência imagem Como observado no Exemplo 42 a saída do misturador ou conversor consiste em componentes da diferença entre a frequência que chega ao receptor f c e a do oscilador local F LO ou seja f FI f LO f c Agora consideremos o exemplo de AM Se a frequência portadora recebida for f c 1000 kHz então f LO f c f RF 1000 455 1455 kHz Contudo outra portadora com f c 1455 455 1910 kHz também será selecionada pois a diferença f c f LO é 455 kHz Dizemos que a estação em 1910 kHz é a imagem da estação em 1000 kHz Estações AM separadas em frequência por 2f FI 910 kHz são denominadas estaçõesimagem e as duas apareceriam simultaneamente na saída de FI se não fosse pela presença do filtro de RF na entrada do receptor O filtro de RF pode ter seletividade pobre para estações adjacentes separadas por 10 kHz mas tem seletividade razoável para estações separadas por 910 kHz Assim quando desejamos sintonizar uma estação em 1000 kHz o filtro de RF sintonizado em 1000 kHz provê supressão adequada da estaçãoimagem em 1910 kHz Para converter a frequência portadora de entrada à FI o receptor Fig 517 utiliza um oscilador local de frequência f LO maior que a frequência portadora por isso recebe a denominação de receptor superheteródino Escolhemos f LO maior que f c porque isso resulta em menor razão de sintonia considerando as frequências máxima e mínima de sintonia para o oscilador local As frequências de difusão AM residem na faixa de 530 a 1710 kHz A faixa da f LO superheteródina é de 1005 a 2055 kHz razão de 2045 a faixa da f LO subheteródina é de 95 a 1145 kHz razão de 1205 É muito mais fácil projetar um oscilador sintonizável quando a razão de frequência é menor Não podemos deixar de ressaltar a importância do princípio superheteródino na difusão de rádio e televisão Inicialmente antes de 1919 toda a seletividade para separar estações adjacentes estava no filtro de RF Como em geral esse filtro tinha seletividade pobre era necessário utilizar vários estágios diversos circuitos ressonantes em cascata para obter uma seletividade adequada Nos primeiros receptores cada filtro era sintonizado individualmente A sintonia de uma estação com a sincronização de todos os circuitos ressonantes era uma tarefa tediosa e demorada Isso foi facilitado com o agrupamento de capacitores variáveis montados em um mesmo chassi girado por um botão Contudo capacitores variáveis são volumosos e há um limite ao número de capacitores que podem ser agrupados Esses fatores limitavam a seletividade de receptores Em 57 consequência era necessária grande separação entre frequências portadoras adjacentes o que resultava em menor número de bandas de frequências O receptor superheteródino permitiu a acomodação de muito mais estações de rádio SISTEMAS DE DIFUSÃO FM A FCC alocou a faixa de frequências de 88 a 108 MHz para a difusão FM com separação de 200 kHz entre estações adjacentes e um desvio máximo de frequência Δf 75 kHz Um receptor FM monofônico é idêntico ao receptor AM superheteródino mostrado na Fig 517 exceto que a frequência intermediária é 107 MHz e o detector de envelope é substituído por uma PLL ou um discriminador de frequência seguido de um circuito de deênfase Inicialmente as transmissões FM eram monofônicas Transmissão FM estereofônica na qual dois sinais de áudio L microfone da esquerda e R microfone da direita são usados para um efeito mais natural foi proposta posteriormente A FCC estipulou que o sistema estereofônico devia ser compatível com o sistema monofônico original Isso significava que os antigos receptores monofônicos deveriam ser capazes de receber o sinal L R e a largura de banda total de transmissão para os dois canais L e R deve permanecer em 200 kHz com Δf 75 kHz para os dois sinais combinados Isso asseguraria que receptores antigos seriam capazes de receber tanto sinais monofônicos como estereofônicos embora o efeito estéreo ficasse ausente Figura 518 a Transmissor FM estéreo b Espectro de um sinal estéreo em banda base c Receptor FM estéreo Um transmissor e um receptor para difusão estereofônica são mostrados na Fig 518a e c No transmissor os dois sinais L e R são somados e subtraídos fornecendo L R e L R Esses sinais passam por préênfase Após a préênfase o sinal L R modula em DSBSC uma portadora de 38 kHz obtida do dobramento de um sinal de 19 kHz usado como piloto O sinal L R é usado diretamente Os três sinais o terceiro é o piloto formam um sinal em banda base composto mt Fig 518b A razão para o uso do piloto de 19 kHz em vez de 38 kHz é a facilidade em separar o piloto de 19 kHz pois não há componentes de sinal na faixa de 4 kHz nos dois lados dessa frequência 58 O funcionamento do receptor Fig 518c é autoexplicativo Um receptor monofônico consiste apenas no braço superior do receptor estéreo e portanto recebe somente o sinal L R Esse é o sinal de áudio completo sem o efeito estéreo O sistema então é compatível O piloto é extraído e depois de ter a frequência dobrada usado para demodular coerentemente o sinal L R cos ω c t Um aspecto interessante da transmissão estéreo é que a amplitude de pico do sinal composto mt na Eq 533 é praticamente igual à do sinal monofônico se ignorarmos o piloto e portanto o valor de Δf que na transmissão estereofônica é proporcional à amplitude de pico do sinal permanece praticamente igual ao do caso monofônico Isso pode ser explicado pelo chamado efeito de entrelaçamento interleaving discutido a seguir Os sinais L e R são em geral muito parecidos Assim podemos supor que suas amplitudes de pico são iguais a A p Na pior das hipóteses L e R alcançarão seus valores de pico ao mesmo tempo resultando em Eq 533 mt máx 2A p α No caso monofônico a amplitude de pico do sinal em banda base L R é 2A p Logo as amplitudes de pico nos dois casos diferem apenas de α a amplitude do piloto Para levar isso em consideração a amplitude de pico de áudio no caso estéreo é reduzida a 90 do valor total Isso corresponde a uma redução na potência de sinal por uma razão 09 2 081 ou 1 dB Com isso a SNR efetiva é reduzida em 1 dB devido à inclusão do piloto EXERCÍCIOS COM O MATLAB Nesta seção usamos MATLAB para construir um exemplo de modulação e demodulação FM O programa MATLAB é ExampleFMm Mais uma vez aplicamos o mesmo sinal de mensagem m 2t O coeficiente FM é k f 80 e o coeficiente PM k p π A frequência portadora permanece sendo 300 Hz Os resultantes sinais FM e PM no domínio do tempo são mostrados na Fig 519 As correspondentes respostas de frequência também são ilustradas na Fig 519 As respostas no domínio da frequência mostram claramente as maiores larguras de banda dos sinais FM e PM em comparação com o sinal modulado em amplitude Sinal FM Figura 519 Sinais FM e PM nos domínios do tempo e da frequência Para obter os resultados de demodulação um diferenciador é primeiro aplicado para transformar o sinal modulado em frequência em um sinal modulado em amplitude e em frequência Fig 520 Com o uso do retificador para detecção de envelope vemos que o sinal de mensagem segue de perto as variações do envelope da saída do retificador Figura 520 Sinais no demodulador a após o diferenciador b após o retificador 1 2 3 4 5 6 7 8 9 10 Figura 521 Modulação e demodulação FM a mensagem original b sinal recuperado Por fim o sinal de saída do retificador é aplicado a um filtro passabaixos com largura de banda de 100 Hz Neste exemplo por conta dos requisitos mais estritos de filtragem usamos um filtro passabaixos de ordem 80 com resposta ao impulso finita Na Fig 521 a saída do detector FM é comparada ao sinal de mensagem original Os resultados da demodulação FM mostram claramente algumas distorções Primeiro o tempo de resposta e o atraso do filtro passabaixos de ordem mais alta são muito maiores Segundo a distorção durante a metade negativa da mensagem é mais severa porque o retificador gera poucos ciclos da meia senoide Isso ocorre porque quando o sinal de mensagem é negativo a frequência instantânea do sinal FM é baixa Como usamos uma frequência portadora de apenas 300 Hz o efeito da baixa frequência instantânea é muito mais pronunciado Se aplicássemos uma frequência portadora prática de 100 MHz esse tipo de distorção seria totalmente desprezível REFERÊNCIAS J Carson Notes on the Theory of Modulation Proc IRE vol 10 pp 5764 Feb 1922 J Carson Reduction of Atmospheric Disturbances Proc IRE vol 16 July 1928 E H Armstrong A Method of Reducing Disturbances in Radio Signaling by a System of Frequency Modulation Proc IRE vol 24 pp 689740 May 1936 A Revolution in Radio Fortune vol 20 p 116 Oct 1939 L Lessing Man of High Fidelity Edwin Howard Armstrong Lippincott Philadelphia 1956 H R Slotten Rainbow in the Sky FM Radio Technical Superiority and Regulatory Decision Making Society for the History of Technology 1996 J E Brittain Electrical Engineering Hall of FameEdwin H Armstrong Proc IEEE vol 92 pp 575578 Mar 2004 W B Davenport Jr SignaltoNoise Ratios in Bandpass Limiters J Appl Phys vol 24 pp 720727 June 1953 D H Sheingold ed Nonlinear Circuits Handbook Analog Devices Inc Norwood MA 1974 H L Krauss C W Bostian and F H Raab SolidState Radio Engineering Wiley New York 1980 11 511 512 a b 513 a b 521 a b 12 L B Arguimbau and R B Adler Vacuum Tube Circuits and Transistors Wiley New York 1964 p 466 EXERCÍCIOS Esboce as formas de onda de φ FMt e φ PMt para o sinal modulante mt mostrado na Fig E511 dados ω c 10 8 rads k f 10 5 e k p 25 Figura E511 Um sinal em banda base mt é o sinal dente de serra periódico mostrado na Fig E512 Esboce as formas de onda de φ FMt e φ PMt para este sinal mt dados ω c 2π 10 6 rads k f 2000π e k p π2 Mostre que o sinal PM é equivalente a um sinal PM modulado por uma mensagem quadrada periódica Explique por que neste caso é necessário usar k p π Note que o sinal PM tem uma frequência constante mas tem descontinuidades de fase que correspondem às descontinuidades de mt Figura E512 No intervalo t 1 um sinal modulado em ângulo é dado por A frequência portadora é ω c 10000π rads Admitindo que este é um sinal PM com k p 1000 determine mt no intervalo t 1 Admitindo que este é um sinal FM com k f 1000 determine mt no intervalo t 1 Para o sinal de mensagem Escreva as expressões sem desenhar gráficos de φ PMt e φ FMt com A 10 ω c 10 6 rads k f 1000π k p 1 Para determinar φ FMt use a integral indefinida de mt ou seja considere o valor da integral em t como 0 Estime as larguras de banda de φ FMt e φ PMt 522 a b c d 523 524 525 526 a b c d 527 a b 531 532 541 a b Um sinal modulado em ângulo com frequência central ω c 2π 10 6 rads é descrito pela equação Calcule a potência do sinal modulado Calcule o desvio de frequência Δf Calcule o desvio de fase Δϕ Estime a largura de banda de φ EMt Repita o Exercício 522 para o caso em que Estime as larguras de banda de φ PMt e φ FMt no Exercício 511 Suponha que a largura de banda de mt na Fig E511 seja igual à frequência do terceiro harmônico de mt Estime as larguras de banda de φ PMt e φ FMt no Exercício 512 Suponha que a largura de banda de mt na Fig E512 seja igual à frequência do quinto harmônico de mt Dados mt sen 2000π t k f 200000π e k p 10 Estime as larguras de banda de φ FMt e φ PMt Repita a parte a para o caso em que a amplitude do sinal de mensagem é dobrada Repita a parte a para o caso em que a frequência do sinal de mensagem é dobrada Comente a sensibilidade das larguras de banda de FM e PM em relação ao espectro de mt Dados mt e t 2 f c 10 4 Hz k f 6000π e k p 8000π Calcule Δf o desvio de frequência para FM e PM Estime as larguras de bandas das ondas FM e PM Sugestão Determine Mf e sua largura de banda de 3 dB B Δf Projete apenas o diagrama em blocos um modulador FM indireto de Armstrong para gerar uma portadora FM com frequência de 981 MHz e Δf 75 Hz Há disponibilidade de um gerador de FM de banda estreita com frequência portadora de 100 kHz e desvio de frequência Δf 10 Hz No estoque há um oscilador de frequência ajustável na faixa de 10 a 11 MHz Há ainda diversos dobradores triplicadores e quintuplicadores de frequência Projete apenas o diagrama em blocos um modulador FM indireto de Armstrong para gerar uma portadora FM com frequência de 96 MHz e Δf 20 Hz Há disponibilidade de um gerador de FM de banda estreita com f c 200 kHz e desvio de frequência Δf ajustável na faixa de 9 a 10 Hz No estoque há um oscilador de frequência ajustável na faixa de 9 a 10 MHz Há ainda um filtro passafaixa com frequência central arbitrária e dobradores de frequência Mostre que quando mt não tem descontinuidades do tipo degrau um demodulador FM seguido por um integrador Fig E541 forma um demodulador PM Explique por que é necessário que o demodulador PM remova qualquer componente dc antes do integrador Mostre que um demodulador PM seguido por um diferenciador Fig 541b funciona como um demodulador FM mesmo que mt tenha descontinuidades do tipo degrau ou que a saída do demodulador PM tenha componente dc 542 543 561 562 Figura E 541 Uma onda quadrada periódica mt Fig E542a modula em frequência uma portadora f c 10 kHz com Δf 1 kHz A amplitude da portadora é A O resultante sinal FM é demodulado como mostrado na Fig E542b pelo método discutido na Seção 54 Fig 512 Esboce as formas de onda nos pontos b c d e e Figura E 542 Use a análise de PLL sob pequeno erro para mostrar que uma malha de primeira ordem Hs 1 não pode rastrear um sinal de entrada cuja frequência instantânea varia linearmente com o tempo θ i t kt 2 Esse sinal pode ser rastreado a menos de uma constante de fase se Hs s as O sinal pode ser rastreado sem erro de fase caso Hs s 2 as bs 2 Um transmissor transmite um sinal AM com frequência portadora de 1500 kHz Quando um receptor de rádio barato cujo filtro passafaixa do estágio de RF tem seletividade pobre é sintonizado a 1500 kHz o sinal é ouvido forte e claro Esse mesmo sinal também é ouvido não tão bem em outra sintonia Diga com justificativa em que frequência essa estação será ouvida A frequência FI é de 455 kHz Considere um receptor FM superheteródino projetado para receber a faixa de frequências de 1 a 30 MHz com frequência FI de 8 MHz Qual é a faixa de frequências geradas pelo oscilador local para esse receptor Um sinal de entrada com frequência portadora de 10 MHz é recebido na sintonia de 10 MHz Nessa sintonia do receptor também é recebida interferência de um sinal com outra frequência portadora caso o filtro passafaixa do estágio de RF do receptor tenha seletividade pobre Qual é a frequência portadora do sinal interferente Isso se deve ao fato de que integração e uma operação linear equivalente a passar o sinal por uma função de transferencia 1j2πf Assim se Mf for limitado em banda a B Af também deve ser limitado em banda a B A Eq 517a pode ser aplicada somente se mt for uma função contínua do tempo Caso mt tenha descontinuidades sua derivada não existe Nessa situação devemos usar a abordagem direta discutida no Exemplo 52 para determinar φ PMt e então determinamos Δω de φ PMt Como J n β 1 n J n β a magnitude da LSB em ω ω c nω m e igual a da USB em ω ω c nω m Por exemplo com base na análise da modulação por tom é comum afirmar que FM é superior a PM por um fator de 3 no que diz respeito à SNR de saída Na verdade isso é falso para a maioria dos sinais encontrados na prática Institute of Electrical and Electronic Engineers Instituto de Engenheiros Elétricos e Eletrônicos NT Caso desejemos que Δf seja exatamente 75 kHz em vez de 768 kHz devemos reduzir o desvio Δf de banda estreita de 25 Hz para 2575768 2441 Hz Desde que as variações de ω i sejam lentas em comparação com a constante de tempo do circuito Por exemplo um sinal AM com uma interferência senoidal I cos ω c ωt é dado por Para esse sinal o envelope é Assim o sinal de interferência na saída do detector de envelope é I cos ωt que independe da amplitude da portadora A Obteríamos o mesmo resultado caso demodulação síncrona fosse utilizada A mesma conclusão se aplica a sistemas AMSC Os resultados nas Eqs 530 e 531 podem ser prontamente estendidos ao caso de mais de uma senoide interferente Quando há várias senoides interferentes o sistema se comporta linearmente desde que as amplitudes das senoides sejam muito pequenas em comparação com a amplitude da portadora No Brasil a Agência Nacional de Telecomunicações ANATEL adota o mesmo plano de frequências NT As letras L e R são herdadas do inglês Left esquerdo e Right direito NT C 61 omo discutido brevemente no Capítulo 1 sinais analógicos podem ser digitalizados por meio de amostragem e quantização Essa conversão analógicodigital AD estabelece o sustentáculo dos modernos sistemas de comunicação digital No conversor AD a taxa de amostragem deve ser suficientemente grande para permitir que o sinal analógico seja reconstruído das amostras com precisão adequada O teorema da amostragem que é a base para a determinação da apropriada sem perda taxa de amostragem para um dado sinal tem um papel essencial no processamento de sinais teoria das comunicações e projeto de circuitos AD TEOREMA DA AMOSTRAGEM Primeiro mostremos que um sinal gt cujo espectro é limitado em banda a B Hz ou seja pode ser reconstruído exatamente sem qualquer erro a partir de suas amostras em tempo discreto tomadas uniformemente a uma taxa de R amostras por segundo A condição é que R 2B Em outras palavras a mínima frequência de amostragem para recuperação perfeita do sinal é f s 2B Hz Para provar o teorema da amostragem consideremos um sinal gt Fig 61a cujo espectro seja limitado em banda a B Hz Fig 61b Por conveniência espectros são mostrados como funções tanto de f como de ω Amostrar gt a uma taxa de f s Hz significa tomar f s amostras uniformes por segundo Tal amostragem uniforme é efetuada com a multiplicação de gt por um trem de impulsos δ T s da Fig 61c que consiste em impulsos unitários repetidos periodicamente a cada T s segundos em que T s 1f s Isso resulta no sinal amostrado ilustrado na Fig 61d O sinal amostrado consiste em impulsos espaçados a cada T s segundos o intervalo de amostragem O nésimo impulso localizado em t nT s tem amplitude gnT s que é o valor de gt em t nT s Assim a relação entre o sinal amostrado e o sinal analógico original gt é Figura 61 Sinal amostradoe seu espectro de Fourier Como o trem de impulsos δ T s t é um sinal periódico de período T s pode ser expresso como uma série de Fourier exponencial já calculada no Exemplo 311 como Logo Para calcular a transformada de Fourier de tomamos a transformada de Fourier do somatório na Eq 63 Com base na propriedade de translação de frequência a transformada do nésimo termo é deslocada de nf s Portanto Isso significa que o espectro consiste em Gt multiplicado por uma constante 1T s e repetido periodicamente a cada f s 1T s como ilustrado na Fig 61e Após a amostragem uniforme que gera um conjunto de amostras gkT s a questão vital se torna Será possível reconstruir gt a partir de sem perda ou distorção Se formos capazes de reconstruir gt de no domínio da frequência 611 equivalentemente devemos ser capazes de recuperar Gf de Da Fig 61 vemos que a recuperação perfeita é possível se não houver sobreposição entre as réplicas de A Fig 61e mostra claramente que isso requer O intervalo de amostragem é então T s 1f s Portanto Assim desde que a frequência de amostragem f s seja maior que o dobro da largura de banda B em hertz consistirá em repetições de Gf que não se sobrepõem Quando isso é verdadeiro a Fig 61e mostra que pode ser recuperado de suas amostras aplicando o sinal amostrado a um filtro passabaixas de largura de banda B A mínima taxa de amostragem f s 2B exigida para recuperar gt de é denominada taxa de Nyquist para gt e o correspondente intervalo de amostragem T s 12B intervalo de Nyquist para o sinal passabaixas gt É necessário ressaltar um ponto importante relativo à possibilidade f s 2B e a uma particular classe de sinais passabaixas Para um espectro de sinal genérico provamos que a taxa de amostragem f s 2B Contudo caso o espectro Gf não contenha impulso ou suas derivadas na maior frequência B não haverá sobreposição desde que a taxa de amostragem seja maior que ou igual à taxa de Nyquist ou seja Se no entanto Gf contiver um impulso na frequência mais alta B a igualdade deve ser removida ou ocorrerá sobreposição Nesse caso a taxa de amostragem f s deve ser maior do que 2B Hz Um exemplo conhecido é a senoide gt sen 2π B t t 0 Esse sinal é limitado à banda de B Hz mas se as amostras são uniformemente tomadas à taxa f s 2B iniciando em t t 0 todas serão nulas e gt não poderá ser recuperado de suas amostras de Nyquist Portanto para senoides a condição f s 2B deve ser satisfeita Reconstrução de Sinais a partir de Amostras Uniformes O processo de reconstrução de um sinal do tempo contínuo gt a partir de suas amostras também é conhecido com interpolação Na Fig 61 usamos uma prova construtiva para mostrar que um sinal gt limitado em banda a B Hz pode ser reconstruído interpolado exatamente de suas amostras Isso significa não apenas que amostragem uniforme feita acima da taxa de Nyquist preserva a informação do sinal mas também que a simples aplicação do sinal amostrado a um filtro passabaixas ideal de largura de banda B Hz reconstrói a mensagem original Como visto na Eq 63 o sinal amostrado contém uma componente 1T sgt e para recuperar gt ou Gf o sinal amostrado deve ser aplicado a um filtro passabaixas ideal de largura de banda B Hz e ganho T s Um filtro ideal como esse tem a função de transferência Reconstrução Ideal A Fig 62a mostra a função de transferência do filtro ideal de interpolação obtida na Eq 67 para recuperar o sinal analógico de suas amostras uniformes A resposta ao impulso desse filtro transformada de Fourier inversa de Hf é Considerando o uso da taxa de amostragem de Nyquist ou seja 2BT s 1 temos Esta função ht é mostrada na Fig 62b Um fato muito interessante a ser observado é que ht 0 em todos os instantes de amostragem de Nyquist t n2B exceto em t 0 Quando o sinal amostrado é aplicado à entrada deste filtro a saída é gt Cada amostra em por ser um impulso gera um pulso sinc de altura igual à intensidade da amostra como ilustrado na Fig 62c O processo é idêntico ao mostrado na Fig 66 exceto que ht é um pulso sinc em vez de um pulso retangular A adição de pulsos sinc gerados por todas as amostras resulta em gt A késima amostra da entrada é o impulso gkT sδt kT s a saída do filtro para esse impulso é gkT sht kT s Logo a saída do filtro para que é gt pode ser expressa como uma soma A Eq 610 é a fórmula de interpolação que produz valores de gt entre amostras como uma soma ponderada de todos os valores de amostras Figura 62 Interpolação ideal Exemplo 61 Determinemos o sinal gt limitado em banda a B Hz e cujas amostras são em que o intervalo de amostragem T s é o intervalo de Nyquist para gt ou seja T s 12B Usemos a fórmula de interpolação 610b para construir gt a partir das amostras Como todas as amostras de Nyquist exceto uma são nulas somente um termo correspondente a k 0 sobrevive na soma no lado direito da Eq 610b Assim Este sinal é mostrado na Fig 63 Observemos que este é o único sinal que tem largura de banda B Hz e valores de amostras g0 1 e gnT s 0 n 0 Nenhum outro sinal satisfaz essas condições Figura 63 Sinal reconstruído das amostras de Nyquist no Exemplo 61 Reconstrução Interpolação Prática de Sinais Na Seção 35 vimos que um filtro passabaixas ideal é não causal e portanto irrealizável Isso também pode ser visto da natureza infinitamente longa do pulso de reconstrução sinc usado na reconstrução ideal da Eq 610 Para aplicações práticas de reconstrução de sinais por exemplo em um reprodutor de CD é necessário implementar um sistema realizável para a reconstrução de sinais a partir de amostras uniformes dos mesmos Para implementação prática o pulso de reconstrução pt deve ser de fácil geração Por exemplo podemos aplicar o pulso de reconstrução pt mostrado na Fig 64 No entanto devemos primeiro usar o pulso não ideal de interpolação pt para analisar a precisão do sinal reconstruído Denotemos o sinal obtido da reconstrução por Figura 64 Pulso prático de reconstrução interpolação Para determinar a relação entre este sinal e o sinal analógico original gt das propriedades da convolução e da Eq 61 vemos que No domínio da frequência a relação entre a reconstrução e o sinal analógico original é obtida com ajuda da Eq 64 Isso significa que o sinal reconstruído com uso do pulso pt consiste em múltiplas réplicas de Gf com frequências centrais nf s e filtradas por Pf Para recuperar gt completamente filtragem adicional de se torna necessária Tais filtros são em geral referidos como equalizadores Denotemos a função de transferência do equalizador por Ef A reconstrução sem distorção requer Esta relação indica claramente que o equalizador deve remover todas as réplicas deslocadas Gf nf s da soma exceto o termo passabaixas com n 0 ou seja Adicionalmente a reconstrução sem distorção requer Figura 65 Reconstrução prática de sinal Figura 66 Interpolação simples por meio de pulsos retangulares O filtro equalizador Ef deve ser passabaixas em natureza para suprimir todo conteúdo de frequência acima de f s B Hz e deve ser o inverso de Pf na largura de banda de B Hz do sinal A Fig 65 ilustra o diagrama de um sistema prático de reconstrução que utiliza um equalizador desse tipo Consideremos agora um gerador de pulsos de interpolação muito simples que gera pulsos curtos retenção de ordem zero zero order hold Como mostrado na Fig 66 Este é um pulso retangular de altura unitária e duração T p A reconstrução primeiro gerará A função de transferência do filtro Pf é a transformada de Fourier de ΠtT p deslocada de 05T p Como resultado a resposta de frequência do equalizador deve satisfazer É importante que determinemos se a resposta de banda passante do equalizador é realizável Primeiro podemos acrescentar outro atraso temporal à reconstrução tal que Para que um ganho de banda passante Ef seja bem definido é imperativo que escolhamos uma pequena largura de pulso T p tal que Isso significa que o equalizador Ef não precisa alcançar ganho infinito Se não for assim o equalizador se tornará irrealizável De modo equivalente Portanto desde que a largura do pulso retangular de reconstrução seja menor que 1B deve ser possível projetar um filtro equalizador analógico para recuperar o sinal analógico original gt do trem de pulsos de reconstrução não ideal Obviamente este é um requisito para um gerador de pulsos retangulares de reconstrução Na prática T p pode ser escolhido muito pequeno fornecendo a seguinte resposta de banda passante do equalizador 612 Isso significa que resta pouca distorção quando pulsos retangulares muito curtos são usados na reconstrução de sinais Esses casos tornam o projeto do equalizador desnecessário ou muito simples Um exemplo é dado na forma de exercício com o MATLAB na Seção 69 Podemos obter um resultado melhor que com o filtro de retenção de ordem zero se usarmos um filtro de retenção de primeira ordem que resulta em interpolação linear no lugar da interpolação em degraus O interpolador linear cuja resposta ao impulso é um pulso triangular Δt2T s leva a uma interpolação em que os topos de amostras adjacentes são conectados por segmentos de reta Exercício 617 Questões Práticas Relativas à Amostragem e à Reconstrução de Sinais Realizabilidade de Filtros de Reconstrução Se um sinal for amostrado à taxa de Nyquist f s 2B Hz o espectro consiste em repetições de Gf sem qualquer separação entre ciclos adjacentes como mostrado na Fig 67a Para recuperar gt de é preciso aplicar o sinal amostrado a um filtro passabaixas ideal área pontilhada na Fig 67a Como visto na Seção 35 um filtro como este é irrealizável na prática uma boa aproximação para o filtro pode ser obtida apenas com atraso temporal infinito na resposta Isso significa que podemos recuperar o sinal gt de suas amostras com atraso temporal infinito Uma solução prática a este problema consiste em amostrar o sinal a uma taxa maior que a de Nyquist f s 2B ou ω s 4πB O resultado é que agora consiste em repetições de Gf com separação finita entre ciclos adjacentes como ilustrado na Fig 67b Assim podemos recuperar Gf de ou de com o uso de um filtro passabaixas com característica de corte gradual área pontilhada na Fig 67b Contudo mesmo neste caso o ganho do filtro deve ser zero além do primeiro ciclo de Gf Fig 67b Segundo o critério de PaleyWiener a realização deste filtro também é impossível A única vantagem neste caso é a possibilidade de obter uma aproximação para o filtro com menor atraso temporal Isto mostra que na prática é impossível recuperar exatamente um sinal limitado em banda gt a partir de suas amostras mesmo que a taxa de amostragem seja maior do que a de Nyquist No entanto à medida que a taxa de amostragem aumenta o sinal recuperado se aproxima mais do sinal desejado A Perfídia do Mascaramento Há outra dificuldade prática fundamental associada à reconstrução de um sinal a partir de suas amostras O teorema da amostragem foi provado sob a hipótese de que o sinal gt era limitado em banda Entretanto todos os sinais práticos são limitados no tempo ou seja têm duração ou largura finita Podemos demonstrar Exercício 618 que um sinal não pode ser simultaneamente limitado no tempo e em banda Um sinal limitado no tempo não pode ser limitado em banda e viceversa mas um sinal pode ser simultaneamente não limitado no tempo e em banda Fica claro que todos os sinais práticos que são necessariamente limitados no tempo não são limitados em banda como ilustrado na Fig 68a estes sinais têm largura de banda infinita e o espectro consiste em ciclos de Gf que se sobrepõem e se repetem a cada f s Hz frequência de amostragem como indicado na Fig 68b Por causa da largura de banda infinita a sobreposição de espectro é inevitável qualquer que seja a taxa de amostragem O aumento da taxa de amostragem reduz mas não elimina a sobreposição de ciclos espectrais repetitivos Devido à cauda da sobreposição deixa de conter a informação completa de Gf e não é mais possível nem mesmo teoricamente recuperar gt exatamente do sinal amostrado Caso o sinal amostrado seja aplicado a um filtro passabaixas ideal de frequência de corte f s2 Hz a saída não será Gf mas G af Fig 68c que é uma versão distorcida de Gf devido a duas causas separadas Figura 67 Espectros de um sinal amostrado a à taxa de Nyquist b a uma taxa maior que a de Nyquist Espectro de amplitude FM 613 Figura 68 Efeito de mascaramento a Espectro de um sinal prático gt b Espectro de gt amostrado c Espectro do sinal reconstruído d Esquema de amostragem com uso de filtro antimascaramento e Espectros dos sinais amostrado linha pontilhada e reconstruído linha cheia com filtroantimascaramento 1 A perda da cauda de Gf além de f f s2 Hz 2 A reaparição desta cauda invertida ou dobrada dentro do espectro Notemos que os espectros se cruzam na frequência f s2 12T H Z chamada frequência de dobramento O espectro pode ser visto como se a cauda perdida se dobrasse para dentro na frequência de dobramento Por exemplo uma componente de frequência f s2 f z aparece disfarçada de uma componente de frequência baixa f s2 f z Assim as componentes de frequências acima de f s2 reaparecem como componentes de frequências abaixo de f s2 Esta inversão da cauda conhecida como dobramento espectral ou mascaramento é ilustrada na Fig 68b e também na Fig 68c No processo de mascaramento não apenas são perdidas todas as componentes de frequências acima da frequência de dobramento f s2 Hz mas as mesmas reaparecem mascaradas como componentes de frequências abaixo da frequência de dobramento f s2 como ilustrado na Fig 68c O problema de mascaramento é análogo ao de um batalhão do exército em que um pelotão deserta para o lado inimigo mas permanece aparentemente leal O batalhão fica sujeito a risco duplo Primeiro perdeu o pelotão desertor como uma força de combate Além disso durante uma batalha o batalhão enfrentará sabotagem causada pelos desertores e terá de usar um pelotão leal para neutralizar os desertores Assim a força armada perdeu dois pelotões que deixaram de ter atividade produtiva Eliminação de Desertores Filtro de Antimascaramento Para o comandante do batalhão traído a solução do problema seria óbvia Assim que tomasse conhecimento da deserção incapacitaria de alguma forma o pelotão desertor Se fizer isso antes do início da batalha o comandante perderá apenas um pelotão o desertor Esta é uma solução parcial ao duplo problema de traição e sabotagem uma solução que retifica o problema parcialmente e elimina metade das perdas Seguiremos exatamente esta estratégia Os desertores em potencial são todas as componentes de frequências acima da frequência de dobramento f s2 12T Hz Devemos eliminar suprimir estas componentes de gt antes da amostragem Tal supressão das frequências altas pode ser efetuada por um filtro passabaixas ideal com frequência de corte f s2 Hz como mostrado na Fig 68d Esse filtro recebe a denominação de filtro antimascaramento A Fig 68d também mostra que a filtragem antimascaramento é feita antes da amostragem A Fig 68c mostra os espectros do sinal amostrado e do sinal reconstruído G aaf quando o esquema antimascaramento é empregado Um filtro antimascaramento basicamente limita o sinal gt em banda a f s2 Hz Dessa forma perdemos apenas as componentes acima da frequência de dobramento f s2 Hz As componentes suprimidas não podem reaparecer e corromper as componentes de frequências abaixo da frequência de dobramento O uso de um filtro antimascaramento faz com que o espectro do sinal reconstruído seja G aaf Gf para f f s2 Embora percamos o espectro além de f s2 o espectro para todas as frequências abaixo de f s2 permanece intacto A distorção de mascaramento é reduzida à metade devido à eliminação do dobramento Ressaltamos mais uma vez que a operação antimascaramento deve ser executada antes da amostragem do sinal Um filtro antimascaramento também ajuda a reduzir o ruído Em geral o ruído tem um espectro de banda larga e sem antimascaramento o próprio fenômeno de mascaramento faria que componentes de ruído fora da banda do sinal desejado aparecessem na banda do sinal O antimascaramento suprime todo o espectro de ruído além da frequência f s2 O filtro antimascaramento por ser um filtro ideal é irrealizável Na prática usamos um filtro de corte abrupto que deixa um espectro residual altamente atenuado além da frequência de dobramento f s2 Amostragem Força Sinais Não Limitados em Banda a Parecerem Limitados em Banda A Fig 68b mostra que o espectro de um sinal consiste em ciclos de Gf sobrepostos Isso significa que são amostras subNyquist de gt Contudo também podemos ver o espectro na Fig 68b como o espectro G af Fig 68c repetido periodicamente a cada f s Hz sem sobreposição O espectro G af é limitado em banda a f s2 Hz Portanto essas amostras sub Nyquist de gt são na verdade as amostras de Nyquist para o sinal g at Em resumo a amostragem de um sinal não limitado em banda gt a uma taxa de f s Hz faz com que as amostras pareçam ser as amostras de Nyquist de um outro sinal g at que é limitado em banda a f s2 Hz Em outras palavras a amostragem faz um sinal não limitado em banda aparecer como um sinal limitado em banda g at com largura de banda f s2 Hz Uma conclusão semelhante se aplica quando gt é um sinal limitado em banda mas amostrado a uma taxa subNyquist Máxima Taxa de Informação Duas Porções de Informação por Segundo por Hertz Um conhecimento da máxima taxa em que a informação pode ser transmitida ao longo de um canal de largura de banda B Hz é de fundamental importância em comunicações digitais A seguir deduziremos uma das relações mais básicas em comunicações segundo a qual um máximo de 2B porções independentes de informação por segundo pode ser transmitido sem erro em um canal de largura de banda B Hz Este resultado advém do teorema da amostragem Primeiro o teorema da amostragem garante que um sinal de largura de banda de B Hz pode ser totalmente recuperado de amostras tomadas uniformemente a uma taxa de 2B amostras por segundo Agora precisamos mostrar que qualquer sequência de dados independentes a uma taxa de 2B Hz pode vir de amostras uniformes de um sinal passabaixas de largura de banda B Além disso podemos construir esse sinal passabaixas a partir da sequência de dados independentes Suponhamos que uma sequência de dados independentes seja denotada por g n A taxa correspondente é de 2B amostras por segundo Portanto sempre existe um sinal gt não necessariamente limitado em banda tal que Na Fig 69a ilustramos mais uma vez o efeito de amostrar um sinal não limitado em banda gt a uma taxa f s 2B Hz Devido ao mascaramento o sinal amostrado ideal é em que g at é o sinal passabaixas mascarado cujas amostras g anT s são iguais às amostras de gnT s Em outras palavras amostragem de um sinal gt a uma taxa subNyquist gera amostras que podem ser igualmente obtidas da amostragem de um sinal limitado em banda g at à taxa de Nyquist Assim pela Fig 69 demonstramos que as amostragens de gt e g at à taxa de 2B Hz geram a mesma sequência de dados independentes g n Figura 69 a Espectro de um sinal não limitado em banda e correspondente espectro amostrado b Espectro passabaixas equivalente G af construído das amostras uniformes de gt à taxa de amostragem 2B Ainda usando o teorema da amostragem vemos que um sinal passabaixas g at com largura de banda B pode ser reconstruído de suas amostras uniformes Eq 610 614 Presumindo que não haja ruído esse sinal pode ser transmitido sem erro ao longo de um canal sem distorção e com largura de banda B Hz No receptor a sequência de dados g n pode ser recuperada das amostras de Nyquist da saída do canal sem distorção g at como os dados de informação desejados Essa taxa teórica de comunicação supõe um canal sem ruído Na prática ruído de canal é inevitável e em consequência essa taxa causará alguns erros de detecção No Capítulo 14 discutiremos a capacidade de Shannon que permite determinar a taxa teórica de comunicação sem erro na presença de ruído Análise de Amostragem Prática Não Ideal Até aqui focamos principalmente a amostragem uniforme ideal que pode usar um trem de impulsos ideais para extrair precisamente o valor de sinal gkT s no instante de tempo exato t kT s Na prática nenhum dispositivo físico é capaz de executar esta tarefa Em consequência precisamos considerar implementações mais práticas de amostragem Essa análise é importante para um melhor entendimento dos erros que em geral ocorrem durante conversão AD prática e seus efeitos na reconstrução de sinais Amostradores práticos colhem cada amostra de sinal em um curto período de tempo T p em torno de t kT s Em outras palavras a cada T s segundos o dispositivo de amostragem colhe uma fotografia de duração T p do sinal gt sendo amostrado Isso é como tirar uma sequência de fotografias de um velocista olímpico em uma corrida de 100 m rasos Assim como uma câmera fotográfica gera uma imagem estática tomando uma média do cenário ao logo da janela T p o amostrador prático gera um valor de amostra em t kT s tomando a média de valores do sinal gt na janela T p ou seja Figura 610 Ilustração de amostragem prática Dependendo do dispositivo essa média pode ser ponderada por uma função de peso qt que depende do dispositivo Portanto usamos a analogia com a câmera fotográfica para entender que amostradores práticos geram sinais amostrados da forma Agora mostraremos a relação entre o sinal amostrado prático e o sinal passabaixas analógico original gt no domínio da frequência Usaremos a Fig 610 para ilustrar a relação entre e gt para o caso especial de ponderação uniforme Isto significa que Como mostrado na Fig 610 g 1t pode ser obtido de modo equivalente usando primeiro amostragem natural para gerar as fotografias do sinal em que A Fig 610b ilustra o sinalfotografia Podemos então definir um filtro de média averaging filter com a seguinte resposta ao impulso ou função de transferência Aplicação do sinalfotografia ao filtro de média gera o sinal de saída Como ilustrado na Fig 610c o amostrador prático gera um sinal por meio de amostragem da saída do filtro g 1kT s Portanto usamos a Fig 610c para estabelecer o processo equivalente para gerar amostras práticas de gt que consiste em tirar fotografias tomar a média e amostrar Agora podemos examinar as relações no domínio da frequência para analisar a distorção gerada por amostradores práticos Na análise a seguir consideraremos uma função de peso genérica qt sujeita à única condição Primeiro notemos que q Tst é periódica Portanto sua série de Fourier pode ser escrita como em que Assim o sinal de saída do filtro de média é No domínio da frequência temos Como podemos aplicar o teorema da amostragem para mostrar que A última igualdade veio da mudança do índice do somatório ℓ m n Podemos definir a resposta em frequência Esta definição nos permite escrever Para o sinal passabaixas Gf com largura de banda B Hz a aplicação de um filtro passabaixas ideal interpolação gera um sinal distorcido com 615 Podemos ver das Eqs 625 e 626 que o sinal resultante de amostragem prática sempre contém uma distorção conhecida F 0f Além disso o uso de um pulso prático de reconstrução pt como na Eq 612 gera distorções adicionais Reconstruamos gt usando as amostras práticas para gerar Da Eq 613 obtemos a relação entre os espectros da reconstrução e da mensagem original Gf como Como Gf tem largura de banda de B Hz precisaremos projetar um novo equalizador com função de transferência Ef de modo que a reconstrução não apresente distorção na largura de banda B ou seja O equalizador simples pode ser projetado para compensar duas fontes de distorção efeito de amostragem não ideal em F 0f e efeito de reconstrução não ideal em Pf O projeto do equalizador é possível porque as duas distorções são conhecidas previamente Algumas Aplicações do Teorema da Amostragem O teorema da amostragem é muito importante na análise processamento e transmissão de sinais pois nos permite substituir um sinal temporal contínuo por uma sequência discreta de números O processamento de um sinal temporal contínuo é portanto equivalente ao processamento de uma sequência discreta de números Isso nos leva diretamente à área de filtragem digital No campo das comunicações a transmissão de uma mensagem contínua se reduz à transmissão de uma sequência de números Isso abre portas a muitas técnicas novas de comunicação de sinais temporais contínuos por trens de pulsos O sinal temporal contínuo gt é amostrado e os valores das amostras são usados para modificar certos parâmetros de um trem de pulsos periódicos Podemos variar as amplitudes Fig 611b as larguras Fig 611c ou as posições Fig 611d dos pulsos proporcionalmente aos valores das amostras do sinal gt Assim podemos ter modulação por amplitude de pulso PAM pulse amplitude modulation modulação por largura de pulso PWM pulse width modulation ou modulação por posição de pulso PPM pulse position modulation A mais importante forma de modulação por pulso hoje em dia é a modulação por codificação de pulsos PCM pulse code modulation introduzida na Seção 12 Em todos estes casos em vez de transmitir gt transmitimos o sinal modulado em pulsos No receptor lemos a informação do sinal modulado em pulsos e reconstruímos o sinal analógico gt Uma das vantagens do uso de modulação em pulsos é permitir a transmissão simultânea de vários sinais por meio de compartilhamento do tempo multiplexação por divisão no tempo TDM time division multiplexing Como um sinal modulado em pulsos ocupa somente uma parte do canal temporal podemos transmitir vários sinais modulados em pulsos em um mesmo canal entrelaçandoos A Fig 612 ilustra a TDM de dois sinais PAM Dessa forma podemos multiplexar diversos sinais em um mesmo canal com a redução da largura de cada pulso 62 Figura 611 Sinais modulados em pulsos a Sinal não modulado b Sinal PAM c Sinal PWM d Sinal PPM Figura 612 Multiplexação por divisão do tempo de dois sinais Outro método de transmissão simultânea de vários sinais em banda base é a multiplexação por divisão em frequência FDM frequency division multiplexing discutida brevemente no Capítulo 4 Em FDM vários sinais são multiplexados por compartilhamento da largura de banda do canal O espectro de cada mensagem é deslocado a uma banda específica não ocupada por qualquer outro sinal A informação de vários sinais é posicionada em bandas de frequências do canal que não se sobrepõem De certa forma TDM e FDM são duais uma da outra MODULAÇÃO POR CODIFICAÇÃO DE PULSO PCM A PCM é a mais útil e mais largamente empregada das modulações em pulsos mencionadas Como ilustrado na Fig 613 a PCM é basicamente uma ferramenta para converter um sinal analógico em um sinal digital conversão AD Um sinal analógico é caracterizado por uma amplitude que pode assumir qualquer valor em um intervalo contínuo Isso significa que pode assumir um número infinito de valores Um sinal digital por sua vez tem uma amplitude que pode assumir apenas um número finito de valores Um sinal analógico pode ser convertido em um sinal digital através de amostragem e quantização ou seja aproximação de seu valor ao mais próximo dos números permitidos ou níveis de quantização como indicado na Fig 614 As amplitudes do sinal analógico mt ocorrem no intervalo m p m p que é dividido em L subintervalos cada um com largura Δv 2m pL A seguir cada amplitude de amostra é aproximada pelo valor no ponto médio do subintervalo em que a amostra ocorre Fig 614 com L 16 Cada amostra é então aproximada a um dos L números Assim o sinal é digitalizado com amostras quantizadas que assumem um dos L valores Um sinal deste tipo é conhecido como um sinal digital Lário Figura 613 Diagrama de blocos de um sistema PCM Figura 614 Quantização de um sinal analógico amostrado De um ponto de vista prático um sinal digital binário sinal que pode assumir apenas dois valores é muito desejável devido à sua simplicidade economia e facilidade de implementação Podemos converter um sinal Lário em um sinal binário através de codificação por pulsos Essa codificação é ilustrada na Fig 15 para o caso L 16 Esta codificação formada pela representação binária dos 16 dígitos decimais de 0 a 15 é conhecida como código binário natural CBN Outras maneiras de obtenção de códigos binários serão discutidas posteriormente A cada um dos 16 níveis a serem transmitidos é alocado código binário de quatro dígitos O sinal analógico mt fica então convertido em um sinal digital binário Um dígito binário é denominado bit de binary digit por conveniência Essa contração de binary digit em bit se tornou uma abreviação padrão na indústria e é usada em todo o livro Cada amostra no exemplo é portanto codificada por quatro bits Para a transmissão destes dados binários precisamos alocar uma forma diferente de pulso a cada um dos dois bits Uma possibilidade é alocar um pulso negativo ao binário 0 e um pulso positivo ao binário 1 Fig 15 de modo que cada amostra seja transmitida por um grupo de quatro pulsos binários codificação por pulsos O sinal resultante é um sinal binário A largura de banda de um sinal de áudio é de cerca de 15 kHz Contudo para voz testes subjetivos mostraram que a articulação inteligibilidade do sinal não é afetada se todas as componentes acima de 3400 Hz forem suprimidas 3 Como em telefonia o objetivo é a inteligibilidade e não alta fidelidade as componentes acima de 3400 Hz são eliminadas por um filtro passabaixas O sinal resultante é então amostrado a uma taxa de 8000 amostras por segundo 8 kHz Esta taxa é intencionalmente maior que a taxa de amostragem Nyquist de 68 kHz para que filtros realizáveis possam ser aplicados na reconstrução do sinal Cada amostra é por fim quantizada em 256 níveis L 256 o que requer um grupo de oito pulsos binários para codificar cada amostra 2 8 256 Assim um sinal de telefonia requer 8 8000 64000 pulsos binários por segundo Uma aplicação mais recente de PCM é o compact disc CD Esse é um caso de alta fidelidade e requer uma largura de banda de 20 kHz para o sinal de áudio Embora a taxa de amostragem de Nyquist seja apenas 40 kHz a taxa de amostragem usada é de 441 kHz pelas razões mencionadas anteriormente O sinal é quantizado em um número muito maior L 65536 de níveis de 621 622 quantização e cada um é representado por 16 bits para reduzir o erro de quantização Amostras codificadas em binário 14 milhão de bitss são então gravadas no CD Vantagens de Comunicação Digital A seguir são listadas algumas vantagens da comunicação digital em relação à comunicação analógica 1 A comunicação digital é capaz de suportar muito mais ruído de canal e distorção desde que o ruído e a distorção estejam dentro de certos limites e é mais robusta do que a comunicação analógica No caso de mensagens analógicas qualquer distorção ou ruído não importa quão pequenos sejam alterará o sinal recebido 2 A maior vantagem da comunicação digital em relação à analógica no entanto é viabilizar o uso de repetidores regeneradores Em um sistema de comunicação analógica um sinal de mensagem se torna progressivamente mais fraco à medida que viaja pelo canal enquanto o ruído cumulativo de canal e a distorção se tornam progressivamente mais fortes Por fim o sinal é superado por ruído e distorção A amplificação é de pouca utilidade pois o sinal e o ruído são amplificados na mesma proporção Em consequência a distância ao longo da qual uma mensagem analógica pode ser transmitida é limitada pela potência de transmissão inicial No caso de comunicação digital uma longa distância de transmissão também pode acarretar ruído e interferências excessivos O truque no entanto consiste em montar estações repetidoras ao longo da rota de transmissão em distâncias curtas o bastante para que pulsos de sinal possam ser detectados antes que o acúmulo de ruído e distorção destrua o sinal Em cada estação repetidora os pulsos são detectados e pulsos novos e limpos são transmitidos à próxima estação repetidora que por sua vez duplica esse procedimento Se o ruído e a distorção forem mantidos abaixo de certos limites o que é possível tendo em vista o pequeno espaçamento entre repetidores os pulsos podem ser detectados corretamente Assim mensagens digitais podem ser transmitidas por distâncias maiores e com mais confiabilidade do que mensagens analógicas Na PCM o erro mais significativo advém da quantização Esse erro pode ser reduzido tanto quanto desejado com o aumento do número de níveis de quantização o preço dessa solução é pago com o aumento da largura debanda do meio de transmissão canal 3 A implementação em hardware digital é flexível e permite o uso de microprocessadores comutadores digitais e circuitos integrados de larga escala 4 Sinais digitais podem ser codificados para produzir taxas de erro extremamente pequenas e alta fidelidade assim como privacidade 5 A multiplexação de sinais digitais é mais fácil e eficiente que a de sinais analógicos 6 A comunicação digital é inerentemente mais eficiente que a analógica no que diz respeito à troca de SNR por largura de banda 7 O armazenamento de sinais digitais é relativamente simples e barato e permite a busca e seleção de informação em bases de dados eletrônicas distantes 8 A reprodução com mensagens digitais pode ser extremamente confiável e sem deterioração Mensagens analógicas como fotocópias e filmes por exemplo perdem qualidade a cada estágio sucessivo de reprodução e devem ser transportadas fisicamente de um local distante a outro o que em geral tem custo relativamente alto 9 O custo de hardware digital continua tendo redução de 50 a cada dois ou três anos enquanto o desempenho ou capacidade dobra no mesmo período E não há um fim à vista para o empolgante e exponencial progresso da tecnologia digital Em consequência hoje as tecnologias digitais dominam todas as áreas de comunicação e armazenamento de informação Nota Histórica Para descrever prosódia o antigo escritor indiano Pingala aplicou sofisticados conceitos matemáticos produzindo a primeira descrição de um sistema numérico digital de que temos notícia possivelmente no oitavo século aC 6 Outros como R Hall em Mathematics of Poetry Matemática da Poesia localizamno mais tarde por volta de 200 aC Gottfried Wilhelm Leibniz 16461716 foi o primeiro matemático no ocidente a estabelecer sistematicamente a representação binária usando 1s e 0s para qualquer número Ele sentiu uma significância espiritual em sua descoberta acreditando que 1 representando a unidade era claramente um símbolo para Deus enquanto 0 representava o nada Ele raciocinou que se todos os números podem ser representados meramente com o uso de 1 e 0 isto provava com certeza que Deus criara o universo a partir do nada Quantização Como mencionado anteriormente sinais digitais têm uma variedade de fontes Algumas como computadores são inerentemente digitais Outras são analógicas convertidas à forma digital por meio de diferentes técnicas como PCM ou modulação delta DM que analisaremos em seguida O resto desta seção apresenta uma discussão quantitativa da PCM e de seus vários aspectos como quantização codificação sincronização e as necessárias largura de banda e SNR de transmissão Para quantização limitamos a amplitude do sinal de mensagem mt ao intervalo m p m p como mostrado na Fig 614 Notemos que m p não é necessariamente a amplitude de pico mt As amplitudes de mt que ultrapassam m p são simplesmente truncadas Portanto m p não é um parâmetro do sinal mt é o limite do quantizador O intervalo de amplitudes m p m p é dividido em L intervalos uniformemente espaçados cada um com largura Δv 2m pL Um valor de amostra é aproximado pelo valor no ponto médio do intervalo em que a amostra ocorre Fig 614 As amostras quantizadas são codificadas e transmitidas como pulsos binários No receptor alguns pulsos podem ser detectados erroneamente Em consequência há duas fontes de erro neste esquema erro de quantização e erro de detecção de pulso Em quase todos os esquemas práticos o erro de detecção de pulsos é muito pequeno em comparação com o erro de quantização e pode ser desprezado Assim na análise a seguir admitiremos que o erro no sinal recebido é causado exclusivamente pela quantização Se mkT s for a késima amostra do sinal mt e e for a correspondente amostra quantizada da fórmula de interpolação na Eq 610 temos em que é o sinal reconstruído das amostras quantizadas A componente de distorção qt no sinal reconstruído é Logo em que qkT s é o erro de quantização na késima amostra O sinal qt é o sinal indesejado e portanto atua como um ruído conhecido como ruído de quantização Para calcular a potência ou valor quadrático médio de qt temos Podemos mostrar ver o Exercício 374 que os sinais sinc 2πBt mπ e sinc 2πBt nπ são ortogonais ou seja Por conta desse resultado a integral dos termos cruzados no lado direito da Eq 629a se anula e obtemos pela relação de ortogonalidade 629b temos 623 Como a taxa de amostragem é 2B o número total de amostras no intervalo de média T é 2BT Assim o lado direito da Eq 630 representa o valor médio ou a média do quadrado do erro de quantização Os níveis de quantização são separados por Δv 2m pL Como um valor de amostra é aproximado pelo ponto médio do subintervalo de altura Δv em que a amostra é feita o máximo erro de quantização é Δv2 Assim o erro de quantização está no intervalo Δv2 Δv2 sendo Admitindo que o erro possa assumir qualquer valor no intervalo Δv2 Δv2 com igual probabilidade o erro de quantização quadrático médio é dado por Como é o valor quadrático médio ou potência do ruído de quantização será denotado por N q Supondo que o erro de detecção de pulsos no receptor seja desprezível o sinal reconstruído na saída do receptor é O sinal desejado na saída é mt e o ruído erro de quantização qt Como a potência do sinal de mensagem mt é então Nesta equação m p é o valor de pico da amplitude que o quantizador pode aceitar e portanto é um parâmetro do quantizador Isso significa que S oN o a SNR é uma função linear da potência do sinal de mensagem ver a Fig 618 com μ 0 Princípio da Taxação Progressiva Quantização Não Uniforme Recordemos que S oN o a SNR é uma indicação da qualidade do sinal recebido Idealmente gostaríamos de ter uma SNR constante mesma qualidade para todos os valores de potência do sinal de mensagem Infelizmente a SNR é diretamente proporcional à potência do sinal que chega a variar em até 40 dB uma relação de potência de 10 4 de altofalante para altofalante A potência de sinal também pode variar devido a diferentes comprimentos dos circuitos de conexão Isso indica que a SNR na Eq 634 pode variar muito dependendo do altofalante e do comprimento do circuito Mesmo para um dado altofalante a qualidade do sinal recebido sofrerá degradação apreciável se a pessoa falar com voz suave Estatisticamente as menores amplitudes predominam na voz e as maiores amplitudes ocorrem com frequência muito menor Isso significa que a SNR será baixa na maior parte do tempo A raiz desta dificuldade reside no fato de que os incrementos de quantização têm valor uniforme Δv 2m pL O ruído de quantização N q Δv 212 Eq 632 é diretamente proporcional ao quadrado do incremento O problema pode ser resolvido com o uso de incrementos menores para amplitudes menores quantização não uniforme como mostrado na Fig 615a O mesmo resultado é obtido se as amostras de sinal forem primeiro comprimidas e depois quantizadas com incremento uniforme A característica entradasaída de um compressor é ilustrada na Fig 615b Nessa figura o eixo horizontal é o sinal de entrada normalizado ou seja a amplitude do sinal de entrada m dividida pelo valor de pico do sinal m p O eixo vertical é o sinal de saída y O compressor mapeia incrementos Δm do sinal de entrada em incrementos maiores Δy para sinais menores o contrário se passa para grandes sinais de entrada Dessa forma um dado intervalo Δm contém um maior número de incrementos ou incrementos de menor tamanho quando m é pequeno O erro de quantização é menor para menores valores de potência do sinal de entrada Uma característica logarítmica aproximada de compressão produz um ruído de quantização que é praticamente proporcional à potência de sinal resultando em uma SNR que praticamente independe da potência do sinal de entrada em um grande intervalo dinâmico 5 ver a Fig 618 Essa abordagem de equalização da SNR parece semelhante ao uso de taxação progressiva de imposto de renda para equalizar os rendimentos da população Os que falam alto e sinais mais fortes são penalizados com maiores incrementos de ruído Δv para compensar os que falam baixo e os sinais mais fracos Entre as diversas opções duas leis de compressão têm sido aceitas como padrões desejáveis pela ITUT 6 a lei μ usada na América do Norte e no Japão e a lei A usada na Europa no resto do mundo e em rotas internacionais As curvas das leis μ e A têm simetria ímpar em relação ao eixo vertical A lei μ para amplitudes positivas é dada por A lei A para amplitudes positivas é dada por Estas características são ilustradas na Fig 616 O parâmetro de compressão μ ou A determina o grau de compressão Para que S oN o seja praticamente constante em um intervalo dinâmico de 40 dB para a potência do sinal de entrada μ deve ser maior que 100 Os primeiros bancos de canais e outros terminais digitais norteamericanos usavam um valor μ 100 que produzia os melhores resultados para codificação em 7 bits 128 níveis Um valor ótimo μ 255 tem sido usado em todos os terminais digitais norteamericanos de 8 bits 256 níveis e o valor anterior de μ se tornou quase extinto Para a lei A um valor A 876 produz resultados comparáveis e foi padronizado pela ITUT 6 Figura 615 Quantização não uniforme Figura 616 a Característica de lei µ b Característica de lei A Figura 617 Utilização de compressor e expansor para quantização não uniforme Figura 618 Razão entre sinal e ruído de quantização em PCM com e sem compressão No receptor as amostras comprimidas devem ser restauradas a seus valores originais isso é feito com o uso de um expansor com característica complementar à do compressor Juntos compressor e expansor são denominados compandor A Fig 617 descreve o uso de compressor e expansor com um quantizador uniforme para obter quantização não uniforme De modo geral a compressão temporal de um sinal aumenta a largura de banda do mesmo No entanto em PCM o que é comprimido no tempo não é o sinal mt mas suas amostras Como neste caso nenhuma alteração é feita na escala de tempo e no número de amostras o problema de aumento de largura de banda não ocorre Quando um compandor de lei μ é usado a SNR de saída é A Fig 618 mostra para os casos μ 255 e μ 0 quantização uniforme a SNR de saída em função de potência do sinal de mensagem Compandor Um compressor logarítmico pode ser realizado com um diodo semicondutor pois a característica VI de um diodo desse tipo tem no primeiro quadrante a forma desejada Dois diodos casados em paralelo com polaridades opostas produzem uma característica desejada aproximada no primeiro e no terceiro quadrantes ignorando a corrente de saturação Na prática resistores ajustáveis são posicionados em série com cada diodo e um terceiro resistor variável é adicionado em paralelo O ajuste de vários resistores possibilita que a característica resultante iguale a característica ideal em um número finito de pontos em geral sete Figura 619 Característica linear por partes de compressor Uma abordagem alternativa consiste em usar uma aproximação linear por partes para a característica logarítmica Uma aproximação com 15 segmentos Fig 619 à lei de 8 bits L 256 com μ 255 é largamente usada em banco de canais D2 usado em conjunção com o sistema de portadora T1 A aproximação segmentada é apenas marginalmente inferior em termos de SNR 8 A aproximação linear por partes substituiu quase totalmente a anterior aproximação logarítmica à verdadeira característica μ 255 e se tornou o método preferencial adotado em padrões norteamericanos Embora o conjunto de um verdadeiro compressor com μ 255 trabalhando com um expansor com μ 255 seja superior a dispositivos similares lineares por partes um terminal digital com a característica verdadeira tem em uma rede atual de trabalhar com outros elementos de rede baseados na aproximação linear por partes Essa combinação de características diferentes tem desempenho inferior ao obtido quando o compressor e o expansor operam segundo a mesma lei de compressão No formato padrão de arquivo de áudio usado por Sun Unix e Java o áudio em arquivos au pode ser modulado por codificação de pulsos ou comprimido com o padrão ITUT G711 usando a lei μ ou a lei A 6 O compressor de lei μ com μ 255 converte amostras PCM lineares assinadas de 14 bits a amostras logarítmicas de 8 bits favorecendo economia de armazenagem 624 O compressor de lei A com A 876 converte amostras PCM lineares positivas ou negativas de 13 bits a amostras logarítmicas de 8 bits Nos dois casos com taxa de amostragem de 8000 Hz o codificador G77 cria a partir de sinais de áudio sequências de bit a 64 quilobits por segundo kbits Como as leis A e μ são mutuamente compatíveis áudio gravado em arquivos au pode ser decodificado em qualquer dos dois formatos Vale notar que o formato de áudio WAV da Microsoft também tem opções de compressão que usam a lei μ e a lei A Codificador PCM A saída multiplexada PAM é aplicada à entrada do codificador que quantiza e codifica cada amostra em um grupo de n dígitos binários Embora exista uma variedade de codificadores 7 10 discutiremos o codificador de um dígito por vez digitatatime que faz n comparações sequenciais para gerar uma palavra de código de n bits A amostra é comparada com uma tensão obtida por uma combinação de tensões de referência proporcionais a 2 7 2 6 2 5 2 0 As tensões de referência são convenientemente geradas por um banco de resistores R 2R 2 2R 2 7R A codificação exige respostas a sucessivas perguntas das quais a primeira é se a amostra está na metade superior ou inferior do intervalo permitido O primeiro dígito de código 1 ou 0 é gerado dependendo se a amostra estiver na metade superior ou inferior do intervalo No segundo passo outro dígito 1 ou 0 é gerado dependendo se a amostra estiver na metade superior ou inferior do subintervalo em que está localizada O processo continua até que o último dígito binário no código tenha sido gerado A decodificação é o inverso da codificação Neste caso cada um dos n dígitos é aplicado a um resistor de valor diferente O k ésimo dígito é aplicado a um resistor 2 k R As correntes em todos os resistores são somadas A soma é proporcional ao valor da amostra quantizada Por exemplo uma palavra de código binário 10010110 produzirá uma corrente proporcional a 2 7 0 0 2 4 0 2 2 2 1 0 150 Isso completa a conversão DA Largura de Banda de Transmissão e SNR de Saída Para PCM binária alocamos um grupo distinto de n dígitos binários bits a cada um dos L níveis de quantização Como a sequência de n dígitos binários pode ser organizada em 2 n padrões diferentes cada amostra quantizada é portanto codificada em n bits Como um sinal mt limitado em banda a B Hz requer um mínimo de 2B amostras por segundo precisamos de 2nB bitss ou seja 2nB porções de informação por segundo Tendo em vista que uma largura de banda unitária 1 Hz pode transmitir um máximo de duas porções de informação por segundo Seção 613 precisamos de uma largura de banda mínima de canal B T Hz dada por Essa é a mínima largura de banda teórica para a transmissão de um sinal PCM Nas Seções 72 e 73 mostraremos que por motivos práticos podemos usar larguras de banda maiores que esse mínimo teórico Exemplo 62 Um sinal mt limitado em banda a 3 kHz é amostrado a uma taxa 33 ⅓ maior que a taxa de Nyquist O erro máximo aceitável na amplitude de amostras máximo erro de quantização é 05 da amplitude de pico m p As amostras quantizadas são codificadas em binário Determinemos a mínima largura de banda de um canal necessária para a transmissão do sinal binário codificado Se 24 desses sinais forem multiplexados por divisão no tempo determinemos a mínima largura de banda necessária para a transmissão do sinal multiplexado A taxa de amostragem de Nyquist é R N 2 3000 6000 Hz amostras por segundo A real taxa de amostragem é R A 6000 1 8000 Hz O incremento de quantização é Δv e o máximo erro de quantização é Δv2 Portanto a partir da Eq 631 Para codificação binária L deve ser uma potência de 2 Assim o próximo valor de L maior que 200 que é uma potência de 2 é L 256 Pela Eq 637 precisamos de n log 2256 8 bits por amostra Precisaremos transmitir um total de C 8 8000 64000 bitss Como podemos transmitir até 2 bitss por hertz de largura de banda necessitaremos de uma largura de banda mínima de transmissão B T C2 32 kHz O sinal multiplexado tem um total de C M 24 64000 1536 Mbits o que requer uma largura de banda mínima de transmissão de 15362 0768 MHz Aumento Exponencial da SNR de Saída Da Eq 637 L 2 2 2n e a SNR de saída na Eq 634 ou Eq 636 pode ser expressa como em que A substituição da Eq 638 na Eq 639 resulta em Da Eq 640 observamos que a SNR aumenta exponencialmente com a largura de banda de transmissão B T Essa barganha de SNR por largura de banda é interessante e se aproxima do limite teórico Um pequeno aumento na largura de banda resulta em um grande benefício em termos de SNR Essa relação é vista claramente quando usamos a escala em decibéis para escrever a Eq 639 na qual α 10 log 10 c Isso mostra que o aumento de n em 1 acrescentar um bit na palavra de código quadruplica a SNR de saída aumento de 6 dB Assim se aumentarmos n de 8 para 9 a SNR quadruplica mas a largura de banda de transmissão aumenta apenas de 32 kHz para 36 kHz aumento de 125 Isso mostra que em PCM a SNR pode ser controlada pela largura de banda de transmissão Veremos mais tarde que isso também ocorre com modulações em frequência e em fase Mas nestes casos para quadruplicar a SNR é necessário dobrar a largura de banda Neste ponto PCM é muito superior a FM ou PM Exemplo 63 Um sinal mt de largura de banda B 4 kHz é transmitido com o uso de PCM compandido binário com μ 100 Comparemos o caso L 64 com o caso L 256 quanto à largura de banda de transmissão e SNR de saída Para L 64 n 6 e a largura de banda de transmissão é nB 24 kHz 63 Logo Para L 256 n 8 e a largura de banda de transmissão é nB 32 kHz A diferença entre as duas SNRs é 12 dB que é uma razão de 16 Assim a SNR para L 256 é 16 vezes a SNR para L 64 A largura de banda no primeiro caso é apenas 33 maior que a no segundo Comentários sobre Unidades Logarítmicas Unidades logarítmicas e escalas logarítmicas são convenientes quando uma variável tem um intervalo dinâmico grande Este é o caso de variáveis de frequência e SNRs Uma unidade logarítmica para a razão de potência é o decibel dB definido como 10 log 10 razão de potência Assim uma SNR é x dB sendo Usamos a mesma unidade para expressar ganho ou perda de potência em certos meios de transmissão Por exemplo se ao longo de um certo cabo a potência de sinal for atenuada por um fator de 15 o ganho do cabo é ou a atenuação perda do cabo 1176 dB Embora seja uma medida de razões de potência decibel também é largamente utilizado como uma medida de potência Por exemplo uma potência de 100 watts pode ser considerada com uma razão de 100 em relação a uma potência de 1 watt e expressa em unidades de dBW como Assim uma potência de 100 watts corresponde 20 dBW De modo similar potência medida em relação à potência de 1 mW é expressa em dBm Por exemplo uma potência de 100 watt é TELEFONIA DIGITAL PCM EM SISTEMAS DE PORTADORAS Nota Histórica Devido à indisponibilidade de dispositivos de comutação apropriados mais de 20 anos se passaram entre a invenção da PCM e sua implementação Válvulas a vácuo usadas antes da invenção do transistor não eram apenas volumosas mas eram comutadores pobres e dissipavam muito calor Sistemas que utilizam válvulas como comutadores são grandes nada confiáveis e tendem a sofrer de superaquecimento A PCM aguardava a invenção do transistor um dispositivo pequeno que consome pouca potência e é um comutador quase ideal Coincidentemente na mesma época em que o transistor foi inventado a demanda por serviços telefônicos aumentou tanto que o sistema existente ficou sobrecarregado particularmente em grandes cidades Não era simples a instalação de novos cabos subterrâneos porque o espaço sob as ruas de muitas cidades já estava ocupado com outros serviços água gás esgoto etc Além disso a escavação de ruas e o resultante transtorno não eram bem vistos Foi feita uma tentativa em escala limitada de aumentar a capacidade com a multiplexação por divisão em frequência de vários canais de voz por meio de modulação em amplitude Infelizmente os cabos haviam sido projetados principalmente para a faixa de frequências da voz 04 kHz e eram extremamente afetados por ruído Um problema adicional era a interferência entre pares de canais em um mesmo cabo inaceitável em frequências altas Ironicamente a PCM que exigia uma largura de banda muitas vezes maior que a necessária para sinais FM era a solução Isso se devia ao fato de que sistemas digitais com repetidores regeneradores proximamente espaçados são capazes de trabalhar de modo satisfatório em linhas ruidosas que têm baixo desempenho em altas frequências 9 Os repetidores espaçados a cada 18 km aproximadamente limpavam o sinal e regeneravam os pulsos antes que se tornassem demasiadamente distorcidos e ruidosos Essa é a história do sistema de portadora T1 do grupo Bell System 3 10 Um par de fios usado para transmitir um sinal de áudio com 4 kHz de largura de banda passou a transmitir 24 sinais telefônicos PCM multiplexados por divisão no tempo com largura de banda total de 1544 MHz Figura 620 Sistema de portadora T1 Multiplexação por Divisão no Tempo T1 Um esquema de um sistema de portadora T1 é mostrado na Fig 620a Todos os 24 canais são amostrados em sequência A saída do amostrador representa um sinal PAM multiplexado por divisão no tempo O sinal PAM multiplexado é então aplicado à entrada de um codificador que quantiza cada amostra e a codifica em oito pulsos binários uma palavra de código binária Fig 620b O sinal agora convertido à forma digital é enviado ao longo do meio de transmissão Repetidores regeneradores espaçados em cerca de 18 km detectam os pulsos e retransmitem pulsos novos No receptor o decodificador converte os pulsos binários em amostras decodificação As amostras são então demultiplexadas ou seja distribuídas a cada um dos 24 canais O desejado sinal de áudio é reconstruído com a aplicação das amostras a um filtro passabaixas em cada canal Figura 621 Formato de sinalização do sistema T1 Os comutadores na Fig 620 não são mecânicos são circuitos comutadores eletrônicos de alta velocidade Existem diversos esquemas para este propósito 11 A amostragem é feita por portas gates eletrônicas como um circuito ponte de diodos como mostrado na Fig 45a abertas periodicamente por pulsos estreitos de 2 μs de duração O sinal de 1544 Mbits do sistema T1 chamado nível de sinal digital 1 DS1 digital signal level 1 é progressivamente multiplexado para formar sinais de níveis mais altos DS2 DS3 e DS4 como descrito na Seção 64 Depois de o grupo Bell System ter introduzido o sistema de portadora T1 nos Estados Unidos dezenas de variações foram propostas ou adotadas em outros locais até que a ITUT padronizasse o sistema PCM de 30 canais com uma taxa de 2048 Mbits em contraste com o sistema T1 de 24 canais e 1544 Mbits O sistema de 30 canais é usado em todo o mundo exceto na América do Norte e no Japão Devido à adoção do sistema de portadora T1 em larga escala na América do Norte e no Japão antes da padronização pela ITUT os dois padrões continuam em uso em diferentes partes do mundo com interfaces apropriadas em conexões internacionais Sincronização e Sinalização Palavras de código binárias correspondentes às amostras de cada um dos 24 canais são multiplexadas em uma sequência como indicado na Fig 621 Um segmento contendo uma palavra de código correspondente a uma amostra de cada um dos 24 canais recebe o nome de quadro frame Cada quadro tem 24 8 192 bits de informação Como a taxa de amostragem é de 8000 amostras por segundo cada quadro ocupa 125 μs Para separar os bits de informação corretamente no receptor é necessário ter certeza do ponto de início de cada quadro Para isso um bit de enquadramento framing bit é adicionado ao início de cada quadro O número total de bits em um quadro então passa a 193 Bits de enquadramento são escolhidos de modo que uma sequência desses bits um no início de cada quadro forme um padrão especial cuja ocorrência em um sinal de voz seja improvável A sequência formada com o primeiro bit de cada quadro é examinada pela lógica do terminal receptor Caso a sequência não siga o dado padrão de código padrão dos bits de enquadramento uma perda de sincronismo é detectada e a próxima posição é 64 examinada para determinar se é o bit de enquadramento A detecção leva de 04 a 6 ms e o reenquadramento cerca de 50 ms no pior caso Além de bits de informação e de enquadramento precisamos transmitir bits de sinalização correspondentes aos pulsos de discagem assim como sinais telefônicos de livre e ocupado Quando canais desenvolvidos por esse sistema são usados na transmissão de sinais entre sistemas de comutação telefônica os comutadores devem ser capazes de se comunicarem entre si para que os canais sejam usados de forma eficaz Como todos os oito bits agora são usados para transmissão em vez dos sete da versão anterior o canal de sinalização provido pelo oitavo bit deixou de existir Como basta um canal de sinalização de baixa velocidade em vez de criar uma janela temporal adicional para esta informação usamos um bit de informação o bit menos significativo a cada seis amostras de um sinal para transmitir essa informação Isso significa que cada sexta amostra de um sinal de voz terá um possível erro correspondente ao bit menos significativo Cada sexto quadro tem portanto 7 24 168 bits de informação 24 bits de sinalização e 1 bit de enquadramento Todos os outros quadros terão 192 bits de informação e 1 bit de enquadramento Essa técnica é denominada codificação de bit 7⅚ e o canal de sinalização recebe o nome sinalização por bit roubado robbedbit signaling A pequena degradação da SNR decorrente da alteração de um de cada seis quadros é considerada uma penalidade aceitável Os bits de sinalização para cada sinal ocorrem a uma taxa de 80006 1333 bits O formato de quadro é mostrado na Fig 621 O antigo formato de quadros com sete bits requeria apenas identificação das fronteiras dos quadros para que cada canal pudesse ser localizado na sequência de bits Quando a sinalização é superposta aos canais a cada seis quadros tornase necessário identificar no receptor os quadros que são quadros de sinalização Uma nova estrutura de quadros denominada superquadro foi desenvolvida para cuidar disso Os bits de enquadramento são transmitidos a 8 kbits como antes e ocupam o primeiro bit de cada quadro Os bits de enquadramento formam um padrão especial que se repete a cada 12 quadros 100011011100 Assim esse padrão permite a identificação das fronteiras dos quadros como antes mas também permite a determinação da localização do sexto e do décimo segundo quadro no superquadro Vale notar que o superquadro descrito aqui tem 12 quadros de comprimento Como dois bits por superquadro são disponíveis para sinalização para cada canal é possível prover sinalização de quatro estados para um canal com o uso dos quatro padrões possíveis para os dois bits de sinalização 00 01 10 e 11 Embora a maioria das aplicações comutador a comutador na rede de telefonia exija apenas sinalização de dois estados técnicas de sinalização de três e quatro estados são usadas em certas aplicações especiais Avanços na eletrônica digital e na teoria de codificação tornaram desnecessário o uso de todos os 8 kbitss do canal de enquadramento em um sistema DS1 para implementar a tarefa de enquadramento Uma nova estrutura de superquadro denominada formato de superquadro estendido ESF extended superframe foi introduzida na década de 1970 para tirar proveito da reduzida exigência de largura de banda para enquadramento Um ESF tem 24 quadros de comprimento e carrega bits de sinalização a cada oito bits de cada canal nos quadros 6 12 18 e 24 Isso possibilita sinalização em dezesseis estados que é usada em alguns casos embora com o formato de superquadro a maioria das aplicações requeira somente sinalização em dois estados Os 8 kbits de overhead de capacidade de enquadramento do sinal ESF são divididos em três canais 2 kbits para enquadramento 2 kbits para um canal de detecção de erro por verificação cíclica de redundância CRC6 cyclic redundancy check e 4 kbits para um canal de dados A detecção de erro de alta confiabilidade provida pelo padrão CRC6 e o uso de um canal de dados para transportar informação sobre o desempenho de sinal como recebido pelo terminal distante fazem com que o formato ESF seja muito mais atraente para provedores de serviços que o antigo formato de superquadro O Capítulo 14 apresenta mais detalhes sobre detecção de erro por CRC O canal de enquadramento de 2 kbits do formato ESF transporta o padrão repetitivo 001011 um padrão que se repete a cada 24 quadros e é muito menos vulnerável a falsificação que padrões associados a formatos anteriores Por diversas razões incluindo o desenvolvimento de nós comutadores de rede inteligente a função da sinalização está sendo transferida dos canais que transportam as mensagens ou sinais de dados para redes de sinalização separadas denominadas sistemas de canal comum de sinalização entre centrais CCIS common channel interoffice signaling O emprego universal desse sistema diminuirá a importância da sinalização por bit roubado e todos os oito bits de cada mensagem ou amostra serão transmitidos na maioria das aplicações A Conferência sobre Administração Postal e Telegráfica Europeia CEPT Conference on European Postal and Telegraph Administration padronizou um PCM com 256 janelas temporais por quadro Cada quadro tem 30 8 240 bits de informação correspondendo a 30 canais de voz cada um com oito bits Os restantes 16 bits por quadro são usados para sincronização e sinalização Portanto embora a taxa de bits seja 2048 Mbits o que corresponde a 32 canais de voz somente 30 canais de voz são transmitidos MULTIPLEXAÇÃO DIGITAL Vários sinais de baixas taxas de bits podem ser multiplexados ou combinados para formar um sinal a uma taxa de bits mais elevada a ser transmitido em um meio de alta frequência Como o meio é compartilhado no tempo por vários sinais este é um caso de TDM multiplexação por divisão no tempo Os sinais dos diversos canais de entrada ou tributários podem ter naturezas variadas como sinais de voz digitalizada PCM uma saída de computador dados de telemetria ou um facsímile digital Não é necessário que as taxas de bits dos diversos tributários sejam iguais Consideremos inicialmente o caso em que todos os tributários têm a mesma taxa de bits A multiplexação pode ser feita bit a bit o que é conhecido como entrelaçamento de bits como mostrado na Fig 622a ou palavra a palavra o que é conhecido como entrelaçamento de palavras A Fig 622b mostra o entrelaçamento de palavras formadas por quatro bits A hierarquia digital norteamericana usa entrelaçamento de bits exceto no nível mais baixo no qual um bit por vez é tirado de cada um dos sinais a serem multiplexados O entrelaçamento de bits usado na construção do sinal DS1 e de sinais formatados para SONET consiste na inserção alternada de bytes dos canais a serem multiplexados A portadora T1 discutida na Seção 63 usa o entrelaçamento de palavras de oito bits Quando as taxas de bits dos sinais de entrada não são iguais ao canal de taxa de bits mais elevada são alocadas proporcionalmente mais janelas temporais A multiplexação de quatro canais consiste em três canais B C e D com a mesma taxa de bits R e um canal A com taxa de bits 3R Fig 622c d Resultados similares podem ser obtidos com a combinação de palavras de comprimentos diferentes Fica evidente que o comprimento mínimo do quadro multiplexado deve ser um múltiplo do mínimo múltiplo comum das taxas de bits dos sinais de entrada e portanto este tipo de esquema é prático somente quando existe uma relação simples entre as várias taxas O caso de canais totalmente assíncronos é discutido posteriormente No terminal receptor a sequência de dígitos de entrada deve ser dividida e distribuída ao canal de saída apropriado Para tanto o terminal receptor deve ser capaz de identificar cada bit corretamente Isso requer que o sistema receptor tenha sincronismo temporal com o início de cada quadro com cada janela slot em um quadro e com cada bit em uma janela Para isso bits de sincronismo e de enquadramento são adicionados aos bits de dados Esses bits adicionais são parte dos chamados bits de overhead Canal 641 642 Figura 622 Multiplexação por divisão no tempo de sinais digitais a entrelaçamento de dígitos b entrelaçamento de palavras ou bytes c entrelaçamento de canais com diferentes taxas de bits d esquema alternativo para c Formato de Sinal A Fig 623 ilustra um formato típico o do multiplexador DM12 em que há entrelaçamento bit a bit de quatro canais cada um à taxa de 1544 Mbits O quadro principal multiquadro consiste em quatro subquadros Cada subquadro tem seis bits de overhead por exemplo o subquadro 1 primeira linha na Fig 623 tem bits de overhead M 0 C A F 0 C A C A e F 1 Entre os bits de overhead há 48 bits de dados entrelaçados provenientes dos quatro canais 12 bits de dados de cada canal Iniciamos com o bit de overhead M 0 seguido por 48 bits de dados multiplexados adicionamos um segundo bit de overhead C A seguido por 48 bits de dados multiplexados e assim por diante Portanto há um total de 48 6 4 1152 bits de dados e 6 4 24 bits de overhead perfazendo um total de 1176 bitsquadro A eficiência é de 11521176 98 Os bits de overhead com subscrito 0 são sempre 0 e aqueles com subscrito 1 sempre 1 Assim M 0 F 0 são todos 0s M 1 F 1 são todos 1s Os dígitos F são periódicos 010101 e provêm o principal padrão de quadros que o multiplexador usa para obter sincronismo com quadro Após alcançar sincronismo por meio deste padrão o demultiplexador busca o padrão 0111 formado pelos bits de overhead M 0M 1M 1M 1 Isso identifica os quatro subquadros cada um correspondendo a uma linha na Fig 623 É possível embora improvável que bits de sinal também tenham um padrão 101010 O receptor poderia ficar travado à sequência incorreta A presença de M 0M 1M 1M 1 permite a confirmação da verdadeira sequência F 0F 1F 0F 1 Os bits C são usados para transmitir informação adicional sobre preenchimento de bits como discutido mais adiante Figura 623 Formato de multiplexador DM12 Na maioria dos casos nem todos os canais de entrada são ativos todo o tempo alguns transmitem dados outros estão ociosos Isso significa que o sistema é subutilizado Para em um dado momento tirar proveito da inatividade de pelo menos um canal podemos aceitar mais canais de entrada Obviamente isso envolve operações de comutação muito mais complicadas além de um planejamento cuidadoso do sistema Em qualquer situação de tráfego aleatório não podemos garantir que a demanda por canais de transmissão não ultrapassará o número de canais disponíveis contudo por meio de uma estatística das fontes de sinal é possível assegurar uma probabilidade baixa aceitável de que isso ocorra Estruturas de multiplexação desse tipo foram desenvolvidas para sistemas de comunicação por satélite e são conhecidas como sistemas de acesso múltiplo por divisão no tempo TDMA time division multipleaccess Nos sistemas TDMA empregados em telefonia os parâmetros de projeto são escolhidos de modo que qualquer condição de sobrecarga dure apenas uma fração de um segundo o que garante desempenho aceitável para comunicação de voz Para outros tipos de dados e telegrafia atrasos de transmissão são irrelevantes Portanto em situação de sobrecarga os dados de entrada podem ser armazenados e transmitidos posteriormente Canais Assíncronos e Preenchimento de Bits Na discussão anterior presumimos a existência de sincronismo entre todos os canais de entrada e o multiplexador Isso é difícil de ocorrer mesmo quando todos os canais têm iguais taxas nominais Por exemplo consideremos um cabo coaxial de 1000 km que transporta 2 10 8ms pulsos por segundo Supondo que a velocidade nominal de propagação no cabo seja 2 10 8 ms o tempo de trânsito é de 1200 segundo e um milhão de pulsos estarão em trânsito Se a temperatura do cabo aumentar em 06 oC a velocidade de propagação aumentará em cerca da 001 Isso fará com que os pulsos em trânsito cheguem mais cedo resultando em um aumento temporário na taxa de pulsos recebidos Como os pulsos adicionais não podem ser acomodados no multiplexador devem ser temporariamente armazenados no receptor Se a temperatura do cabo cair a taxa de pulsos recebidos também cairá e o multiplexador terá janelas vazias sem dados Estas janelas devem ser preenchidas com dígitos arbitrários preenchimento de pulsos 643 Figura 624 Preenchimento de pulsos Na rede norteamericana sinais DS1 são em geral produzidos por osciladores a cristal em bancos de canais individuais ou outro terminal digital Embora os osciladores sejam muito estáveis não oscilarão exatamente na mesma frequência dando origem a outra causa de assincronismo na rede Isso mostra que mesmo em sistemas multiplexados síncronos os dados raramente são recebidos a uma taxa síncrona Sempre há necessidade de armazenagem conhecida como armazenagem elástica e preenchimento de pulsos conhecido como justificação para acomodar tal situação Obviamente esse método de armazenagem elástica e preenchimento de pulsos funcionará até mesmo quando os canais estiverem em assincronismo Há três variantes do esquema de preenchimento de pulsos 1 preenchimento positivo de pulsos 2 preenchimento negativo de pulsos e 3 preenchimento positivonegativo de pulsos No preenchimento positivo de pulsos a taxa do multiplexador é mais alta que o necessário para acomodar todos os tributários de chegada em suas taxas máximas Assim as janelas temporais no sinal multiplexado ficarão disponíveis a uma taxa maior que a dos dados de entrada de modo que os dados tributários tenderão a se atrasar Fig 624 Em algum momento o sistema decidirá que esse atraso se tornou grande o bastante para exigir preenchimento de pulsos A informação sobre as posições dos pulsos preenchidos é transmitida juntamente com os bits de overhead A partir dos bits de overhead o receptor toma conhecimento da posição do pulso preenchido e o elimina O preenchimento negativo de pulsos é um complemento do preenchimento positivo de pulsos As janelas temporais no sinal multiplexado agora aparecem a uma taxa ligeiramente menor que as dos tributários de modo que o sinal multiplexado não é capaz de acomodar todos os pulsos tributários Informação a respeito de qualquer pulso que tenha ficado de fora e sua posição é transmitida pelos bits de overhead O preenchimento positivonegativo de pulsos é uma combinação dos dois esquemas anteriores usamos preenchimento positivo de pulsos em alguns momentos e preenchimento negativo em outros Toda essa informação é enviada através dos bits de overhead Os dígitos C na Fig 623 são usados para transmitir informação de preenchimento Apenas um bit de preenchimento por canal de entrada é permitido por quadro Isso é o suficiente para acomodar variações esperadas na taxa de sinal de entrada Os bits C A transportam informação sobre preenchimento no canal A bits C B transportam informação sobre preenchimento no canal B e assim por diante A inserção de um pulso de preenchimento em um subquadro qualquer é denotada com a fixação dos valores dos três Cs na linha correspondente em 1 Se não houver preenchimento valores dos três Cs são fixados em 0s Se um bit de preenchimento for inserido este será o primeiro bit de informação associado ao canal imediatamente após o bit F 1 ou seja o primeiro desses bits na última sequência de 48 bits no subquadro em questão Para o primeiro subquadro o bit de preenchimento vem imediatamente após o bit F 1 Para o segundo subquadro o bit de preenchimento será o segundo bit após o bit F 1 e assim por diante Hierarquia Digital Plesiócrona Quase Síncrona A seguir apresentaremos a hierarquia digital desenvolvida pelo grupo Bell System e atualmente incluída nos padrões ANSI para telecomunicações Fig 625 A hierarquia digital norteamericana é implementada na América do Norte e no Japão Duas categorias principais de multiplexadores são usadas na prática A primeira é usada para combinar canais de baixa taxa de dados e multiplexa canais de taxas de até 9600 bits em um sinal com taxa de dados de até 64 kbits O sinal multiplexado denominado nível de sinal digital 0 DS0 na hierarquia norteamericana é transmitido em um canal de classe de voz A segunda categoria de multiplexadores é voltada para uma taxa de bits muito mais elevada Figura 625 Hierarquia digital norteamericana sistema da ATT Há quatro ordens ou níveis de multiplexação O primeiro nível é o multiplexador T1 ou banco de canais consistindo em 24 canais de 64 kbits cada um A saída deste multiplexador é um sinal DS1 nível digital 1 a uma taxa de 1544 Mbits Quatro sinais DS1 são multiplexados por um multiplexador DM12 para produzir um sinal DS2 à taxa de 6321 Mbits Sete sinais DS2 são multiplexados por um multiplexador DM23 para produzir um sinal DS3 à taxa de 44736 Mbits Por fim três sinais DS3 são multiplexados por um multiplexador DM34NA para produzir um sinal DS4NA à taxa de 132264 Mbits Há ainda uma hierarquia de multiplexação a uma taxa inferior conhecida como sistema de dados digitais DDS digital data system que provê padrões para a multiplexação de sinais digitais a taxas baixas como 24 kbits em um sinal DS0 para transmissão na rede 65 Figura 626 Hierarquia digital plesiócrona PDH plesiochronous digital hierarchy segundo a Recomendação G704 de ITUT Não é necessário que as entradas de um multiplexador T1 fiquem restritas somente a canais de voz digitalizados Qualquer sinal digital de 64 kbits e formato apropriado pode ser transmitido O caso dos níveis mais altos é similar Por exemplo não é necessário que todos os canais de entrada do multiplexador DM12 tenham sido obtidos da multiplexação de 24 canais de 64 kbits cada um Alguns podem ser sinais digitais de 1544 Mbits e formato apropriado Na Europa e em muitas outras partes do mundo foi adotada outra hierarquia recomendada pela ITU como um padrão Essa hierarquia baseada na multiplexação de 30 canais telefônicos de 64 kbits canais E0 em uma portadora E1 de 2048 Mbits 30 canais é ilustrada na Fig 626 A partir do nível básico E1 quatro linhas de nível mais baixo formam progressivamente uma linha de nível elevado gerando uma linha E1 com vazão de dados de 8448 Mbits uma linha E3 com 34368 Mbits de vazão de dados uma linha E4 com vazão de dados de 139264 Mbits e uma linha E5 com vazão de dados de 565148 Mbits Como deve haver interconexão de redes distintas nos três sistemas em uso no mundo norteamericano japonês e outro a Fig 626 demonstra a relação entre os sistemas e pontos das interfaces comuns MODULAÇÃO POR CODIFICAÇÃO DE PULSO DIFERENCIAL DPCM A PCM não é um sistema muito eficiente pois gera um número excessivo de bits e requer grande largura de banda de transmissãoVários conceitos diferentes foram propostos para melhorar a eficiência de codificação da conversão AD Em geral esses conceitos exploram características da fonte do sinal A DPCM differential pulse code modulation é um deles Em mensagens analógicas podemos ter uma boa ideia do valor de uma amostra a partir dos valores de amostras anteriores Em outras palavras os valores das amostras não são independentes e em geral há um alto grau de redundância nas amostras de Nyquist A exploração adequada dessa redundância permite a codificação de um sinal com um número menor de bits Consideremos um esquema simples em vez de transmitir os valores das amostras transmitimos a diferença entre valores de amostras sucessivas Assim se mk for a késima amostra em vez de transmitirmos mk transmitimos a diferença dk mk mk 1 No receptor o conhecimento de dk e de diversos valores de amostras anteriores mk 1 permite a reconstrução de mk Ou seja a partir do conhecimento de dk podemos reconstruir mk iterativamente no receptor A diferença entre valores de amostras sucessivas é em geral muito menor que os valores das amostras Assim a diferença de pico m p dos valores transmitidos é consideravelmente reduzido Como o intervalo de quantização é Δv m pL para um dado L ou n isso também reduz o tamanho Δv do intervalo de quantização o que reduz o ruído de quantização dado por Δv 212 Por conseguinte para um dado n ou largura de banda de transmissão podemos aumentar a SNR ou para uma dada SNR podemos reduzir n ou a largura de banda de transmissão Podemos melhorar este esquema se fizermos uma estimativa ou previsão do valor mk da késima amostra a partir do conhecimento de valores de várias amostras anteriores Se a estimativa for podemos transmitir a diferença erro de predição No receptor determinamos o valor da estimativa a partir de valores de amostras anteriores e então geramos mk somando dk à estimativa Assim reconstruímos as amostras no receptor iterativamente Se a predição for boa o valor predito estimado será próximo de mk e a diferença entre eles o erro de predição dk será ainda menor que a diferença entre valores de amostras sucessivas Em consequência esse esquema conhecido como PCM diferencial DPCM é superior à simples predição descrita no parágrafo anterior que é um caso especial de DPCM em que a estimativa do valor de uma amostra é tomado como o valor da amostra anterior ou seja Espíritos de Taylor Maclaurin e Wiener Antes de descrever os princípios de DPCM discutiremos brevemente a abordagem à predição estimação de sinal Aos iniciantes a previsão do futuro parece algo misterioso associado a videntes magos médiuns e assemelhados que podem clamar ajuda do mundo espiritual Engenheiros eletricistas não têm a menor chance nessa atividade Não é bem assim Também podemos clamar ajuda dos espíritos de Taylor Maclaurin Wiener e de outros Mais que isso ao contrário dos espíritos de Shakespeare quando chamados nossos espíritos vêm Consideremos por exemplo um sinal mt cujas derivadas de todas as ordens existem em t Usando a série de Taylor para este sinal podemos expressar mt T s como A Eq 642a mostra que a partir do conhecimento do sinal e de suas derivadas no instante t podemos prever um valor futuro do sinal em t T s Na verdade mesmo que conheçamos somente a primeira derivada ainda podemos prever este valor aproximadamente como na Eq 642b Denotemos a késima amostra de mt por mk ou seja mkT s mk e mkT s T s mk 1 e assim por diante Tomando t kT s na Eq 642b e usando a aproximação obtemos Isso mostra que podemos obter uma previsão grosseira do valor da amostra de ordem k 1 a partir dos valores das duas amostras anteriores A aproximação na Eq 642b melhora se adicionarmos mais termos à série no lado direito Para determinar derivadas de ordens superiores na série precisamos de mais amostras no passado Quanto maior o número de amostras passadas melhor será a predição Em geral podemos expressar a fórmula de predição como O lado direito é o valor predito para mk Logo Essa é a equação para o preditor de ordem N Em geral um maior valor de N resulta em melhor predição A saída desse filtro preditor é o valor predito para mk A entrada consiste nas amostras anteriores mk 1 mk 2 mk N embora seja comum dizer que a entrada é mk e a saída Vale observar que no caso da predição de primeira ordem essa equação se reduz a mk 1 resultado que advém da Eq 642b onde retemos somente o primeiro termo no lado direito Isso significa que a 1 1 e que o preditor de primeira ordem é apenas um atraso temporal Delineamos assim um procedimento muito simples para o projeto do preditor Em uma abordagem mais sofisticada discutida na Seção 85 em que usamos o critério de mínimo erro quadrático médio para a melhor predição os coeficientes de predição a j na Eq 644 são determinados da correlação estatística entre as várias amostras O preditor descrito na Eq 644 é denominado preditor linear e consiste basicamente em um filtro transversal linha de atraso com derivação tapped delay line em que os ganhos das derivações taps são tomados como iguais aos coeficientes de predição como ilustrado na Fig 627 Figura 627 Filtro transversal linha de atraso com derivação usado como um preditor linear Figura 628 Sistema DPCM a transmissor b receptor Análise da DPCM Como já mencionado na DPCM não transmitimos a amostra atual mk mas dk a diferença entre mk e seu valor predito No receptor geramos a partir dos valores de amostras passadas aos quais para gerar mk é somado o valor recebido dk No entanto há uma dificuldade associada a este esquema No receptor em vez das amostras passadas mk 1 mk 2 e de dk temos suas versões quantizadas m qk 1 m qk 2 Portanto não podemos determinar mas apenas o valor estimado da amostra quantizada m qk em termos das amostras quantizadas m qk 1 m qk 2 Isso aumentará o erro na reconstrução Nesses casos uma estratégia melhor consiste em no transmissor determinar o valor estimado de m qk em vez de mk a partir das versões quantizadas m qk 1 m qk 2 A diferença é então transmitida via PCM No receptor podemos gerar e a partir do valor dk recebido reconstruir m qk A Fig 628a ilustra um transmissor DPCM Logo mostraremos que a entrada do preditor é m qk Naturalmente sua saída é o valor predito para mk A diferença é quantizada produzindo 66 em que qk é o erro de quantização A saída do preditor é realimentada à entrada de modo que a entrada do preditor m qk se torna Isso mostra que m qk é uma versão quantizada de mk A entrada do preditor é de fato m qk como presumido O sinal quantizado d qk é agora transmitido através do canal O receptor mostrado na Fig 628b é idêntico à porção hachurada do transmissor Nos dois casos as entradas também são as mesmas ou seja d qk Portanto a saída do preditor deve ser igual à saída do preditor no transmissor Assim a saída do receptor que é a entrada do preditor também é a mesma m qk mk qk como calculado na Eq 647 Isso mostra que foi possível receber o sinal desejado mk mais o erro de quantização qk Este é o ruído de quantização associado ao sinaldiferença dk que em geral é muito menor que mk As amostras recebidas m qk são decodificadas e aplicadas a um filtro passabaixas para conversão DA Melhora da SNR Para determinar a melhora da DPCM em relação à PCM denotemos as amplitudes de pico de mt e dt por m p e d p respectivamente Se usarmos o mesmo valor de L nos dois casos o incremento de quantização Δv em DPCM é reduzido por um fator d pm p Como a potência do ruído de quantização é Δv 212 na DPCM o ruído de quantização é reduzido por um fator m pd p 2 e a SNR é aumentada pelo mesmo fator Além disso a potência de sinal é proporcional ao quadrado do valor de pico supondo que outras propriedades estatísticas sejam invariantes Portanto G p melhora da SNR devido à predição é pelo menos em que P m e P d são as potências de mt e dt respectivamente Em decibéis isso significa que a SNR aumenta em 10log 10 P m P d dB Portanto a Eq 641 se aplica à DPCM também com um valor de α aumentado por 10log 10 P m P d dB No Exemplo 824 é analisado um processador preditor de segunda ordem para sinais de voz Para este caso a melhora na SNR é calculada como 56 dB Na prática em casos como espectros de sinais de voz de curta duração e espectros de imagens de baixa atividade a melhora da SNR pode chegar a 25 dB 12 Alternativamente para a mesma SNR a taxa de bits para DPCM pode ser 3 a 4 bits por amostra ser menor que para PCM Assim o sistema telefônico que usa DPCM pode em geral operar a 32 ou até mesmo a 24 kbitss PCM DIFERENCIAL ADAPTATIVA ADPCM A DPCM adaptativa ADPCM pode melhorar ainda mais a eficiência da codificação DPCM com a incorporação de um quantizador adaptativo no codificador A Fig 629 ilustra a configuração básica de ADPCM Por motivos práticos o número de níveis de quantização L é fixo Quando é aplicado um incremento de quantização fixo Δv o erro de quantização ou é muito grande quando Δv é grande ou o quantizador não pode cobrir o necessário intervalo de variação do sinal quando Δv é muito pequeno Portanto seria melhor que o incremento de quantização Δv fosse adaptável de modo que Δv fosse grande ou pequeno dependendo se o erro de predição para quantização fosse grande ou pequeno É importante notar que o erro de predição quantizado d qk pode ser um bom indicador do tamanho do erro de predição Por exemplo quando as amostras do erro de predição quantizado variam muito próximas do maior valor positivo ou maior valor negativo isso indica que o erro de predição é grande e que Δv deve aumentar Reciprocamente se as amostras quantizadas oscilam próximas de zero o erro de predição é pequeno e Δv deve diminuir É importante que tanto o modulador como o receptor tenham acesso às mesmas amostras quantizadas Portanto o quantizador adaptativo e a reconstrução do receptor podem aplicar o mesmo algoritmo para ajustar o valor de Δv identicamente Em comparação com a DPCM a ADPCM pode comprimir ainda mais o número de bits necessários para uma forma de onda Por exemplo na prática é muito comum que uma sequência PCM de 8 bits seja codificada em uma sequência ADPCM de 4 bits à mesma taxa de amostragem Isso representa uma redução de 21 na largura de banda ou na necessidade de armazenagem sem praticamente qualquer perda 67 Figura 629 Codificador ADPCM usa um quantizador adaptativo controlado apenas pelos bits de saída do codificador O codificador ADPCM tem várias aplicações O padrão ITUT G726 especifica um codificador e decodificador denominado codec de voz para amostras de voz tomadas a 8 kHz 7 O preditor ADPCM G726 usa um preditor de oitava ordem Para diferentes níveis de quantização o padrão G726 especifica quatro taxas ADPCM diferentes 16 24 32 e 40 kbits Essas taxas correspondem a quatro diferentes representações de cada amostra de voz a 2 bits 3 bits 4 bits e 5 bits respectivamente o que é equivalente a 4 8 16 e 32 níveis de quantização respectivamente Os codificadores de voz ADPCM mais comuns usam 32 kbits Na prática há uma variedade de codecs de voz ADPCM Além da especificação ITUT G726 7 há o codec ADPCM OKI o codec ADPCM Microsoft suportado por players do formato WAVE e ADPCM da Associação de Multimídia Interativa IMA Interactive Multimedia Association também conhecido como DVI ADPCM O codec 32 kbits ADPCM de voz ITUT G726 é largamente utilizado em sistemas DECT digital enhanced cordless telecommunications telecomunicações sem fio digitais aprimoradas que por sua vez encontra grande utilização em telefonia sem fio residencial e comercial Projetado para uso em curta distância como um mecanismo de acesso à rede principal DECT oferece comunicação sem fio para voz fax dados e multimídia Atualmente DECT é usado em mais de 100 países ao redor do mundo Outro uso importante do codec ADPCM de 32 kbits é o Personal Handyphone System PHS sistema de telefonia portátil pessoal também comercializado como Personal Access System PAS sistema de acesso pessoal e conhecido na China como Xiaolingtong O PHS é um sistema de telefonia móvel semelhante ao sistema celular que opera na faixa de frequências de 1880 a 1930 MHz e é usado principalmente no Japão China Formosa e em outros locais na Ásia Originalmente desenvolvido pela Laboratório NTT no Japão em 1989 o PHS tem implementação e utilização muito simples Ao contrário das redes celulares telefones e estações de base de PHS são de baixa potência e de curto alcance O serviço é pejorativamente chamado de celular do pobre devido ao alcance limitado e pouca capacidade de roaming As primeiras aplicações de PHS ocorreram no Japão em 1995 NTT Personal DDIPocket e ASTEL e desde então praticamente desapareceu Contudo de modo surpreendente o PHS está ressurgindo em mercados como China Formosa Vietnã Bangladesh Nigéria Mali Tanzânia e Honduras onde o baixo custo de equipamentos e de utilização compensa as desvantagens do sistema Na China houve uma expansão explosiva e em 2006 o número de assinantes era próximo de 80 milhões MODULAÇÃO DELTA A correlação de amostras usada em DPCM é ainda mais explorada na modulação delta DM delta modulationpor meio de superamostragem tipicamente a uma taxa quatro vezes maior que a de Nyquist do sinal em banda base Isso aumenta a correlação entre amostras adjacentes o que resulta em pequeno erro de predição que pode ser codificado por apenas um bit L 2 Assim DM é basicamente DPCM de 1 bit ou seja DPCM que utiliza somente dois níveis L 2 para a quantização de Em comparação com a PCM e DPCM esse é um método de conversão AD muito simples e barato A palavra de código de 1 bit em DM torna desnecessário o enquadramento framing de palavra no transmissor e no receptor Essa estratégia permite o uso de menor número de bits por amostra para a codificação de um sinal em banda base Figura 630 Modulação delta é um caso especial de DPCM Em DM usamos um preditor de primeira ordem que como visto anteriormente é apenas um atraso temporal T s intervalo de amostragem Assim o transmissor modulador e receptor demodulador DM são idênticos aos de DPCM na Fig 628 com um atraso temporal para o preditor como mostrado na Fig 630 da qual podemos escrever Logo A substituição desta equação na Eq 648 resulta em Prosseguindo com esse processo iterativamente e admitindo condição inicial zero ou seja m q0 0 escrevemos Isso mostra que o receptor demodulador é apenas um acumulador somador Se a saída d qk for representada por impulsos o acumulador receptor pode ser realizado por um integrador pois sua saída é a soma das intensidades dos impulsos de entrada soma das áreas sob os impulsos Podemos também substituir a porção de realimentação do modulador que é idêntico ao demodulador pelo integrador A saída do demodulador é m qk que ao ser aplicada a um filtro passabaixas produz o sinal desejado reconstruindoo das amostras quantizadas A Fig 631 mostra uma implementação prática do modulador e do demodulador delta Como discutido anteriormente o preditor de primeira ordem é substituído por um circuito integrador de baixo custo como um integrador RC O modulador Fig 631a consiste em um comparador e um amostrador na rota direta e em um amplificadorintegrador na rota de realimentação Examinemos o funcionamento deste modulador delta O sinal analógico mt é comparado com o sinal de realimentação que serve como um sinal preditor O sinal de erro é aplicado a um comparador Se dt for positivo a saída do comparador é um sinal constante de amplitude E se dt for negativo a saída do comparador é E Assim a diferença é um sinal binário L 2 necessário para gerar DPCM de 1 bit A saída do comparador é amostrada por um amostrador à taxa de f s amostras por segundo sendo f s tipicamente muito maior que a taxa de Nyquist O amostrador então produz um trem de pulsos estreitos d qk para simular impulsos quando o pulso é positivo quando o pulso é negativo Reparemos que cada amostra é codificada por apenas um pulso binário DPCM de 1 bit como necessário O trem de pulsos d qk é o trem de pulsos com modulação delta Fig 631d O sinal modulado d qk é amplificado e integrado na rota de realimentação para gerar Fig 631c que tenta seguir mt Figura 631 a Modulador delta b demodulador delta c sinal de mensagem versus sinal de saída do integrador d trem de pulsos com modulação delta e erros de modulação Para entender como isso funciona notemos que cada pulso em d qk na entrada do integrador origina uma função degrau positiva ou negativa dependendo da polaridade do pulso em Se por exemplo é gerado um pulso positivo em d qk que dá origem a um degrau positivo em tentando em pequenos passos a cada instante de amostragem fazer igualar mt como mostrado na Fig 631c Podemos observar que é uma espécie de aproximação em degraus de mt Quando é aplicado a um filtro passabaixas a aspereza dos degraus é eliminada e obtemos uma melhor aproximação para mt No receptor o demodulador consiste em um integradoramplificador idêntico ao da rota de realimentação do modulador seguido por um filtro passabaixas Fig 631b DM Transmite a Derivada de mt Em PCM as amostras do sinal analógico são quantizadas em L níveis e esta informação é transmitida por n pulsos por amostras n log 2 L Uma pequena reflexão mostra que em DM o sinal modulado transporta informação sobre a diferença entre amostras sucessivas e não sobre amostras de sinais Se a diferença for positiva ou negativa um pulso positivo ou negativo respectivamente é gerado no sinal modulado d qk Portanto DM transporta informação sobre a derivada de mt daí o nome modulação delta Isso também pode ser visto do fato de que a integração do sinal modulado em delta produz que é uma aproximação de mt Em PCM a informação de cada amostra quantizada é transmitida por uma palavra de código de n bits enquanto em DM a informação sobre a diferença entre amostras sucessivas é transmitida por uma palavra de código de 1 bit Limiar de Codificação e Sobrecarga Efeitos de limiar e sobrecarga podem ser vistos claramente na Fig 631c Variações em mt menores que o valor do degrau limiar de codificação são perdidos em DM Além disso se mt variar demasiadamente rápido ou seja se for demasiadamente grande não será capaz de seguir mt e ocorrerá sobrecarga Isso caracteriza a chamada sobrecarga de inclinação slope overload que dá origem ao ruído de sobrecarga de inclinação Esse ruído é um dos fatores limitantes básicos ao desempenho de DM Em DM deveríamos esperar sobrecarga de inclinação em vez de sobrecarga de amplitude pois DM transporta basicamente informação sobre A natureza granular do sinal de saída dá origem ao ruído granular similar ao ruído de quantização O ruído de sobrecarga de inclinação pode ser reduzido com o aumento de E o incremento Lamentavelmente isso aumenta o ruído granular Existe um valor ótimo de E que produz o melhor equilíbrio resultando no ruído mínimo Esse valor ótimo de E depende da frequência de amostragem f s e da natureza do sinal 12 A sobrecarga de inclinação ocorre quando não consegue seguir mt Durante o intervalo de amostragem T s pode ser alterado em E em que E é a altura do degrau Assim a máxima inclinação que é capaz de seguir é ET s ou Ef s em que f s é a frequência de amostragem Portanto sobrecarga de inclinação não ocorre quando Consideremos o caso da modulação por tom mensagem senoidal A condição para não haver sobrecarga é Logo a máxima amplitude A max deste sinal que pode ser tolerada sem sobrecarga é dada por Figura 632 Espectro de sinal de voz A amplitude de sobrecarga do sinal modulante é inversamente proporcional à frequência ω Para frequências modulantes mais altas a sobrecarga ocorre para amplitudes menores No caso de sinais de voz que contêm todas as componentes de frequência de até digamos 4 kHz o cálculo de A max pela Eq 651 com ω 2π 4000 fornece um valor demasiadamente conservador Jager 13 mostrou que para sinais de voz A max pode ser calculado usando ω r 2π 800 na Eq 651 Portanto a máxima amplitude de sinal de voz A máx que pode ser usada sem causar sobrecarga de inclinação em DM é igual à máxima amplitude de um sinal senoidal com frequência de referência f r f r 800 Hz que pode ser usada sem causar sobrecarga de inclinação no mesmo sistema Felizmente a amplitude do espectro de voz assim como do sinal de vídeo de televisão também cai com a frequência e segue a característica de sobrecarga de perto curva c Fig 632 Por essa razão DM é muito apropriada para sinais de voz e de televisão Na verdade o espectro do sinal de voz curva b cai com 1ω até cerca de 2000 Hz e além dessa frequência passa a cair com 1ω 2 Se tivéssemos usado uma integração dupla no circuito de realimentação em vez de uma integração simples A max na Eq 651 seria proporcional a 1ω 2 Assim um melhor casamento entre o espectro de voz e as características de sobrecarga é obtido com o uso de integração simples até 2000 Hz e de integração dupla acima de 2000 Hz Um circuito desse tipo com integração dupla tem resposta rápida mas com uma tendência à instabilidade que pode ser reduzida com o uso de algum preditor de ordem baixa juntamente com a integração dupla Um integrador duplo pode ser construído com uma cascata de dois integradores RC passabaixas com constantes de tempo R 1C 1 1200π e R 2C 2 14000π Isso resulta em integração simples de 100 a 2000 Hz e integração dupla além de 2000 Hz Modulação SigmaDelta Na discussão sobre limiar de codificação e sobrecarga ilustramos que a essência de DM convencional é a codificação e transmissão da derivada do sinal de mensagem analógico Assim o receptor DM requer um integrador como mostrado na Fig 631 e de modo equivalente na Fig 633a Como a transmissão de sinal é inevitavelmente sujeita ao ruído de canal tal ruído será integrado e se acumulará na saída do receptor um fenômeno altamente indesejável e a maior deficiência de DM Para superar essa deficiência de DM podemos fazer uma pequena modificação Primeiro podemos ver o sistema DM global como consistindo em um transmissor e um receptor aproximadamente sem distorção e lineares Assim um dos componentes seriais o integrador 1s do receptor pode ser deslocado para a frente do transmissor codificador sem afetar as respostas finais do modulador e do demodulador como mostrado na Fig 633b Por fim os dois integradores podem ser fundidos em um só após o subtrator como indicado na Fig 633c Esse sistema modificado é conhecido como modulação sigmadelta ΣΔM Figura 633 a Modulador delta convencional b Modulador ΣΔ c Modulador ΣΔ mais simples Como vimos no estudo de filtros de préênfase e deênfase em FM dado que o ruído de canal e o sinal de mensagem não seguem a mesma rota a ordem dos componentes seriais no sistema global de modulaçãodemodulação pode ter diferentes efeitos na SNR O aparente pequeno deslocamento do integrador 1s na verdade tem várias vantagens significativas O ruído de canal não mais se acumula no demodulador O importante conteúdo de baixa frequência da mensagem mt sofre préênfase no integrador 1jω Isso ajuda muitos sinais práticos como os de voz cujas componentes de frequências baixas são mais importantes O integrador de fato suaviza o sinal para codificação Fig 633b Assim a sobrecarga se torna menos provável A natureza passabaixas do integrador aumenta a correlação entre amostras sucessivas resultando em menor erro de codificação O demodulador é simplificado Modulação Delta Adaptativa ADM A DM discutida até aqui tem uma séria desvantagem A faixa dinâmica de amplitudes é demasiadamente pequena devido aos efeitos de limiar e sobrecarga analisados anteriormente Para superar esse problema algum tipo de compressão de sinal se faz necessário Em DM um método adequado parece ser a adaptação ajuste do valor do degrau E segundo o nível da derivada do sinal de entrada Por exemplo na Fig 631 quando o sinal mt cai rapidamente ocorre sobrecarga de inclinação Se pudermos aumentar a altura do degrau durante este período a sobrecarga seria evitada Contudo se a inclinação do sinal mt for pequena uma redução na altura do degrau serviria para reduzir o nível de limiar e o ruído granular A sobrecarga de inclinação faz com que 68 681 d qk tenha vários pulsos sucessivos de mesma polaridade Isso pede uma redução na altura do degrau De modo similar pulsos em d qk com alternância contínua de polaridade indicam variações de pequena amplitude o que requer uma redução na altura do degrau Em ADM adaptative delta modulation detectamos esses padrões de pulsos e ajustamos a altura do degrau automaticamente 14 Isso resulta em uma faixa dinâmica muito maior para DM VOCODERS E COMPRESSÃO DE VÍDEO PCM DPCM ADPCM DM e ΣΔM são exemplos do que é conhecido como codificadores de fonte de forma de onda Basicamente codificadores de forma de onda não levam em consideração como foram gerados os sinais para digitalização Assim o grau de compressão alcançável por codificadores de forma de onda é altamente limitado pelo grau de correlação entre amostras sucessivas de sinal Para uma fonte de sinal passabaixas com largura de banda finita de B Hz mesmo que aplicássemos a mínima taxa de amostragem de Nyquist de 2B Hz e codificação de 1 bit a taxa de bits não pode ser inferior a 2B bitsVários métodos foram introduzidos com sucesso para reduzir drasticamente a taxa de codificação de fonte de sinais de voz e de vídeo muito importantes para nossas necessidades diárias de comunicação Diferentemente de codificadores de forma de onda os mais bemsucedidos codificadores de voz e de vídeo são baseados em modelos fisiológicos humanos envolvidos na geração da voz e na percepção de vídeo Aqui descreveremos os princípios básicos da predição linear de codificadores de voz conhecidos como vocoders e o método de compressão de vídeo proposto pelo Moving Picture Experts Group MPEG Grupo de Especialistas em Imagens Animadas Vocoders com Codificação de Predição Linear Modelos da Fala e Vocoders Baseados em Modelo Vocoders com codificação de predição linear LPC linear prediction coding são sistemas baseados em modelo O modelo por sua vez é baseado no bom entendimento do mecanismo de produção da voz humana A Fig 634 apresenta uma ilustração seccional do aparato de produção da voz humana Em resumo a voz humana é produzida pela interação dos pulmões cordas vocais e o trato de articulação que consiste nas cavidades nasal e bucal Com base nesse modelo fisiológico da fala a voz humana pode ser dividida nas categorias de som sonoro voiced e surdo unvoiced Sons sonoros são feitos com cordas vocais vibrantes Coloque um dedo no pomodeadão enquanto fala e poderá sentir a vibração das cordas vocais quando pronunciar todas as vogais e algumas consoantes como g como em gota b como em boa n como em não Sons surdos são feitos sem vibração das cordas vocais Várias consoantes como k p t são surdas Alguns exemplos de sons surdos são r como em roda c como em calo p como em pulo Para a produção de sons sonoros os pulmões expelem ar através da epliglote fazendo vibrar as cordas vocais As cordas vocais vibrantes interrompem o fluxo de ar e produzem uma onda de pressão quase periódica que consiste em impulsos Os impulsos da onda de pressão são denominados impulsos de timbre pitch e a frequência do sinal de pressão é chamada frequência de timbre ou frequência fundamental como mostrado na Fig 634b Essa é a parte do sinal de voz que define o timbre da fala Voz emitida em uma frequência de timbre constante soa monótona Em geral a frequência de timbre de um orador varia de modo quase contínuo de sílaba para sílaba Figura 634 a Mecanismo de produção da voz humana b Típicos impulsos de pressão Em sons sonoros os impulsos de tinta estimulam o ar no trato vocal cavidades bucal e nasal Em sons surdos a excitação advém internamente do fluxo de ar Estudos detalhados 1517 mostram que no caso de sons surdos a excitação do trato vocal é mais parecido com um ruído de banda larga Quando as cavidades no trato vocal ressoam sob excitação irradiam uma onda sonora que é o sinal de voz As duas cavidades formam ressoadores com frequências de ressonâncias características frequências formantes A alteração da forma e portanto das características de ressonância da cavidade bucal permite que diferentes sons sejam pronunciados Surpreendentemente esse trato de articulação vocal pode ser aproximado por um modelo que consiste em um filtro digital linear com função de transferência que tem semente poles Hz gAz 1 paizi em que g é o fator de ganho e Az é conhecido como filtro preditor como o filtro de realimentação usado em DPCM e ADPCM Podemos interpretar o aparato de articulação vocal como um filtro de formatação espectral Hz Modelos LPC Com base neste modelo da fala humana podemos determinar uma abordagem para codificação de voz diferente da codificação de forma de onda Em vez de enviar as próprias amostras do sinal vocoders baseados em modelo analisam os sinais de voz segmento a segmento para determinar os parâmetros que melhor se ajustem ao sinal Como mostrado na Fig 635 após a análise do sinal de voz para cada segmento do sinal o transmissor envia ao receptor os necessários parâmetros formatos do modelo da voz O receptor usa os parâmetros do modelo da voz para estabelecer um sintetizador de voz para regenerar os respectivos segmentos do sinal de voz Em outras palavras o que o usuário ouve no receptor consiste na verdade em sinais reproduzidos por uma máquina sintetizadora de voz artificial Figura 635 Análise e síntese de sinais de voz em codificador e decodificador LPC Tabela 61 Alocação de Bit de Quantização em Vocoder LPC10 Período do Timbre SonoroSordo Ganho g Parâmetros do Filtro LP10 bitscofientes r1 r4 r5 r8 rg r10 6 bits 5 bits 4 bits 3 bits 2 bits Sonoro 1 bit Não usado Surdo Na análise de um segmento de voz amostrada consistindo em múltiplas amostras a análise de timbre determinará primeiro se a voz é sonora ou surda Se o sinal for classificado como sonoro o analisador de timbre estimará a frequência do timbre ou o que é equivalente o período do timbre Além disso o analisador de coeficientes de predição linear LPC linear prediction coefficients estimará os coeficientes do filtro com polos apenas em Az Como o erro de predição linear indica qual é o filtro de predição linear se ajusta às amostras de voz o analisador LPC pode determinar os coeficientes do filtro ótimo por meio da minimização do erro quadrático médio MSE mean square error do erro de predição linear A transmissão direta dos parâmetros do filtro de predição linear LP linear prediction não faz sentido pois o filtro é muito sensível e erros nos parâmetros devido aos ruídos de quantização e de canal Pior ainda o filtro LP pode até mesmo se tornar instável por causas de pequenas erros nos coeficientes Na prática a estabilidade desse filtro de predição linear com polos apenas pode ser assegurada com a utilização de filtro em estrutura de modular de treliça por meio do bem conhecido algoritmo de LevinsonDurbin 21 Parâmetros do filtro de treliça conhecidos como coeficientes de reflexão rk são menos sensíveis a erros de quantização e de ruído A transmissão pode ser melhorada com o envio das razões logarítmicas de área LAR Logarea ratios definidas como ou com o envio de valores intermediários da recursão de LevinsonDurbin conhecidos como coeficientes de reflexão parcial PARCOR partial reflection coefficients Outra abordagem prática consiste em determinar os pares de raias espectrais LSP line spectral pairs equivalentes como uma representação dos coeficientes do filtro LPC para transmissão nos canais LSP tem a vantagem de baixa sensibilidade ao ruído de quantização 22 23 Desde que seja estável o filtro LP só de polos de ordem p pode ser representado por p frequências de raias espectrais reais Em cada representação um filtro sintetizador de ordem p pode ser obtido pelo decodificador LPC a partir dos p coeficientes reais Em geral de 8 a 14 parâmetros LP bastam para a representação do trato vocal Podemos agora usar um exemplo especial de LPC para ilustrar a eficiência de codificação de vocoders baseados em modelo No chamado vocoder LPC10 a fala é amostrada a 8 kHz Cento e oitenta amostras 225 ms formam um quadro LPC para transmissão 24 Os bits por quadro de fala são alocados para quantizar o período do timbre o sinalizador flag sonorosurdo o ganho do filtro e os 10 coeficientes do filtro segundo a Tabela 61 Assim cada quadro requer entre 32 surdo e 53 sonoro bits A adição de bits de controle de quadro resulta em uma palavra de código com comprimento médio de 54 bits por quadro ou uma taxa global de 2400 bitss 24 Com base em testes subjetivos esse simples codec LPC10 tem baixo grau de opinião médio MOS mean opinion score mas permite conexões de voz altamente inteligíveis LPC10 é parte de FS1015 um padrão de codec de telefonia segura de baixa taxa desenvolvido pelo Departamento de Defesa do governo dos Estados Unidos em 1984 Um aprimoramento posterior de LPC10 é conhecido como LPC10e Em comparação com codecs de forma de onda PCM de 64 kbits ou ADPCM de 32 kbits vocoders LPC são muito mais eficientes e podem alcançar taxas de codificação de voz abaixo de 96 kbits O exemplo de LPC10 de 24 kbits permite digitalização de fala a uma taxa muito mais baixa que a taxa de amostragem de forma de onda de 8 kHz A perda de qualidade da fala é uma barganha natural Para um melhor entendimento da diferença entre vocoders de forma de onda e vocoders baseados em modelo como LPC podemos usar a analogia com um serviço de entrega de restaurante Imaginemos uma família que viva no Alasca e deseje pedir um prato de um famoso restaurante de Nova York Por motivos práticos o restaurante teria de enviar pratos preparados crus e congelados e a família então seguiria as instruções de cozimento A comida provavelmente seria saborosa mas a refeição perderia a fineza do chef original Essa opção é parecida com a transmissão via PCM O receptor tem os ingredientes básicos mas deve tolerar o erro de quantização que se manifesta pela ausência da fineza do chef de cozinha Para reduzir o peso do transporte a família tem a opção e pedir somente os ingredientes essenciais Os ingredientes mais pesados e mais comuns como arroz e batata podem ser adquiridos localmente Essa abordagem é como DPCM ou ADPCM nas quais apenas a parte imprevisível da fala é transmitida Por fim a família pode simplesmente encomendar a receita do chef Todos os ingredientes seriam comprados localmente e o prato também seria montado no local Assim a família alasquense poderia satisfazer seu desejo de comida gourmet sem receber um único item do restaurante de Nova York O último cenário captura a ideia de vocoders baseados em modelo Vocoders LPC basicamente transmitem a receita ou seja os parâmetros LPC para síntese de voz no receptor Vocoders LP Práticos de Alta Qualidade A simples síntese LPC de dois estados ilustrada na Fig 635 descreve somente a ideia básica por trás de codecs de voz baseados em modelo Na prática a qualidade de vocoders LPC tem sido melhorada por meio de numerosos codecs mais elaborados Com a adição de alguns bits esses vocoders baseados em LP tentam melhorar a qualidade da voz de duas maneiras por codificação do erro de predição residual e com melhora do sinal de excitação Os métodos mais bemsucedidos pertencem à classe conhecida como vocoders de predição linear com excitação por código CELP CodeExcited Linear Prediction Vocoders CELP usam um livro de códigos tabela de típicos sinais de erro ou resíduo LP definido a priori por projetistas No transmissor o analisador compara o resíduo real de predição para todas as entradas no livro de códigos escolhe aquela que representa melhor casamento e adiciona o endereço código dessa entrada aos bits para transmissão O sintetizador recebe esse código recupera o correspondente resíduo do livro de códigos e o utiliza para modificar a saída sintetizada Para que CELP funcione bem o livro de códigos deve ser suficientemente extenso o que requer mais bits para transmissão O vocoder FS1016 representa um aprimoramento do FS1015 e oferece boa qualidade e fala de som natural a 48 kbitss 25 Variantes mais modernas incluem o codec LPC RPELTP regular pulse excitation long term prediction excitação normal por pulsos predição de longo prazo usado em sistemas celulares GSM CELP algébrico ACELP CELP relaxado RCELP Qualcomm CELP QCELP de sistemas celulares CDMA e predição linear com excitação por soma vetorial VSELP vectorsum excited linear prediction As taxas de dados variam de 12 kbits a 13 kbits GSM em taxa completa Estes vocoders formam a base de muitos dos modernos vocoders para sistemas celulares voz sobre protocolo IP VoIP e outros padrões da ITUT da série G MPEG1 MPEG2 MPEG4 Compressão de Vídeo A digitalização de vídeo e de televisão representa um enorme desafio Devido à grande largura de banda cerca de 42 MHz o uso de amostragem e quantização diretas resulta em sinal de vídeo não comprimido de aproximadamente 150 Mbits Em consequência o modesto grau de compressão oferecido por técnicas como ADPCM e codificação em subbanda 26 27 é insuficiente A chave para a compressão de vídeo está associada à percepção visual humana Um grande esforço de pesquisa e desenvolvimento resultou em métodos que reduzem drasticamente a largura de banda digital necessária à transmissão de vídeo As primeiras técnicas de compressão de sinais de vídeo produziam taxas da ordem de 45 Mbits DS3 Contudo para emergentes tecnologias de entrega de vídeo como HFC ADSL HDTV e outras um maior grau de compressão era necessário MPEG tratou desse problema e desenvolveu novas técnicas de compressão que ofereciam qualidade de vídeo de rede ou VCR com graus de compressão muito mais elevados O MPEG é um esforço conjunto das Organizações Internacionais de Padronização ISO International Standards Organizations do Comitê Eletrotécnico Internacional IEC International Electrotechnical Committee e do Comitê X3L3 do Instituto Nacional Americano de Padronização ANSI American National Standards Institute 28 29 O MPEG mantém um web site muito informativo que provê extensa informação sobre as tecnologias MPEG e JPEG e sobre padrões httpwwwmpegorgindexhtml Mantém ainda um fórum industrial para a promoção dos produtos da organização httpwwwm4iforg O conceito de compressão de vídeo digital se baseia no fato de que em média um número relativamente pequeno de pixels muda de um quadro a outro Portanto se apenas as alterações forem transmitidas a largura de banda de transmissão pode ser reduzida drasticamente A digitalização permite a recuperação sem ruído de sinais analógicos e melhora a qualidade da imagem no receptor A compressão reduz a largura de banda necessária à transmissão e o espaço para armazenagem de um programa de vídeo e em consequência expande a capacidade do canal Sem compressão a armazenagem de um programa de vídeo NTSC de duas horas de duração exige aproximadamente 100 gigabytes muito além da capacidade de qualquer disco DVD Há três padrões principais MPEG em uso Usado para vídeo de qualidade VCR e armazenagem em CD de vídeo ou VCD a uma taxa de 15 Mbits Esses VCDs são muito populares em países da Ásia excetuando o Japão Decodificadores MPEG1 estão disponíveis na maioria dos computadores O VCD também é um formato muito popular para karaokê Este padrão suporta diversas aplicações de codificação de vídeo para transmissão com qualidade variando de VCR a TV de alta definição HDTV high definition television dependendo da taxa de dados O MPEG2 oferece uma taxa de compressão de vídeo de 501 e é um formato extremamente popular usado em DVD HDTV difusão de vídeo digital terrestre DVBT terrestrial digital video broadcasting e difusão de vídeo digital por satélite DVBS Este padrão provê transmissão contínua streaming de conteúdo multimídia áudio visual ou audiovisual em diferentes larguras de banda incluindo internet O MPEG4 é suportado pelo Media Player de Microsoft Windows Real Networks Quicktime e IPod da Apple Recentemente o MPEG 4 convergiu a um padrão ITUT conhecido com H264 a ser discutido mais adiante O poder da compressão de vídeo é fabuloso Para efeito de comparação a difusão de televisão NTSC no formato digital requer de 45 a 120 Mbits enquanto MPEG2 requer de 15 a 15 Mbits A HDTV por sua vez exige 800 Mbits sem compressão com compressão MPEG2 a transmissão de HDTV pode ser feita a 1939 Mbits Há dois tipos de compressão MPEG que eliminam redundâncias em sinais audiovisuais não perceptíveis pelo ouvido ou visão humanos 1 Vídeo Compressão temporal ou entre quadros através da predição de movimento entre quadros e remoção de redundância entre quadros Compressão espacial ou intraquadro que forma um identificador de bloco para um grupo de pixels com características iguais cor intensidade etc para cada quadro Somente o identificador de bloco é transmitido 2 Áudio que utiliza um modelo psicoacústico de efeitos mascaradores 1 2 Figura 636 a Quadro 1 b Quadro 2 c Informação transferida entre quadros 1 e 2 A base da compressão de vídeo é a remoção de redundâncias no fluxo stream de sinal de vídeo Como exemplo de redundância entre quadros consideremos a Fig 636a e b Na Fig 636a o corredor está na posição A e na Fig 636b na posição B Reparemos que o fundo catedral prédios e ponte permanece essencialmente inalterado de um quadro a outro A Fig 636c representa a informação não redundante para transmissão ou seja o que sofreu alteração entre os dois quadros A imagem do corredor à esquerda representa os blocos do quadro 1 que são substituídos pelo fundo do quadro 2 A imagem do corredor à direita representa os blocos do quadro 1 que substituirão o fundo no quadro 2 A compressão de vídeo tem início com um codificador que converte o sinal de vídeo analógico da câmera de vídeo ao formato digital pixel a pixel Cada quadro de vídeo é dividido em blocos de 8 8 pixels que são analisados pelo codificador para determinar que blocos devem ser transmitidos ou seja que blocos têm alterações significativas de um quadro a outro Esse processo se dá em duas etapas Estimação e compensação de movimento Aqui um estimador de movimento identifica as áreas ou grupos de blocos de um quadro anterior que casa áreas correspondentes no quadro atual e envia a magnitude e direção do deslocamento a um preditor no decodificador A informação sobre a diferença entre quadros é chamada de resíduo Transformação do resíduo quadro a quadro em uma forma mais compacta O sinal de resíduo codificado é transformado em uma forma mais compacta por meio de uma transformada de cosseno discreta DCT discrete cosine transform ver Seção 652 em Haskel et al 28 que usa um valor numérico para representar cada pixel e normaliza esse valor para transmissão mais eficiente A DCT é da forma em que fn m é o valor alocado ao bloco na posição n m A transformada inversa é Para um bloco de 8 8 a DCT é multiplicada pela expressão CjCk4 em que As Tabelas 62 e 63 listam os valores dos blocos de pixels antes e depois da DCT Podemos notar na Tabela 63 que há relativamente poucos elementos significativos ou seja elementos com valores significativos em relação aos valores centrados na posição 0 0 Assim a maioria dos valores na matriz pode ser admitida como zero e após a transformada inversa os valores originais são reproduzidos com alta precisão Este processo em muito reduz a quantidade de dados que devem ser transmitidos talvez por um fator médio de 8 a 10 Reparemos que o tamanho do resíduo pode ser igual ao de um bloco individual ou no outro extremo ao de toda a imagem Os valores transmitidos da matriz de um bloco Tabela 64 são normalizados de modo que os valores na matriz do bloco sejam menores que 1 A matriz resultante é então quantizada para produzir a Tabela 64 A normalização é feita por uma matriz dinâmica de valores multiplicativos que são aplicados à matriz transformada elemento a elemento A matriz normalizada na Tabela 64 é a informação de bloco transmitida ao decodificador A matriz desnormalizada listada na Tabela 65 e o resíduo reconstruído por transformação inversa na Tabela 66 são determinados pelo decodificador O processo de transformação segue um padrão de ziguezague como ilustrado na Fig 637 Figura 637 Padrão em ziguezague de varredura de coeficientes DCT O MPEG utiliza estimação e compensação de movimento para remover redundâncias temporais quadro a quadro de forma própria Usa três tipos de quadros quadro I ou intraquadro às vezes chamado de quadro codificado independentemente ou intracodificado quadro P ou predito e quando B ou quadro de predição bidirecional Quadros P são preditos de quadros I Quadros B são preditos bidirecionalmente de quadros passados ou futuros Um quadro I e um ou mais quadros P e B formam o padrão básico de processamento MPEG chamado de grupo de imagens GOP group of pictures A maioria dos quadros em uma imagem comprimida MPEG é de quadros B Os quadros I provêm a referência inicial para que a diferença entre quadros dispare o processo de codificação MPEG Reparemos que o aspecto bidirecional do procedimento introduz um atraso na transmissão dos quadros Isso ocorre porque o GOP é transmitido como uma unidade e portanto a transmissão não pode ter início até que o GOP esteja completo Fig 638 Os detalhes do procedimento estão além do escopo deste texto Numerosos livros cobrem este assunto em detalhe Além disso várias referências sobre compressão MPEG e HDTV podem ser encontradas na internet Figura 638 Estrutura temporal de quadros MPEG Outros Padrões de Compressão de Vídeo Devemos mencionar que além do MPEG há um esforço paralelo da ITUT para padronizar a codificação de vídeo Esses padrões aplicam conceitos similares aos estudados para compressão de vídeo Atualmente os mais conhecidos padrões ITUT para compressão de vídeo são os da série H26x incluindo H261 H263 e H264 O padrão H261 foi desenvolvido para transmissão de vídeo a uma taxa de múltiplos de 64 kbits para aplicações como videotelefonia e videoconferência Assim como a compressão MPEG o H261 usa predição temporal por compensação de movimento O H263 foi projetado para aplicações em codificação a taxas de bits muito baixas como videoconferência Este padrão utiliza a estrutura DCT com compensação de movimento 30 Baseado no H261 o H263 foi otimizado para codificação a taxas de bits muito baixas e sua eficiência de codificação é maior que a do H261 Flash Video um formato extremamente popular para compartilhamento de vídeo em muitos web sites como YouTube e MySpace emprega uma variante do H263 conhecida como codec Sorenson Spark O padrão H264 representa na verdade a convergência entre ITUT e MPEG sendo um esforço conjunto dos dois grupos Também conhecido como MPEG4 Parte 10 o H264 tem melhor desempenho que o MPEG2 e reduz a taxa de dados em quase 50 Esse versátil padrão suporta aplicações de vídeo em diferentes graus de largura de banda e qualidade incluindo serviço de telefonia móvel em 5060 kbits vídeo com padrão internet a 12 Mbits e vídeo de alta definição a 58 Mbits O H264 também é suportado em diversos outros produtos e aplicações como IPod difusão direta de TV por satélite algumas TV terrestres regionais Mac OS X Tiger e Playstation Portable da Sony Nota sobre Televisão de Alta Definição HDTV A televisão de alta definição HDTV que emprega o padrão MPEG2 para compressão de vídeo é uma das funções de televisão avançada ATV advanced television com vídeo comprimido de 525 linhas para difusão direta por satélite DBS direct broadcast satellite ou por cabo O conceito de HDTV surgiu no final da década de 1970 Os primeiros desenvolvimentos se deram principalmente no Japão com base em um sistema analógico Em meados dos anos 1980 ficou claro que a largura de banda exigida pelo sistema analógico era excessiva Foram então iniciados trabalhos para um sistema digital que utilizasse a largura de banda de 6 MHz do sistema de televisão NTSC No início da década de 1990 foram propostos sete sistemas digitais mas testes indicaram que nenhum seria satisfatório Em consequência em 1993 a FCC sugeriu a formação de uma Grande Aliança GA Grand Alliance industrial para desenvolver um padrão HDTV Em dezembro de 1997 o padrão A53 para difusão de televisão proposto pelo Comitê de Sistemas Avançados de Televisão ATSC Advanced Television Systems Committee foi finalizado pela FCC nos Estados Unidos O padrão de HDTV do GA tem por base uma razão de aspecto de 169 razão de aspecto de cinema em vez da razão de aspecto de 43 do sistema NTSC de televisão A HDTV utiliza compressão MPEG2 a 1939 Mbits e formato de modulação digital denominado 8VSB banda lateral vestigial que usa um símbolo com oito níveis de amplitude para representar 3 bits de 69 informação A transmissão é feita em blocos de 207 bytes incluindo 20 bytes de paridade para código de correção de erro para a frente ReedSolomon O formato de pacote com os restantes 187 bytes é um subconjunto do protocolo MPEG2 e inclui cabeçalhos para sincronização comutação e outros controles de transmissão O Comitê de Sistemas Avançados de Televisão sucessor da Grande Aliança prossegue com o desenvolvimento de padrões e recomendações para HDTV que podem ser encontrados assim como uma variedade de outras informações em httpwwwatscorg EXERCÍCIOS COM O MATLAB Nos exercícios com o MATLAB desta seção fornecemos exemplos de amostragem de sinal reconstrução de um sinal a partir de amostras quantização uniforme modulação por modificação de pulsos PCM e modulação delta DM Amostragem e Reconstrução de Sinais PassaBaixas No exemplo de amostragem primeiro construímos um sinal gt com duas componentes senoidais de 1 segundo de duração suas frequências são 1 e 3 Hz Reparemos contudo que a duração finita do sinal implica que o mesmo não é limitado em banda embora a maior parte do conteúdo esteja em uma largura de banda de 5 Hz Por isso selecionamos uma frequência de amostragem de 50 Hz muito maior que a mínima frequência de Nyquist de 6 Hz O programa MATLAB Exsamplem implementa a amostragem e a reconstrução do sinal A Fig 639 ilustra o sinal original suas amostras uniformes à taxa de amostragem de 50 Hz e a resposta de frequência do sinal amostrado Segundo a análise na Seção 61 o espectro do sinal amostrado g T t consiste na repetição do espectro do sinal original a cada 50 Hz Figura 639 Relação entre sinal original e sinal amostrado uniformemente ideal nos domínios do tempo a e da frequência b c FaxislinspacefmaxfmaxLfft XsigfftshiftfftxsigLfft soutifftshiftfftsoutLfft Exemplos de amostragem e reconstrução usando a terem de impulsos ideais por LPF b reconstrução com pulso retangular por meio de LPF traça gráfico do sinal original e do sinal amostrado nos domínios do tempo e da frequência figure1 subplot311 siglqplottxsigk hold off setsiglqLinewidth2 setsfiglLinewidth2 xlabeltempo segundos titlesinal it g it t e suas amostras uniformes subplot312 siglclplotFaxisabsXsig xlabelfrequência Hz axis150 150 0 300 setsiglclLinewidth1 titleEspectro de it g it t subplot313 sigldplotFaxisabsSout xlabelfrequência Hz axis150 150 0 300Nfactor setsiglcLinewidth1 titleEspectro de it g T it t LPF filtro passabaixas ideal Para construir o sinal original gt do trem de impulsos de amostragem g T t aplicamos um filtro passabaixas ideal com largura de banda de 10 Hz no domínio da frequência Isso corresponde à interpolação usando a função sinc ideal como mostrado na Seção 611 O espectro resultante como ilustrado na Fig 640 é quase idêntico ao espectro da mensagem original gt Além disso as formas de onda no domínio do tempo também são comparadas na Fig 640 e mostram um casamento quase perfeito Em nosso último exercício sobre amostragem e reconstrução dado no mesmo programa usamos um pulso retangular de largura T s período de amostragem para reconstruir o sinal original a partir das amostras Fig 641 Um filtro passabaixas é aplicado à reconstrução retangular e o resultado também é mostrado na Fig 641 A comparação com o sinal original deixa claro que o sinal recuperado ainda é muito próximo do sinal original gt Isso se deve ao fato de termos escolhido uma alta taxa de amostragem tal que T p T s fosse tão pequeno que a aproximação na Eq 617 fosse válida Certamente com base em nossa análise com aplicação do filtro de equalização passabaixas da Eq 616 o erro de reconstrução pode ser muito reduzido Figura 640 Espectro e forma de onda do sinal reconstruído com aplicação de amostragem ideal por impulsos e filtro passabaixas ideal para reconstrução Figura 641 Espectro e forma de onda do sinal reconstruído com aplicação de pulso retangular de reconstrução Fig 66 seguido por LPF sem equalização Exemplo de PCM A quantização uniforme de um sinal analógico usando L níveis de quantização pode ser implementada com a função MATLAB uniquanm A função sampandquantm executa amostragem e quantização uniforme simultaneamente O período de amostragem ts é necessário assim como o número L de níveis de quantização para gerar a saída amostrada sout a saída amostrada e quantizada sqout e o sinal após amostragem quantização e retenção de ordem zero sqhout O programa MATLAB ExPCMm fornece um exemplo numérico que usa essas duas funções MATLAB para gerar sinais PCM No primeiro exemplo mantivemos a frequência de amostragem de 50 Hz e utilizamos L 16 níveis de quantização uniforme O resultante sinal PCM é mostrado na Fig 642 Este sinal PCM pode ser aplicado a um filtro passabaixas no receptor e comparado com o sinal de mensagem original como na Fig 643 Podemos observar que sinal recuperado é muito próximo do sinal original gt Figura 642 Sinal original e sinais PCM obtidos com diferentes níveis de quantização Figura 643 Comparação entre o sinal original e os sinais PCM após filtragem passabaixas para recuperar a mensagem original Para ilustrar o efeito da quantização aplicamos L 4 níveis de quantização PCM O sinal resultante PCM também é mostrado na Fig 642 O correspondente sinal recuperado é mostrado na Fig 643 Fica claro que o menor número de níveis de quantização L 4 resulta em maior erro de aproximação Modulação Delta Em vez de aplicar PCM ilustremos o efeito prático da seleção do incremento Δ no projeto do codificador DM A função básica para a implementação de DM é dada em deltamodm Para gerar sinais DM com diferentes incrementos aplicamos o mesmo sinal gt usado no exemplo PCM O programa MATLAB ExDMm aplica três valores de incrementos Δ 1 02 Δ 2 2Δ 1 e Δ 3 4Δ 1 ExDMm Exemplo de amostragem quantização e retenção de ordem zero clearclf td0002 taxa de amostragem original 500 Hz t001 xsigsin2pitsin6pit senoides de 1Hz3Hz Lsiglengthxsig ts002 nova taxa de amostragem 50Hz Nfactortstd envia o sinal por meio de um quantizador uniforme de 16 níveis Delta102 Primeiro seleciona pequeno Delta 02 em DM sDMout1deltamodxsigDelta1tdts sinal DM obtido traça gráfico do sinal original e do sinal DM no domínio do tempo figure1 subplot311sig1plottxsigktsDMout11Lsigb setsig1Linewidth2 titleSinal it g it t e sinal DM xlabeltempo segundos axis0 1 22 22 Aplica DM novamente dobrando o valor de Delta Delta22Delta1 sDMout2deltamodxsigDelta2tdts sinal DM obtido traça gráfico do sinal original e do sinal DM no domínio do tempo subplot312sig2plottxsigktsDMout21Lsigb setsig2Linewidth2 titleSinal it g it t e sinal DM com incremento dobrado xlabeltempo segundos axis0 1 22 22 Delta32Delta2 Dobrar o incremento DM novamente sDMout3deltamodxsigDelta3tdts traça gráfico do sinal original e do sinal DM no domínio do tempo 1 2 3 4 Figura 644 Exemplos de saída de modulação delta com três valores de incremento a pequeno incremento resulta em sobrecarga b incremento de valor razoável c incremento grande causa grande erro de quantização Para ilustrar o efeito de DM os sinais resultantes do codificador DM são mostrados na Fig 644 Este exemplo mostra claramente que quando o valor do incremento é demasiadamente pequeno Δ 1 há um grande efeito de sobrecarga pois o sinal original varia tão rápido que o pequeno incremento não é capaz de acompanhar Dobrar o incremento DM resolve o problema de sobrecarga neste exemplo Contudo a quadruplicação do valor do incremento Δ 3 produziria erro de quantização desnecessariamente grande Este exemplo portanto confirma nossa análise anterior que indicou que a seleção do valor do incremento é crítica REFERÊNCIAS D A Linden A discussion of sampling theorem Proc IRE vol 47 no7 pp 12191226 July 1959 H P Kramer A Generalized Sampling Theorem J Math Phys vol 38 pp 6872 1959 W R Bennett Introduction to Signal Transmission McGrawHill New York 1970 W S Anglin and J Lambek The Heritage of Thales Springer Berlin 1995 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 611 B Smith Instantaneous Companding of Quantized Signals Bell Syst Tech J vol 36 pp 653709 May 1957 ITUT Standard Recommendation G711 English 1989 ITUT Standard Recommendation G726 English 1990 C L Dammann L D McDaniel and C L Maddox D2 Channel Bank Multiplexing and Coding Bell Syst Tech J vol 51 pp 16751700 Oct 1972 KW Cattermole Principles of PulseCode Modulation Ilife England 1969 Bell Telephone Laboratories Transmission Systems for Communication 4th ed Bell Murray Hill NJ 1970 E L Gruenberg Handbook of Telemetry and Remote Control McGrawHill New York 1967 J B ONeal Jr Delta Modulation Quantizing Noise Analytical and Computer Simulation Results for Gaussian and Television Input Signals Bell Syst Tech J pp 117141 Jan 1966 F de Jager Delta Modulation a Method of PCM Transmission Using the 1Unit Code Philips Res Rep no 7 pp 442 466 1952 A Tomozawa and H Kaneko Companded Delta Modulation for Telephone Transmission IEEE Trans Commun Technol vol CT16 pp 149157 Feb 1968 B S Atal Predictive Coding of Speech Signals at Low Bit Rates IEEE Trans Commun vol COMM30 pp 600614 1982 J P Campbell and T E Tremain VoicedUnvoiced Classification of Speech with Applications to the US Government LPC10E Algorithm Proc IEEE Int Conf Acoust Speech Signal Process Tokyo pp 473476 1986 A Gersho Advances in Speech and Audio Compression Proc IEEE vol 82 pp 900918 1994 L R Rabiner and R W Schafer Digital Processing of Speech Signals PrenticeHall Englewood Cliffs NJ 1978 Lajos Hanzo Jason Woodward and Clare Sommerville Voice Compression and Communications Wiley Hoboken NJ 2001 N Levinson TheWiener rms Error Criterion in Filter Design and Prediction J Math Phys vol 25 pp 261278 1947 A H Sayed Fundamentals of Adaptive Filtering WileyIEEE Press Hoboken NJ 2003 J Y Stein Digital Signal Processing A Computer Science Perspective Wiley Hoboken NJ 2000 K K Paliwal and BW Kleijn Quantization of LPC Parameters in Speech Coding and Synthesis W B Kleijn and K K Paliwal Eds Elsevier Science Amsterdam 1995 T E Tremain The Government Standard Linear Predictive Coding Algorithm LPC10 Speech Technol 4049 1982 M R Schroeder and B S Atal CodeExcited Linear Prediction CELP HighQuality Speech at Very Low Bit Rates in Proc IEEE Int Conf Acoustics Speech Signal Process ICASSP vol 10 pp 937940 1985 S Mallat ATheory of Multiresolution Signal Decomposition TheWavelet Representation IEEE Trans Pattern Anal Machine Intel vol 11 pp 674693 1989 M J Smith and T P Barnwell Exact Reconstruction for Tree Structured SubBand Coders IEEE Trans Acoustics Speech Signal Process vol 34 no 3 pp 431441 1986 B G Haskel A Puri and A N Netravali Digital Video An Introduction to MPEG2 Chapman Hall New York 1996 J L Mitchell W B Pennebaker CE Fogg and D J LeGall MPEG Video Compression Standard Chapman Hall New York 1996 ITUT Recommendation H263 Video Coding for Low Bit Rate Communication EXERCÍCIOS A Fig E611 mostra os espectros de Fourier dos sinais g 1 t e g 2 t Determine o intervalo de Nyquist e a taxa de amostragem para os sinais g 1 t g 2 t e g 1 tg 2 t Sugestão Use convolução em frequência e a propriedade de largura da convolução Figura E611 612 a b c d e 613 614 a b c d 615 616 Determine a taxa de amostragem e o intervalo de amostragem de Nyquist para os sinais sinc 100πt sinc 2 100πt sinc 100πt sinc 50πt sinc 100πt 3 sinc 2 60πt sinc 50πt sinc 100πt Um sinal gt limitado em banda a B Hz é amostrado por um trem de pulsos periódicos p Ts t consistindo em um pulso retangular de largura 18B segundo centrado na origem que é repetido à taxa de Nyquist 2B pulsos por segundo Mostre que o sinal amostrado é dado por Mostre que o sinal gt pode ser recuperado com a aplicação de a um filtro passabaixas ideal de largura de banda B Hz e ganho 4 Um sinal gt sinc 2 5πt é amostrado usando impulsos uniformemente espaçados a uma taxa de i 5 Hz ii 10 Hz iii 20 Hz Para cada caso Esboce o gráfico do sinal amostrado no domínio do tempo Esboce o gráfico do espectro do sinal amostrado Explique se é possível recuperar o sinal gt do sinal amostrado Se o sinal amostrado for aplicado a um filtro passabaixas ideal de largura de banda 5 Hz esboce o gráfico do espectro do sinal de saída Os sinais g 1 t 10 4 Π10 4 t e g 2 t δt são aplicados às entradas de filtros passabaixas ideais H 1 f Πf20000 e H 2 f Πf10000 Fig E615 As saídas y 1 t e y 2 t desses filtros são multiplicadas para produzir o sinal yt y 1 ty 2 t Determine a taxa de Nyquist para y 1 t y 2 t e yt Use a propriedade da convolução e a propriedade de largura da convolução para determinar a largura de banda de y 1 ty 2 t Veja também o Exercício 611 Figura E615 Um circuito de retenção de ordem zero Fig E616 é muitas vezes usado para reconstruir um sinal gt a partir de suas amostras Figura E616 a b c a b c 618 621 a b c 622 a b c d 617 Determine a resposta ao impulso unitário desse circuito Determine a função de transferência Hf e esboce o gráfico de Hf Mostre que quando um sinal amostrado é aplicado à entrada desse circuito a saída é uma aproximação em degraus de gt O intervalo de amostragem é T s Um circuito de retenção de primeira ordem também pode ser usado para reconstruir um sinal gt de suas amostras A resposta ao impulso desse circuito é em que T s é o intervalo de amostragem Considere um típico sinal amostrado e mostre que esse circuito efetua interpolação linear Em outras palavras a saída do filtro consiste em amostras cujos picos são conectados por segmentos de linha reta Siga o procedimento discutido na Seção 611 Fig 62b Determine a função de transferência e a resposta de amplitude desse filtro e comparea com a do filtro ideal necessário à reconstrução do sinal Por ser não causal esse filtro é irrealizável Sugira uma modificação que torne esse filtro realizável Como tal modificação afetaria a reconstrução de gt de suas amostras Como afetaria a resposta de frequência do filtro Prove que um sinal não pode ser simultaneamente limitado no tempo e em largura de banda Sugestão Mostre que a hipótese oposta leva a uma contradição Admita que um sinal seja simultaneamente limitado no tempo e em largura de banda de modo que Gf 0 para f B Neste caso Gf Gf Πf2B para B B Isso significa que gt é igual a gt 2 B sinc2π Bt Mostre que a última função não pode ser limitada no tempo O Código Padrão Americano para Intercâmbio de Informação ASCII American Standart Code for Information Interchange tem 128 caracteres que são codificados em binário Se um certo computador gerar 100000 caracteres por segundo determine O número de bits dígitos binários necessários para a representação de cada caractere O número de bits por segundo necessário para transmitir a saída do computador e a mínima largura de banda exigida para a transmissão do sinal Para a capacidade de detecção de um erro um bit bit de paridade é adicionado ao código de cada caractere Modifique suas respostas aos itens a e b tendo em vista essa informação Um compact disc CD grava sinais de áudio digitalmente com uso de PCM Admita que a largura de banda do sinal de áudio seja igual a 15 kHz Se as amostras de Nyquist forem uniformemente quantizadas em L 65536 níveis e então codificadas em binário determine o número de dígitos binários necessários para codificar uma amostra Se o sinal de áudio tiver potência média de 01 watt e tensão de pico de 1 volt determine a resultante relação sinalruído de quantização SQNR da saída quantizada uniformemente na parte a Determine o número de dígitos binários por segundo bits requerido para a codificação do sinal de áudio Pelas razões práticas discutidas no texto sinais são amostrados a uma taxa bem acima da taxa de Nyquist CDs usados na vida real empregam 44100 amostras por segundo Se L 65536 determine o número de bits por segundo necessário para a codificação do sinal e a mínima largura de banda requerida para a transmissão do sinal codificado 623 a b c 624 625 626 627 Um sinal de televisão vídeo e áudio tem largura de banda de 45 MHz Esse sinal é amostrado e codificado em binário para produzir um sinal PCM Determine a taxa de amostragem quando o sinal for amostrado a uma taxa 20 acima da taxa de Nyquist Se as amostras forem quantizadas em 1024 níveis determine o número de pulsos binários necessários à codificação de cada amostra Determine a taxa de pulsos binários bits por segundo do sinal codificado em binário e a mínima largura de banda necessária à transmissão do sinal Cinco sinais de telemetria cada um com largura de banda de 240 Hz devem ser transmitidos simultaneamente por PCM binário Os sinais devem ser amostrados a uma taxa pelo menos 20 acima da taxa de Nyquist O enquadramento e a sincronização requerem 05 bits adicionais Um codificador PCM é usado para converter esses sinais antes que sejam multiplexados no tempo em um fluxo de dados Determine a mínima taxa de bits bits possível que deve ser transmitida e a mínima largura de banda necessária à transmissão do sinal multiplexado Desejamos montar uma estação central para o monitoramento simultâneo de eletrocardiogramas ECG de 10 pacientes hospitalizados Os dados dos 10 pacientes são levados ao centro de processamento por meio de fios e são amostrados quantizados codificados em binário e multiplexados por divisão no tempo Os dados multiplexados são então transmitidos à estação de monitoramento Fig E625 A largura de banda do sinal ECG é de 100 Hz O máximo erro aceitável em amplitudes de amostras é de 025 da amplitude de pico do sinal A taxa de amostragem deve ser pelo menos o dobro da taxa de Nyquist Determine a mínima largura de banda do cabo necessária para transmitir estes dados Figura E625 Um sinal de mensagem mt é transmitido por PCM binário sem compressão Se a necessária SQNR for de pelo menos 47 dB determine o mínimo valor requerido para L 2 n supondo que mt seja senoidal Determine a real SQNR obtida com este valor mínimo de L Repita o Exercício E626 para o sinal mt mostrado na Fig E627 Sugestão A potência de um sinal periódico é a média de sua energia em um ciclo Neste caso como a amplitude do sinal assume o mesmo valor a cada quarto de ciclo a potência também pode ser obtida da 628 629 a b 6210 641 642 643 671 a b c d e energia média em um quarto de ciclo Figura E627 Para um sinal PCM determine L quando o parâmetro de compressão μ 100 e a mínima SNR necessária é de 45 dB Determine com este valor de L a SQNR da saída Lembrese de que L deve ser uma potência de 2 ou seja L 2 n para um sinal PCM binário Um sinal limitado em banda a 1 MHz é amostrado a uma taxa 50 maior que a taxa de Nyquist e com o uso de um quantizador de lei μ é quantizado em 256 níveis empregando μ 255 Determine a relação sinalruído de quantização SQNR A SQNR qualidade do sinal recebido calculada na parte a era insatisfatória e deve ser aumentada em pelo menos 10 dB Caso fosse observado que uma taxa de amostragem 20 acima da de Nyquist era suficiente você seria capaz de obter a desejada SQNR sem aumentar largura de banda de transmissão Foi determinado que a SQNR de saída de um PCM de 10 bits estava 30 dB abaixo do necessário Para alcançar a desejada SNR de 42 dB foi aumentado o número de níveis de quantização L Determine o aumento relativo na largura de banda de transmissão acarretado pelo aumento de L Em um certo sistema de telemetria há quatro sinais analógicos m 1 t m 2 t m 3 t e m 4 t A largura de banda de m 1 t é de 36 kHz a largura de banda de cada um dos sinais restantes é de 14 kHz Cada sinal deve ser amostrado a taxa não inferior à correspondente taxa de Nyquist e os sinais devem ser multiplexados palavra a palavra Isso pode ser feito com a multiplexação de amostras PAM dos quatro sinais seguida da codificação binária das amostras multiplexadas como no caso da portadora T1 na Fig 620a Sugira um esquema de multiplexação adequado a este propósito Qual é a frequência do comutador em rotações por segundo Nota Em alguns casos pode ser necessário amostrar algumns sinalis a taxas superiores às correspondentes taxas de Nyquist Repita o Exercício 641 para o caso de quatro sinais m 1 t m 2 t m 3 t e m 4 t com larguras de banda de 1200 700 300 e 200 Hz respectivamente Sugestão Primeiro multiplexe m 2 t m 3 t e m 4 t e depois multiplexe o sinal composto com m 1 t Um sinal m 1 t é limitado em banda a 36 kHz e três outros sinais m 2 t m 3 t e m 4 t são limitados em banda a 12 kHz cada um Esses sinais são amostrados à taxa de Nyquist e codificados em binário com 512 níveis de quantização L 512 Sugira um esquema adequado de multiplexação bit a bit como na Fig 612 Qual é a frequência do comutador em rotações por segundo e qual é a taxa de bits de saída Em um sistema DM de integração simples o sinal de voz é amostrado a uma taxa de 64 kHz como em PCM A máxima amplitude normalizada de sinal é A max 1 Determine o valor mínimo do incremento σ para evitar sobrecarga Determine a potência de ruído granular N o se a largura de banda do sinal de voz for 34 kHz Admitindo que o sinal de voz seja senoidal determine S o e a SNR Admitindo que a amplitude do sinal de voz seja uniformemente distribuída no intervalo 1 1 determine S o e a SNR Determine a mínima largura de banda de transmissão O espectro Gf na Fig 61b é mostrado como real por conveniência Os argumentos são igualmente válidos para Gf complexo O teorema enunciado e provado aqui se aplica a sinais passabaixas Um sinal passafaixa cujo espectro exista em uma banda de frequências f c B2 f f c B2 tem uma largura de banda B Hz Um sinal desse tipo também pode ser recuperado exatamente de amostras tomadas à frequência de Nyquist 2B definida acima Neste caso em geral o teorema da amostragem é mais complexo e faz uso de dois trens de amostragem uniforme entrelaçados cada um na metade da taxa total de amostragem R s B As referências 1 e 2 podem ser consultadas para mais detalhes A Fig 68b mostra que dentre um número infinito de ciclos repetitivos apenas ciclos espectrais vizinhos se sobrepõem Esta é uma imagem simplificada Na verdade todos os ciclos se sobrepõem e interagem com todos os outros devido à largura infinita do espectro de qualquer sinal prático Felizmente todos os espectros práticos também devem decair nas frequências altas Isso resulta em um grau insignificante de interferência de ciclos que não sejam vizinhos imediatos Quando esta hipótese não se aplica o cálculo de mascaramento se torna mais elaborado Componentes abaixo de 300 Hz também podem ser suprimidas sem afetar a articulação O erro na detecção dos pulsos pode ser desprezado Aqueles que têm familiaridade com a teoria da probabilidade podem deduzir esse resultado diretamente observando que a densidade de probabilidade do erro de quantização q é 12m p L L2m p no intervalo q m p L e zero para qualquer outro valor de q Logo Em uma versão anterior cada amostra era codificada por sete bits Um bit adicional foi acrescentado para sinalização Na versão anterior de T1 os níveis de quantização L 128 requeriam apenas sete bits de informação O oitavo bit era usado para sinalização synchronous optical networks ou redes ópticas síncronas versão óptica da hierarquia digital síncrona de uso padronizado na América do Norte Existe um padrão internacional semelhante SDH synchronous digital hierarchy utilizado no resto do mundo NT De Shakespeare Henrique IV Parte 1 Ato III Cena I Glendower Posso evocar espíritos do abismo Hotspur Isso até eu e assim qualquer pessoa Mas eles vêm no caso de os chamardes Da tradução disponível em httpwwwebooksbrasilorgeLibrishenry4html12 NT Pequena protuberância na frente da garganta formada pela maior cartilagem da laringe em geral mais saliente no homem que na mulher Assim chamado porque usa ordem p 10 A ideia é alocar dois parâmetros a cada possível pico de frequência formante D 71 711 urante a maior parte do século vinte uma parcela significativa de sistemas de comunicação era de forma analógica Contudo ao final da década de 1990 o formato digital começou a dominar a maioria das aplicações Não é necessário muito esforço para que percebamos a contínua migração de comunicação analógica para digital do áudio em fita cassete para MP3 e CD da TV analógica NTSC ou PALM para a digital HDTV da telefonia tradicional para VoIP e do vídeo em VHS para DVD Na verdade até o último refúgio analógico da radiodifusão enfrenta um poderoso competidor digital na forma de rádio por satélite Dada a importância dominadora de sistemas de comunicação digital em nosso dia a dia nunca é cedo demais para estudar os princípios básicos e vários aspectos de comunicação de dados digitais como faremos neste capítulo Este capítulo trata do problema da transmissão de dados digitais em um canal Portanto consideraremos que as mensagens iniciais são digitais Iniciaremos com a consideração do caso binário em que os dados consistem em somente dois símbolos 1 e 0 Aloquemos uma forma de onda pulso distinta a cada um desses símbolos A resultante sequência de pulsos é transmitida através do canal No receptor esses pulsos são detectados e convertidos aos dados binários 1s e 0s SISTEMAS DE COMUNICAÇÃO DIGITAL Um sistema de comunicação digital consiste em diversos componentes como indicado na Fig 71 Nesta seção delinearemos de forma conceitual a funcionalidade de cada componente em sistemas de comunicação Os detalhes de análise e projeto serão apresentados posteriormente no capítulo em seções dedicadas Fonte A entrada de um sistema digital toma a forma de uma sequência de dígitos A entrada pode ser a saída de um conjunto de dados de um computador um sinal de áudio digitalizado PCM DM ou LPC facsímile digital HDTV dados de telemetria e assim por diante Embora a maior parte da discussão neste capítulo seja restrita ao caso binário esquemas de comunicação que usam apenas dois símbolos o caso mais geral de comunicação Mária que utiliza M símbolos também será discutido nas Seções 77 e 79 Figura 71 Blocos fundamentais de um sistema de comunicação digital 712 Figura 72 Exemplos de códigos de linha a onoff RZ b polar RZ c bipolar RZ d onoff NRZ e polar NRZ Codificador de Linha A saída digital de um codificador de fonte é convertida ou codificada em pulsos elétricos formas de onda para fins de transmissão no canal Esse processo recebe a denominação codificação de linha ou codificação de transmissão Há muitas formas possíveis de alocar formas de onda pulsos aos dados digitais No caso binário 2 símbolos por exemplo a codificação de linha conceitualmente mais simples é onoff ligadesliga em que 1 é transmitido por um pulso pt e 0 é transmitido por ausência de pulso sinal nulo como mostrado na Fig 72a Outro código de uso muito comum é o polar em que 1 é transmitido por um pulso pt e 0 é transmitido por um pulso pt Fig 72b O esquema polar é o código com a maior eficiência de potência pois para um dado grau de imunidade ao ruído probabilidade de erro requer a menor potência Outro código popular em PCM é o bipolar também conhecido como pseudoternário ou inversão alternada de sinal AMI alternate mark inversion em que 0 é codificado por ausência de pulso e 1 é codificado por um pulso pt ou pt dependendo se o 1 anterior foi codificado por pt ou pt Em resumo pulsos que representam 1s sucessivos têm sinais alternados como indicado na Fig 72c Esse código tem a vantagem de que se ocorrer um único erro na detecção de pulsos a sequência de pulsos recebida violará a regra bipolar e o erro poderá ser detectado imediatamente embora não possa ser corrigido Outro código de linha que inicialmente pareceu promissor é o duobinário e duobinário modificado proposto por Lender 1 2 Esse código é melhor que o bipolar em termos de eficiência de largura de banda Sua versão mais proeminente o código de linha duobinário modificado tem sido aplicada em canais de leitura de hard disc drives em transmissão óptica a 10 Gbits para redes metropolitanas e na primeira geração de modems para rede digital de serviços integradas ISDN integrated services digital networks Detalhes de códigos de linha duobinários serão discutidos mais adiante neste capítulo Até aqui em nossa discussão usamos pulsos de meia largura somente para facilitar a ilustração Podemos selecionar outras larguras Pulsos de largura completa são usados em algumas aplicações Sempre que pulsos de largura completa são utilizados a amplitude do pulso é mantida em um valor constante durante toda a duração do pulso isto é a amplitude não retorna a zero antes do início do pulso seguinte Por essa razão tais esquemas são denominados sem retorno ao zero ou esquemas NRZ nonreturn 713 714 tozero em contraste com esquemas com retorno ao zero ou RZ returntozero Fig 72ac A Fig 72d mostra um sinal NRZ onoff e a Fig 72e um sinal NRZ polar Multiplexador Em termos gerais a capacidade de um canal físico por exemplo cabo coaxial fibra óptica para transmitir dados é muito maior que a taxa de dados de uma fonte Para utilizar essa capacidade de modo eficaz combinamos várias fontes por meio de um multiplexador digital A multiplexação digital pode ser feita por divisão em frequência ou por divisão no tempo como já discutimos A divisão em código a ser discutida no Capítulo 11 também é uma alternativa prática e eficiente Um canal físico é portanto compartilhado por várias mensagens simultâneas Repetidor Regenerador Repetidores regeneradores são usados em intervalos regularmente espaçados ao longo de uma linha de transmissão digital para detectar o sinal digital que chega e regenerar novos pulsos limpos para transmissão em mais um trecho da linha Esse processo periódico elimina e portanto combate o acúmulo de ruído e distorção de sinal na extensão da rota de transmissão A capacidade de eliminação de ruído e efeitos de distorção de sinal desses repetidores regeneradores é uma das maiores vantagens de sistemas de comunicação digital em relação aos sistemas analógicos Se forem transmitidos pulsos a uma taxa de R b pulsos por segundo é necessário ter informação de temporização periódica o sinal de relógio na frequência R b Hz para amostrar os pulsos que chegam ao receptor Essa informação de temporização pode ser extraída do próprio sinal recebido desde que o código de linha seja escolhido de forma adequada A retificação do sinal polar RZ na Fig 72b por exemplo produz um sinal de relógio periódico de frequência R b Hz que contém o desejado sinal periódico de temporização de frequência R b Hz Quando esse sinal é aplicado a um circuito ressonante sintonizado na frequência R b a saída que é uma senoide de frequência R b Hz pode ser usada para a temporização O sinal onoff pode ser expresso como a soma de um sinal periódico na frequência do relógio e um sinal polar ou randômico como mostrado na Fig 73 Devido à presença da componente periódica podemos extrair a informação de temporização desse sinal com o uso de um circuito ressonante sintonizado na frequência do relógio Um sinal bipolar ao ser retificado se torna um sinal onoff Portanto a informação de temporização pode ser extraída da mesma forma como para um sinal onoff Figura 73 Sinal onoff a é a soma de um sinal polar randômico b com um sinal periódico na frequência do relógio c O sinal de temporização saída do circuito ressonante é sensível ao padrão de bit de chegada No caso onoff ou polar um 0 é transmitido por ausência de pulso Assim se houver um grande número de 0s em uma sequência ausência de pulsos não haverá sinal na entrada do circuito ressonante e sua saída senoidal passa a decair originando erro na informação de temporização Mais adiante discutiremos formas de solucionar esse problema Dizemos que código de linha é transparente quando o padrão de bits não afeta a precisão da informação de temporização O esquema polar RZ em que cada bit é transmitido por algum pulso é transparente os esquemas onoff e bipolar não são transparentes 72 721 CODIFICAÇÃO DE LINHA Dados digitais podem ser transmitidos por vários códigos de linha ou de transmissão Vimos exemplos de códigos onoff polar e bipolar Cada código de linha tem suas vantagens e desvantagens Entre outras propriedades desejáveis um código de linha deve ter as seguintes Largura de banda de transmissão tão pequena quanto possível Eficiência de potência Para dadas largura de banda e taxa de erros de detecção a potência transmitida deve ser tão baixa quanto possível Capacidade de detecção e correção de erros É desejável que erros sejam detectados e de preferência corrigidos No caso bipolar por exemplo um erro isolado causará violação da regra bipolar e poderá ser facilmente detectado Códigos corretores de erros serão discutidos em detalhe no Capítulo 14 Densidade espectral de potência favorável É desejável ter densidade espectral de potência PSD zero em f 0 dc pois acoplamento e transformadores ac são usados nos repetidores Potência significativa nas componentes de frequências baixas também deve ser evitada pois causa ondulação dc dc wander na sequência de pulsos quando acoplamento ac é usado Conteúdo de temporização adequado Deve ser possível extrair a informação de temporização ou de relógio do sinal Transparência A transmissão correta de um sinal digital deve ser possível independentemente do padrão de 1s e 0s Vimos nos casos de códigos onoff e bipolar que uma longa sequência de 0s pode causar problema para a extração de temporização Um código é transparente se os dados forem codificados de modo que para qualquer sequência possível de bits o sinal codificado possa ser detectado com fidelidade PSD de Diversos Códigos de Linha No Exemplo 319 discutimos o procedimento para determinar a PSD de um trem de pulsos polares Usemos um procedimento similar para determinar uma expressão geral para PSD de sinais resultantes da modulação em banda base codificação de linha como ilustrado na Fig 71 Em particular aplicamos diretamente a relação entre PSD e a função de autocorrelação do sinal da modulação em banda base dada na Seção 38 Eq 385 Na discussão a seguir consideramos um pulso genérico pt cuja transformada de Fourier é Pf Denotamos o símbolo do código de linha no instante de tempo k por a k Se a taxa de transmissão for R b 1T b pulsos por segundo o código de linha gera um trem de pulsos construído a partir do pulso básico pt com amplitude a k e iniciando no tempo t kT b em outras palavras o késimo símbolo é transmitido como a k pt kT b A Fig 74a fornece uma ilustração de um pulso especial pt enquanto a Fig 74b mostra o correspondente trem de pulsos gerado pelo codificador de linha na banda base Como mostrado na Fig 74b contando uma sucessão de transmissões de símbolos espaçados por T b segundos o sinal em banda base é um trem de pulsos da forma Figura 74 Sinal modulado em amplitude por sequência aleatória de pulsos e sua geração por um trem de impulsos PAM Reparamos que o codificador de linha determina o símbolo a k como a amplitude do pulso pt kT b Os valores de a k são aleatórios e dependem da entrada do codificador de linha e do próprio código de linha yt é um sinal modulado em amplitude de pulso sinal PAM Os códigos de linha onoff polar e bipolar são casos especiais desse trem de pulsos yt em que a k assume os valores 0 1 ou 1 de modo aleatório sujeito a algumas condições Podemos portanto analisar muitos códigos de linha segundo a PSD de yt Infelizmente a PSD de yt depende de a k e de pt Se a forma do pulso pt for alterada pode ser necessário refazer todo o cálculo da PSD Essa dificuldade pode ser contornada com o simples artifício de selecionar um sinal PAM xt que use um impulso unitário como o pulso básico pt Fig 74c Os impulsos ocorrem a intervalos T b e a intensidade área do késimo impulso é a k Se xt for aplicado à entrada de um filtro cuja resposta ao impulso seja ht pt Fig 74d a saída será o trem de pulsos yt na Fig 74b Além disso aplicação da Eq 392 permite calcular a PSD de yt como S y f pf 2S x f Essa relação nos permite determinar S y f a PSD de um código de linha que corresponde a uma forma de onda pt qualquer uma vez que conheçamos S x f A generalidade dessa abordagem a torna atrativa Agora precisamos determinar R x τ a função de autocorrelação temporal do trem de impulsos xt Isso pode ser feito com certa facilidade se considerarmos o impulso como uma forma limite de pulsos retangulares como mostrado na Fig 75a Cada pulso tem uma largura 0 e a altura do késimo pulso é dada por Com isso garantimos que a intensidade do késimo impulso seja a k ou Se designarmos o correspondente trem de pulsos retangulares por então por definição Eq 382 na Seção 38 Como é uma função par de τ Eq 383 basta que consideremos somente valores positivos de τ Inicialmente consideremos o caso τ Nesse caso a integral na Eq 72 é a área sob o sinal multiplicado por atrasado por τ τ Como visto na Fig 75b a área associada ao késimo pulso é e em que Durante o intervalo de média T T há N pulsos N em que Da Eq 73b Observemos que a soma é feita com N pulsos Portanto R 0 é a média temporal do quadrado das amplitudes a k do pulso Usando a notação de média temporal podemos expressar R 0 como Também sabemos que é uma função de τ ver Eq 383 Logo a Eq 73 pode ser expressa como Figura 75 Dedução da PSD de um sinal PAM aleatório com largura de pulso muito estreita e altura h k a k Este é um pulso retangular de altura R 0T b largura 2 e centrado em τ 0 Fig 75d Isso é esperado pois à medida que τ aumenta além de não há sobreposição entre o sinal atrasado como visto na Fig 75d Contudo à medida que aumentamos τ ainda mais observamos que o késimo pulso de começará a se sobrepor ao k 1ésimo pulso de quando τ se aproximar de T b Fig 75c Repetindo esse argumento vemos que terá outro pulso retangular de largura 2 centrado em τ T b com altura R 1T b em que Observemos que R 1 é obtido da multiplicação de cada intensidade de pulso a k pela intensidade de seu vizinho imediato a k 1 da soma de todos esses produtos e então da divisão pelo número total de pulsos Isso é claramente a média temporal do produto a k a k 1 e o resultado em nossa notação é Algo similar ocorre em torno de τ 2T b 3T b Assim consiste em uma sequência de pulsos triangulares de largura 2 centrados em τ 0 T b 2T b A altura dos pulsos centrados em nT b é R nT b em que R n é essencialmente a função de autocorrelação discreta dos símbolos do código de linha a k Para calcular R x τ fazemos 0 em À medida que 0 a largura de cada pulso triangular 0 e a altura de modo que a área permanece finita Assim no limite 0 os pulsos triangulares se tornam impulsos Para o nésimo pulso centrado em nT b a altura é R nT b e a área R nT b Portanto Fig 75e A PSD S x f é a transformada de Fourier de R x τ Logo Lembrando que R n R n pois Rτ é uma função para de τ temos A entrada xt do filtro com resposta ao impulso ht pt resulta na saída yt como mostrado na Fig 74d Se a função de transferência do filtro é Hf Pf e segundo a Eq 391 722 Portanto a PSD de um código de linha é totalmente caracterizada pelo correspondente R n e pela seleção de forma de pulso de Pf A seguir usaremos esse resultado geral para determinar as PSDs de vários códigos de linha específicos a partir da determinação da autocorrelação entre símbolos Sinalização Polar Na sinalização polar 1 é transmitido por um pulso pt e 0 por um pulso pt Nesse caso a k tem igual probabilidade de ser 1 ou 1 e será sempre 1 Assim Há N pulsos e 1 para cada um de modo que a soma no lado direito da equação anterior é N Logo Além disso tanto a k como a k 1 são 1 ou 1 Logo a k a k 1 é 1 ou 1 Como a amplitude a k tem em média igual probabilidade de ser 1 e 1 considerando N termos o produto a k a k 1 é igual a 1 para N2 termos e igual a 1 para os restantes N2 termos Portanto Com esse raciocínio podemos ver que o produto a k a k n também tem igual probabilidade de ser 1 ou 1 Assim Portanto da Eq 711c Para efeitos de comparação de vários esquemas consideremos uma forma de pulso específica Seja pt um pulso retangular de largura T b2 pulso retangular de meia largura ou seja Portanto A Fig 76 mostra o espectro S y f Fica claro que a maior parte da potência do sinal polar se concentra nas frequências mais baixas Teoricamente o espectro se torna muito estreito à medida que a frequência aumenta mas sua largura jamais iguala zero acima de uma dada frequência Para termos uma medida representativa de largura de banda consideramos a primeira frequência de nulo não dc como a largura de banda essencial Figura 76 Densidade espectral de potência de um sinal polar Do espectro do sinal polar a largura de banda essencial do sinal é calculada como 2R b Hz em que R b é a frequência do relógio Isso é 4 vezes a largura de banda teórica largura de banda de Nyquist exigida para transmitir R b pulsos por segundo O aumento da largura do pulso reduz a largura de banda expansão no domínio do tempo resulta em compressão no domínio da frequência Para um pulso de largura completa máxima largura de pulso possível a largura de banda essencial é a metade ou seja R b Hz Esta no entanto ainda é o dobro da largura de banda teórica Assim sinalização polar não é a mais eficiente do ponto de vista de largura de banda Uma segunda deficiência da sinalização polar é não ter capacidade de detecção ou correção de erro Outra desvantagem da sinalização polar é ter PSD não nula em dc f 0 Isso impede o uso de acoplamento ac durante a transmissão O modo de acoplamento ac é muito importante na prática pois permite que transformadores e capacitores de bloqueio auxiliem no casamento de impedância e na remoção de polarização assim como a alimentação de potência dos repetidores em linha por meio dos pares de cabo Mais adiante mostraremos como a PSD de um código de linha pode ser forçada a zero em dc por meio de escolha adequada da forma de pt Quanto aos aspectos positivos a sinalização polar é o esquema mais eficiente do ponto de vista de consumo de potência Para uma dada potência podemos mostrar que a probabilidade de detecção de erro em um esquema polar é a menor dentre todas as 723 724 técnicas de sinalização Capítulo 10 A sinalização polar também é transparente pois sempre há algum pulso positivo ou negativo qualquer que seja a sequência de bits Não há uma componente discreta do relógio no espectro do sinal polar Contudo a retificação do sinal polar RZ produz um sinal periódico na frequência do relógio e pode ser usado prontamente para extrair a temporização Construção de um Nulo DC na PSD via Formatação de Pulso Como S y f a PSD de um código de linha contém um fator Pf 2 podemos forçar a PSD a ter um nulo dc se selecionarmos um pulso pt tal que Pf seja zero em dc f 0 Como Figura 77 Sinal bifásico Manchester ou de fase alternada a Pulso básico para sinalização Manchester b Forma de onda transmitida para sequência binária de dados usando sinalização Manchester temos Portanto se a área sob pt for feita igual a zero P0 será zero e teremos um nulo dc na PSD Para um pulso retangular uma possível forma de pt para obter este efeito é mostrada na Fig 77a Quando usamos esse pulso com codificação de linha polar o sinal resultante é conhecido como sinal em código Manchester bifásico ou de fase alternada O leitor pode usar a Eq 713 para mostrar que para esse pulso a PSD do código de linha Manchester tem um nulo dc Exercício 722 Sinalização OnOff Na sinalização onoff um 1 é transmitido por um pulso pt e um 0 pela ausência de pulso Assim a amplitude de pulso a k tem igual probabilidade de ser 1 ou 0 Dentre N pulsos no intervalo de T segundos a k é 1 para N2 pulsos e 0 para os restantes N2 pulsos em média Portanto Para calcular o valor de R n precisamos considerar o produto a k a kn Como a k e a kn têm igual probabilidade de serem 1 ou 0 o produto a k a kn tem igual probabilidade de ser 1 1 1 0 0 1 ou 0 0 ou seja 1 0 0 0 Portanto em média o produto a k a kn é igual a 1 para N4 termos e 0 para 3N4 termos e Portanto Eq 79 A Eq 718b é obtida da Eq 718a dividindo em dois o termo 12T b correspondente a R 0 14T b fora do somatório e 14T b dentro do somatório correspondendo a n 0 Agora usamos a fórmula ver a nota de rodapé para a prova A substituição deste resultado na Eq 718b leva a e à desejada PSD da forma de onda onoff yt da Eq 711a Reparemos que ao contrário do espectro contínuo da PSD da sinalização polar a PSD do sinal onoff na Eq 719b tem uma parte discreta adicional que pode ser anulada se a forma do pulso for escolhida de modo que Tomando como exemplo o caso de um pulso retangular de meia largura Eq 714 A resultante PSD é mostrada na Fig 78 A componente contínua do espectro é T b16 sinc 2 πfT b2 Isso é igual exceto por um fator de escala ao espectro do sinal polar Eq 715 A componente discreta é representada pelo produto de um trem de impulsos pela componente contínua T b16 sinc 2 πfT b2 Assim essa componente aparece como impulsos periódicos tendo a componente contínua como envelope Além disso a frequência de repetição dos impulsos é a frequência do relógio R b 1T b pois sua frequência fundamental é 2πT b rads ou 1T b Hz Esse é um resultado lógico pois como mostra a Fig 73 um sinal on off pode ser expresso como a soma de uma componente polar com uma componente periódica A componente polar y 1t é exatamente a metade do sinal polar discutido anteriormente Logo a PSD dessa componente é um quarto da PSD na Eq 715 A componente periódica tem a frequência do relógio R b e consiste em componentes discretas de frequência R b e seus harmônicos 725 Figura 78 Densidade espectral de potência PSD de um sinal onoff A sinalização onoff não tem muito do que se gabar Para uma dada potência transmitida tem menos imunidade ao ruído do que o esquema polar que usa um pulso positivo para 1 e um pulso negativo para 0 Isso decorre do fato de que a imunidade ao ruído depende da diferença entre as amplitudes que representam 1 e 0 Portanto para a mesma imunidade se a sinalização onoff usar pulsos de amplitude 2 e 0 a sinalização polar precisa apenas de pulsos com amplitudes 1 e 1 É simples mostrar que a sinalização onoff requer o dobro da potência da sinalização polar Se um pulso de amplitude 1 ou 1 tiver energia E o pulso de amplitude 2 tem energia 2 2E 4E Como 1T b dígitos são transmitidos por segundo a potência do sinal polar é E1T b ET b Para o caso onoff a energia de cada pulso é 4E embora em média um pulso seja transmitido na metade do tempo enquanto nada é transmitido na outra metade Assim a potência média de sinal onoff é que é o dobro da potência requerida pela sinalização polar Além disso ao contrário do caso polar a sinalização onoff não é transparente Uma longa sequência de 0s ou offs causa ausência de sinal e pode levar a erros na extração da temporização Adicionalmente todas as desvantagens da sinalização polar por exemplo excessiva largura de banda de transmissão espectro de potência não nulo em dc incapacidade de detecção ou correção de erros também estão presentes na sinalização onoff Sinalização Bipolar O esquema de sinalização usado em PCM para redes de telefonia é denominado bipolar pseudoternário ou inversão alternada de sinal Um 0 é transmitido pela ausência de pulso e um 1 por um pulso pt ou pt dependendo se o 1 anterior foi transmitido por pt ou pt Com pulsos consecutivos alternados podemos evitar ondulação dc e assim causar um nulo na PSD A sinalização bipolar na verdade usa três símbolos pt 0 e pt e portanto é uma sinalização ternária e não binária Para calcular a PSD temos Em média metade dos a k s são 0 e a outra metade é 1 ou 1 com 1 Logo Para calcular R 1 consideremos o produto das amplitudes de pulsos a k a k 1 Quatro sequências de dois bits têm igual probabilidade de ocorrência 11 10 01 00 Como o bit 0 é codificado por ausência de pulso a k 0 o produto a k a k 1 é zero para as três últimas sequências Isso significa em média que 3N4 combinações têm a k a k 1 0 e apenas N4 combinações têm a k a k 1 não nulo Devido à regra bipolar a sequência de bits 11 pode ser codificada somente por pulsos de polaridades opostas Isso significa que o produto a k a k 1 1 para N4 combinações Portanto Para calcular R 2 de modo similar devemos analisar o produto a k a k 2 Para isso precisamos considerar todas as possíveis combinações de três bits em sequência Há oito combinações com igual probabilidade de ocorrência 111 101 110 100 011 010 001 000 As últimas seis combinações têm 0 como o primeiro ou o último bit logo a k a k 2 0 para todas essas seis combinações As duas primeiras são as únicas combinações que têm a k a k 2 não nulo Dada a regra bipolar o primeiro e o último bits na combinação 111 têm a mesma polaridade resultando em a k a k 2 1 Contudo em 101 o primeiro e o último bits têm polaridades opostas resultando em a k a k 2 1 Assim em média a k a k 2 1 para N8 termos 1 para N8 termos e 0 para 3N4 termos Logo Em geral Para n 2 o produto a k a k n pode ser 1 1 ou 0 Além disso um número igual de combinações tem valores 1 e 1 Isso causa R n 0 Portanto R n 0 n 1 e ver Eq 711c Reparemos que S y f 0 para f 0 dc qualquer que seja Pf Logo a PSD tem um nulo dc o que é desejável para acoplamento ac Além disso sen 2 πfT b 0 em f 1T b ou seja em f 1T b R b Hz Portanto independentemente de Pf fica garantida a largura de banda R b Hz para o primeiro nulo não dc Para o caso de pulsos de meia largura Isso é ilustrado na Fig 79 A largura de banda essencial do sinal é R b R b 1T b que é a metade da largura de banda do esquema polar que usa o mesmo pulso de meia largura ou da sinalização onoff e o dobro da mínima largura de banda teórica Observamos que pudemos calcular a largura de banda R b para o caso polar ou onoff com pulso de largura completa Para o caso bipolar a largura de banda é R b Hz tanto para pulso de meia largura como de largura completa Figura 79 PSD de sinais bipolar polar e bifásico normalizados para iguais potências Pulsos retangulares de meia largura são usados A sinalização bipolar tem diversas vantagens 1 seu espectro tem um nulo dc 2 sua largura de banda não é excessiva 3 tem capacidade de detecção de erro isolado Isso se deve ao fato de que mesmo um erro isolado viola a regra de pulsos alternados e será detectado imediatamente Se um sinal bipolar for retificado obtemos um sinal onoff que tem uma componente discreta na frequência do relógio Entre as desvantagens de um sinal bipolar está a exigência do dobro da potência 3 dB usada por um sinal polar Isso decorre do fato de a detecção ser essencialmente equivalente à da sinalização onoff sob o ponto de vista de detecção a distinção é entre pt ou pt e 0 e não entre pt Outra desvantagem da sinalização bipolar é não ser transparente Na prática vários esquemas substitutos foram usados para evitar que longas de zeros lógicos permitissem que sinais de relógio se desviassem A seguir discutiremos dois desses esquemas Figura 710 a Sinal HDB3 e b sua PSD Sinalização Bipolar de Alta Densidade HDB O esquema HDB highdensity bipolar é um padrão ITUT antigo CCITT Comitê Consultivo Internacional de Telefonia e Telegrafia Nesse esquema o problema de falta de transparência da sinalização bipolar é eliminado com a adição de pulsos quando o número de pulsos consecutivos 0s ultrapassa N Esse código modificado é denominado codificação bipolar de alta densidade HDBN em que N pode assumir qualquer valor 1 2 3 O código HDB mais importante é o formato HDB3 adotado como padrão internacional A ideia básica do código HDBN é que na ocorrência de uma sequência de N 1 zeros esse grupo de zeros é substituído por uma das sequências especiais de N 1 dígitos binários Para aumentar o conteúdo de temporização do sinal as sequências são escolhidas de modo a incluir alguns 1s binários Os 1s incluídos deliberadamente violam a regra bipolar para facilitar a identificação da sequência subsequente Na codificação HDB3 por exemplo as sequências especiais usadas são 000V e B00V em que B 1 que respeita a regra bipolar e V 1 que viola a regra bipolar A escolha da sequência 000V ou B00V é feita de forma que os pulsos V consecutivos têm sinais alternados para evitar ondulação dc e manter o nulo dc na PSD Isso requer que a sequência B00V seja usada quando há um número par de 1s após a última sequência especial e a sequência 000V é usada quando há um número ímpar de 1s após a última sequência A Fig 710a mostra um exemplo desse código Reparemos que na sequência B00V B e V são codificados pelo mesmo pulso O decodificador deve verificar duas coisas as violações bipolares e o número de 0s que antecede cada violação para determinar se o 1 anterior também era uma substituição Apesar das deliberadas violações da regra bipolar a sinalização HDB mantém a capacidade de detecção de erro Qualquer erro isolado inserirá uma violação bipolar espúria ou removerá uma das violações deliberadas Isso se tornará aparente quando na próxima violação a alternância de violações não desaparecer Isso também mostra que violações deliberadas podem ser detectadas apesar de erros isolados A Fig 710b mostra a PSD de HDB3 juntamente com a de um sinal bipolar para facilitar a comparação 3 Sinalização Binária com Substituição de N Zeros BNZS 73 731 732 Uma classe de códigos de linha similar a HDBN é a binária com substituição de N zeros ou BNZS binary with N zero substitution Nesse código se ocorrerem N zeros em sequência estes são substituídos por uma das duas sequências especiais que contêm alguns 1s para aumentar o conteúdo de temporização Há violações deliberadas da regra bipolar assim como em HDBN A codificação binária com substituição de oito zeros B8ZS é usada em sinais DS1 da hierarquia de telefonia digital discutidos no Capítulo 6 Essa codificação substitui quaisquer sequências de oito zeros por uma sequência de uns e zeros que contém duas violações bipolares É improvável que uma sequência desse tipo seja afetada por erros e qualquer uma que seja recebida é substituída por uma sequência de oito zeros antes da decodificação A sequência empregada como substituição consiste nos padrões 000VB0VB Do mesmo modo no código B6ZS usado em sinais DS2 uma sequência de seis zeros é substituída por 0VB0VB um código B3ZS é aplicado a sinais DS3 O código B3ZS é um pouco mais complexo que os outros pois usa B0V ou 00V sendo a escolha feita de modo que o número de pulsos B entre pulsos V consecutivos seja ímpar Esses códigos BNZS com N 3 6 ou 8 envolvem violações bipolares e portanto devem ser cuidadosamente substituídos pelas correspondentes sequências de zero no receptor Há muitos outros códigos de linha de transmissão em número demasiadamente grande para serem listados aqui Uma lista de códigos e referências apropriadas pode ser encontrada em Bylanski e Ingram 3 FORMATAÇÃO DE PULSO A PSD S y f de um sinal digital yt pode ser controlada por uma escolha do código de linha ou por Pf a forma do pulso Na última seção discutimos como a PSD é controlada por um código de linha Na presente seção examinaremos como S y f é influenciada pela forma do pulso pt e aprenderemos como formatar um pulso pt para obter uma S y f desejada A PSD S y f é forte e diretamente influenciada pela forma do pulso pt pois S y f contém o termo Pf 2 Assim em comparação com a natureza do código de linha a forma do pulso é um fator mais direto e poderoso para formatar a PSD S y f Interferências Intersimbólicas ISI e Efeitos Na última seção por conveniência usamos um simples pulso retangular de meia largura pt A rigor nesse caso a largura de banda S y f é infinita pois Pf tem largura de banda infinita Contudo vimos que a largura de banda essencial de S y f era finita Por exemplo a maior parte da potência de um sinal bipolar está contida na largura de banda essencial entre 0 e R b Hz Notemos no entanto que a PSD é pequena mas não nula no intervalo f R b Hz Portanto quando um sinal desse tipo é transmitido em um canal de largura de banda R b Hz uma porção significativa de seu espectro é transmitida enquanto uma parcela pequena é suprimida Nas Seções 35 e 36 vimos que uma distorção espectral como essa tendia a espalhar o pulso dispersão Espalhamento de um pulso além da janela de tempo T b a ele alocada causará interferência com pulsos vizinhos Isso é conhecido como interferência intersimbólica ou ISI intersymbol interference ISI não é ruído ISI é causada por canais não ideais que não são livres de distorção em toda a largura de banda do sinal No caso de um pulso retangular de meia largura a largura de banda do sinal é estritamente falando infinita A ISI como uma manifestação de distorção do canal pode causar erros na detecção do pulso caso seja suficientemente grande Para resolver a dificuldade associada à ISI redefinamos nosso problema Precisamos transmitir um pulso a cada T b segundos sendo a k pt kT b o késimo pulso O canal tem largura de banda finita e devemos detectar a amplitude de pulso a k corretamente ou seja sem ISI Em nossa discussão até aqui consideramos pulsos limitados no tempo Como tais pulsos não podem ser limitados em frequência parte de seus espectros é suprimida por um canal de largura de banda finita Isso causa distorção dos pulsos que se espalham e em consequência a ISI Podemos inicialmente tentar resolver essa dificuldade usando pulsos que tenham largura de banda finita de modo que possam ser transmitidos intactos pelo canal de banda finita No entanto pulsos limitados em frequência não podem ser limitados no tempo Obviamente vários pulsos se sobreporão e causarão ISI Portanto quer usemos pulsos limitados no tempo ou pulsos limitados em frequência parece que a ISI não pode ser evitada é inerente à transmissão em largura de banda finita Por sorte existe uma escapatória desse beco sem saída Amplitudes de pulso podem ser detectadas corretamente apesar de espalhamento ou sobreposição dos pulsos desde que não haja ISI nos instantes de tomada de decisão Isso pode ser alcançado por meio de pulsos limitados em frequência com forma apropriada Para eliminar ISI Nyquist propôs três diferentes critérios para formatação de pulsos 4 sendo permitida sobreposição de pulsos Todavia os pulsos são formatados de modo a causar interferência zero ou controlada em todos os outros pulsos nos instantes de tomada de decisão Assim ao limitar a exigência de não interferência somente nos instantes de tomada de decisão eliminamos a necessidade de não sobreposição total dos pulsos Consideraremos apenas os dois primeiros critérios O terceiro é menos útil 5 e por conseguinte não será analisado aqui Primeiro Critério de Nyquist para ISI Nula No primeiro método Nyquist obtém ISI zero ao escolher uma forma de pulso que tenha amplitude não nula no centro digamos em t 0 e amplitudes nulas em t nT b n 1 2 3 em que T b é a separação entre pulsos transmitidos sucessivos Fig 711a Assim Um pulso que satisfaça esse critério causa ISI zero nos centros de todos os outros pulsos ou instantes de sinalização como mostrado na Fig 711a na qual ilustramos vários pulsos sucessivos linha tracejada centrados em t 0 T b 2T b 3T b T b 1R b Por conveniência mostramos todos os pulsos como positivos Fica claro que desta figura as amostras em t 0 T b 2T b 3T b consistem na amplitude de apenas um pulso centrado no instante de amostragem sem interferência dos outros pulsos Figura 711 Pulso com mínima largura de banda que satisfaz o primeiro critério de Nyquist e seu espectro A transmissão de R b bits requer uma mínima largura de banda teórica de R b2 Hz Seria muito bom se a mínima largura de banda de um pulso que satisfizesse o critério de Nyquist fosse R b2 Hz Será possível determinar um pulso pt desse tipo Já resolvemos esse problema Exemplo 61 com B R b2 e mostramos que existe um e somente um pulso que atende o critério de Nyquist 723 e tem largura de banda de R b2 Hz Esse pulso pt sinc πR bt Fig 711b tem a propriedade Além disso a transformada de Fourier desse pulso é que tem largura de banda R b2 Hz como visto na Fig 711c Podemos usar esse pulso para transmitir uma taxa de R b pulsos por segundo sem ISI em uma largura de banda de apenas R b2 Esse esquema mostra que podemos alcançar o limite teórico de desempenho se usarmos um pulso sinc Lamentavelmente esse pulso é impraticável pois tem início em Teremos de esperar um tempo infinito para gerálo Qualquer tentativa de truncálo aumentaria sua largura de banda além dos R b2 Hz Contudo mesmo se esse pulso fosse realizável teria uma característica indesejável decairia a uma taxa demasiadamente lenta de 1t Isto causaria alguns sérios problemas práticos Por exemplo se a taxa de dados nominal R b bits requerida para esse esquema variasse um pouco a amplitude de um pulso não se anularia nos centros dos outros pulsos Como os pulsos decaem com 1t apenas a interferência cumulativa no centro de um dado pulso devido a todos os outros seria da forma Σ1n É um fato bem conhecido que essa série infinita não converge e pode produzir um valor muito alto Um resultado similar ocorreria se tudo fosse perfeito no transmissor mas a taxa de amostragem no receptor se desvia da taxa de R b Hz A mesma coisa aconteceria se os instantes de amostragem se desviassem um pouco devido à incerteza temporal nos pulsos o que é inevitável mesmo nos sistemas mais sofisticados Portanto esse esquema falhará a menos que tudo seja perfeito o que é uma impossibilidade prática E tudo isso decorre do fato de sinc πR bt decair de modo demasiadamente lento com 1t A solução consiste em encontrar um pulso pt que satisfaça a Eq 723 mas decaia mais rapidamente que 1t Nyquist mostrou que um pulso como esse requer uma largura de banda kR b2 com 1 k 2 Isso pode ser provado da seguinte forma consideremos em que a largura de banda de Pf está no intervalo R b2 R b Fig 712a O desejado pulso pt satisfaz a Eq 723 Se amostrarmos pt a cada T b segundos multiplicandoo por δ T b t um trem de impulsos devido à propriedade 723 todas as amostras exceto a feita na origem serão iguais a zero Assim o sinal amostrado será Pela análise da Eq 64 do Capítulo 6 sabemos que o espectro de um sinal amostrado é 1T b vezes o espectro de pt repetido periodicamente à frequência de amostragem R b Portanto a transformada de Fourier dos dois lados da Eq 725 produz ou Assim a soma dos espectros formados com a repetição de Pf à frequência R b é uma constante T b como mostrado na Fig 712b Consideremos o espectro na Fig 712b em um intervalo 0 f R b Esse intervalo envolve apenas dois termos Pf e Pf R b do somatório na Eq 727 Logo Pf Pf R b T b 0 f R b Figura 712 Dedução do critério Nyquist para ISI zero Seja x f R b2 portanto ou Usando a propriedade da simetria conjugada Eq 311 na Eq 728 temos Se escolhermos Pf com valores reais e positivos basta que Pf satisfaça a Eq 729 Como Pf é real a Eq 729 implica em Portanto Pf deve ter a forma mostrada na Fig 713 Essa curva tem simetria ímpar em relação ao conjunto de eixos que se cruzam no ponto α ponto na curva de Pf em f R b2 Isso requer A largura de banda de Pf em hertz é 05R b f x em que f x é a largura de banda além da mínima largura de banda R b2 Seja r a razão entre o excesso de largura de banda f x e a mínima largura de banda teórica R b2 Observemos que f x não pode ser maior que R b2 Figura 713 Espectro vestigial cosseno levantado Figura 714 Pulsos que satisfazem o primeiro critério de Nyquist linha cheia f x 0 r 0 ideal linha tracejada fina f x R b4 linha tracejada grossa f x R b2 r 1 Em termos da frequência f mínima largura de banda teórica é R b2 Hz e o excesso de largura de banda é f x rR b2 Portanto a largura de banda de Pf é A constante r é denominada fator de decaimento rolloff e é também expressa em porcentagem Por exemplo se Pf for um espectro que segue o primeiro critério de Nyquist e cuja largura de banda seja 50 maior que o mínimo teórico seu fator de decaimento será r 05 ou 50 A modulação em banda lateral vestigial discutida na Seção 45 Eq 426 requer um filtro cuja resposta de amplitude tenha essas mesmas características Por essa razão nos referimos ao espectro de Pf nas Eqs 729 e 730 como espectro vestigial O pulso pt na Eq 723 tem ISI zero nos centros de todos os outros pulsos transmitidos à taxa de R b pulsos por segundo Um pulso pt que cause ISI zero nos centros de todos os outros pulsos ou instantes de sinalização é o pulso do primeiro critério de Nyquist Mostramos que um pulso com espectro vestigial Eq 729 ou Eq 730 satisfaz o primeiro critério de Nyquist para ISI zero Como 0 r 1 a largura de banda de Pf fica restrita ao intervalo entre R b2 e R b Hz O pulso pt pode ser gerado como a resposta ao impulso unitário de um filtro com função de transferência Pf Contudo como Pf 0 em uma banda de frequências o critério de PaleyWiener é violado e portanto o filtro é irrealizável Todavia a característica de decaimento vestigial é gradual e pode ser bem aproximada por um filtro prático Uma família de espectros que satisfazem o primeiro critério de Nyquist é A Fig 714a mostra três curvas dessa família correspondendo a f x 0 r 0 f x R b4 r 05 e f x R b2 r 1 As respectivas respostas ao impulso são mostradas na Fig 714b Pode ser visto que o aumento de f x ou de r melhora pt ou seja 733 um decaimento mais gradual reduz a natureza oscilatória de pt e faz com que pt decaia mais rapidamente no domínio do tempo Para o caso do valor máximo f x R b2 r 1 a Eq 734 se reduz a A característica da Eq 734 é conhecida na literatura como cosseno levantado pois representa um cosseno levantado por sua amplitude de pico A Eq 735 também é conhecida como característica de decaimento de cosseno amplo fullcosine rolloff A transformada de Fourier inversa desse espectro é prontamente calculada como Exercício 738 Esse pulso é mostrado na Fig 714b r 1 Podemos fazer várias observações importantes sobre o pulso cosseno levantado Primeira esse pulso cuja largura de banda é R b Hz tem valor R b em t 0 e é zero não apenas em todos os outros instantes de amostragens mas também nos pontos médios entre todos os instantes de sinalização Segunda o pulso decai rapidamente com 1t 3 Como resultado o pulso cosseno levantado é relativamente insensível a desvios de R b da taxa de amostragem incerteza temporal e assim por diante Além disso o filtro de geração de pulso com função de transferência Pf Eq 735b é realizável em boa aproximação A característica de fase desse filtro é praticamente linear de modo que nenhuma equalização de fase adicional se faz necessária Vale lembrar que os pulsos recebidos na entrada do detector é que devem ter a forma para ISI zero Na prática como o canal não é ideal sem distorção os pulsos transmitidos devem ser formatados para que após passarem pelo canal com função de transferência H c f sejam recebidos com a forma adequada como pulsos cosseno levantado Portanto o pulso transmitido p it deve satisfazer p ifH c f Pf em que Pf tem o espectro vestigial da Eq 730 Por conveniência a função de transferência H c f como um canal também pode incluir um filtro receptor projetado para rejeitar interferências e outros ruídos fora da banda Exemplo 71 Determinemos a taxa de transmissão de pulsos em termos da largura de banda de transmissão B T e do fator de decaimento r Consideremos um esquema que use o primeiro critério de Nyquist Da Eq 733 Como 0 r 1 a taxa de transmissão de pulsos varia de 2B T a B T dependendo da escolha de r Um menor valor de r produz uma taxa de sinalização mais alta Contudo o pulso pt decai lentamente criando o mesmo problema discutido em relação ao pulso sinc Para o pulso cosseno levantado r 1 e R b B T alcançamos a metade da máxima taxa teórica Mas o pulso decai mais rapidamente com 1t 3 e é menos vulnerável à ISI ISI Controlada ou Sinalização de Resposta Parcial Pulsos que seguem o critério de Nyquist requerem uma largura de banda maior que o mínimo teórico Se desejarmos reduzir a largura de banda do pulso devemos encontrar uma forma de alargar o pulso pt mais largo o pulso menor sua largura de banda O aumento da largura do pulso pode resultar em interferência ISI em pulsos vizinhos No entanto na transmissão binária com apenas dois símbolos pode ser possível remover ou cancelar um grau conhecido e controlado de ISI pois somente uns poucos padrões de interferência são possíveis Consideremos um pulso especificado por Fig 715 734 Figura 715 Comunicação usando ISI controlada ou o segundo critério de Nyquist Isso leva a um grau conhecido e controlado de ISI causada pelo késimo pulso no próximo pulso transmitido Usemos sinalização polar com esse pulso Assim 1 é transmitido por pt e 0 pelo pulso pt O sinal recebido é amostrado em t nT b e o pulso pt tem valor zero em todos os n exceto em n 0 e 1 quando vale 1 Fig 715 Fica claro que esse pulso causa ISI zero em todos os outros pulsos exceto o que o sucede Consideremos dois pulsos sucessivos localizados em 0 e T b respectivamente Se os dois pulsos forem positivos o valor amostrado do sinal resultante em t T b será 2 Se os dois pulsos forem negativos o valor amostrado será 2 Contudo se os dois pulsos tiverem polaridades opostas o valor amostrado será zero Como somente esses três valores são possíveis o valor da amostra do sinal permite que tomemos a decisão correta nos instantes de amostragem A regra de decisão é a seguinte se o valor da amostra for positivo o bit corrente é 1 e o bit anterior também é 1 Se o valor da amostra for negativo o bit atual é 0 e o bit anterior também é 0 Se o valor da amostra for zero o bit atual é o oposto do anterior O conhecimento do bit anterior permite a determinação do bit corrente A Tabela 71 mostra uma sequência de bits transmitidos os valores das amostras do sinal recebido xt admitindo a ausência de erros devido a ruído do canal e a decisão do detector Esse exemplo também indica a propriedade de detecção de erro desse esquema Um exame das amostras da forma de onda yt na Tabela 71 revela que sempre há um número par de amostras de valor zero entre duas amostras de valores completos de mesma polaridade e um número ímpar de amostras de valor zero entre duas amostras de valores completos de polaridades opostas Assim o primeiro valor amostrado de xt é 2 e o próximo valor completo de amostra da quarta amostra é 2 Entre essas duas amostras de valores completos de mesma polaridade há um número par ou seja 2 de amostras de valor zero Se um dos valores de amostra for detectado erroneamente essa regra será violada e o erro detectado Tabela 71 Bits transmitidos e amostras recebidas na sinalização com ISI controlada Sequência de informação 1 1 0 1 1 0 0 0 1 0 1 1 1 Amostra ykT b 1 2 0 0 2 0 2 2 0 0 0 2 2 Sequência detectada 1 1 0 1 1 0 0 0 1 0 1 1 1 O pulso pt vai a zero em t T b e 2T b resultando em uma largura de pulso do primeiro lóbulo 50 maior que a do pulso do primeiro critério Tal alargamento do pulso no domínio do tempo reduz a largura de banda do mesmo Esse é o segundo critério proposto por Nyquist Esse esquema de ISI controlada também é conhecido como esquema de resposta parcial ou correlativa Um pulso que satisfaça o segundo critério na Eq 737 também é conhecido como pulso duobinário Exemplo de Pulso Duobinário Se restringirmos a largura de pulso a R b2 seguindo o procedimento do Exemplo 71 podemos mostrar que Exercício 739 somente o pulso pt dado a seguir satisfaz a exigência na Eq 737 para o pulso duobinário 735 Figura 716 a Mínima largura de banda de pulso que satisfaz o critério de pulso duobinário e b seu espectro de amplitude A transformada de Fourier Pf do pulso pt é dada por Exercício 739 O pulso pt e seu espectro de amplitude Pf são mostrados na Fig 716 Esse pulso transmite dados binários à taxa de R b bits e tem a mínima largura de banda teórica de R b2 Hz A Eq 738 mostra que esse pulso decai rapidamente com o tempo com 1t 2 Esse pulso não é idealmente realizável pois pt é não causal e tem duração infinita pois Pf é limitado em frequência Contudo decai rapidamente com 1t 2 e portanto pode ser bem aproximado Pode parecer surpreendente que possamos alcançar a taxa teórica com o pulso duobinário Na verdade é uma ilusão A taxa teórica de transmissão é 2 porções independentes de informação por segundo por hertz de largura de banda Alcançamos essa taxa para informação binária Aqui está o problema Uma porção de informação binária não se qualifica como uma porção independente de informação pois não pode assumir um valor arbitrário deve ser selecionada de um conjunto finito O pulso duobinário falharia se os pulsos fossem verdadeiramente porções independentes de informação ou seja se os pulsos pudessem assumir amplitudes arbitrárias O esquema funciona somente porque os pulsos binários assumem valores finitos conhecidos e portanto existe apenas um número finito conhecido de padrões de interferência entre pulsos o que permite a determinação correta das amplitudes dos pulsos apesar da ocorrência de interferência Relações de Pulsos entre Sinalizações com ISI Zero Duobinária e Duobinária Modificada 736 Agora podemos estabelecer a relação simples entre um pulso p at que satisfaz o primeiro critério de Nyquist ISI zero e um pulso duobinário p bt com ISI controlada Das Eqs 723 e 737 fica claro que p akT b e p bkT b diferem somente para k 1 Para todos os outros valores do inteiro k esses pulsos têm amostras com valores iguais Portanto podemos construir um pulso p bt de p at da seguinte forma p bt p at p at T b Essa adição é a sinalização com ISI controlada ou resposta parcial deliberadamente introduzida para reduzir a exigência de largura de banda Para determinar o efeito da sinalização duobinária na largura de banda espectral consideremos a relação entre os dois pulsos no domínio da frequência Podemos ver que a sinalização de resposta parcial na verdade força um nulo de Pf em 2πfT b π ou f 05T b Portanto conceitualmente podemos ver como a sinalização de resposta parcial oferece uma oportunidade adicional para reformatar a PSD ou largura de banda de transmissão De fato a sinalização duobinária ao forçar um nulo na frequência 05T b faz com que sua largura de banda essencial seja a mínima largura de banda de transmissão necessária para uma taxa de dados de 1T b como discutido na Seção 613 Na verdade muitos canais físicos como uma gravação magnética têm ganho zero em dc Por tanto não faz sentido que o sinal em banda base tenha qualquer componente dc em sua PSD Uma modificação da sinalização de resposta parcial é comumente adotada para forçar um nulo em dc Um exemplo notável é a chamada sinalização duobinária modificada que requer Um raciocínio similar indica que p c t pode ser gerado de qualquer pulso p at que satisfaça o primeiro critério de Nyquist via p c t p at T b p at T b De modo equivalente no domínio da frequência o pulso duobinário é que usa sen 2π fT b para forçar um nulo em dc e se conformar à limitação física do canal Detecção de Sinalização Duobinária e Codificação Diferencial O diagrama básico do transmissor para o método de ISI controlada da sinalização duobinária é mostrado na Fig 717 Agora examinemos em mais detalhe a relação entre todos os símbolos de dados na banda base e o procedimento de detecção Para o bit de mensagem binária I k 0 ou 1 símbolos polares são simplesmente Com ISI controlada as amostras do sinal de transmissão yt são Figura 717 Sinalização duobinária equivalente Para o receptor a questão é como detectar I k de ykT b ou b k Essa questão pode ser respondida considerando primeiro todos os valores possíveis de b k ou ykT b Como a k 1 b k 0 2 Da Eq 742 fica evidente que Portanto um simples detector de sinalização duobinária deve primeiro detectar todos os bits I k correspondentes a b k 2 Os remanescentes b k são amostras de valor zero que implicam transição ou seja o dígito corrente é 1 e o anterior 0 ou vice versa Isso significa que a detecção de dígitos deve ser baseada no dígito anterior Um exemplo dessa detecção dígito a dígito foi mostrado na Tabela 71 A desvantagem do método de detecção na Eq 743 é que quando ykT b 0 a decisão para o bit corrente depende da decisão para o bit anterior Se o dígito anterior tiver sido detectado de modo incorreto o erro tende a se propagar até que surja um valor de amostra 2 Para mitigar esse problema de propagação de erro aplicamos um mecanismo eficiente conhecido como codificação diferencial A Fig 718 ilustra um gerador de sinal duobinário no qual há um codificador diferencial adicional antes da geração do pulso de resposta parcial Como mostrado na Fig 718 a codificação diferencial é uma etapa muito simples que modifica a relação entre o código de linha e os bits de mensagem A codificação diferencial gera uma nova sequência binária supondo que o estado inicial do précodificador seja p 0 0 ou p 0 1 A saída do précodificador é aplicada à entrada de um codificador de linha polar e gera Devido à sinalização duobinária b k a k a k 1 e ao gerador de pulso com ISI zero as amostras do sinal recebido yt sem ruído se tornam 737 Figura 718 Sinalização duobinária com codificação diferencial A partir da Eq 744 podemos resumir a relação direta entre os bits de mensagem e os valores de amostras como Essa relação funciona como uma base para um algoritmo de detecção símbolo a símbolo Em poucas palavras o algoritmo de decisão se baseia na amostra corrente ykT b quando não há ruído ykT b b k e a decisão do receptor é Portanto a incorporação da codificação diferencial à sinalização duobinária não apenas simplifica a regra de decisão mas também torna a decisão independente do dígito anterior e elimina a propagação de erro Na Tabela 72 o exemplo da Tabela 71 é recalculado com a codificação diferencial A relação de decodificação da Eq 745 fica clara nesse exemplo A codificação diferencial definida para símbolos de informação binária pode ser convenientemente generalizada para símbolos não binários Quando os símbolos de informação I k são Mários a única modificação a ser feita no bloco de codificação diferencial é a substituição de módulo 2 por módulo M De modo similar outra sinalização de resposta parcial generalizada como a duobinária modificada também está sujeita ao problema de propagação de erro na detecção Um tipo adequado de codificação diferencial pode ser adotado para evitar a propagação de erro Geração de Pulsos Um pulso pt que satisfaça um critério de Nyquist pode ser gerado como a resposta ao impulso unitário de um filtro com função de transferência Pf Isso nem sempre é fácil Um método melhor consiste em gerar a forma de onda diretamente com o uso de um filtro transversal linha de retardo com derivação discutido a seguir O pulso pt a ser gerado é amostrado com um intervalo de amostragem T s suficientemente pequeno Fig 719a e os ganhos da derivação do filtro são ajustados proporcionalmente aos valores amostrados em sequência como indicado na Fig 719b Quando um pulso retangular estreito de largura T s intervalo de amostragem é aplicado à entrada do filtro transversal a saída será uma aproximação em degrau de pt Essa saída ao ser aplicada a um filtro passabaixas é suavizada A aproximação pode ser melhorada com a redução do intervalo de amostragem T s Vale ressaltar mais uma vez que os pulsos que chegam à entrada do detector no receptor devem atender o desejado critério de Nyquist Portanto os pulsos transmitidos devem ser formatados de modo que após passagem pelo canal sejam recebidos no formato de Nyquist desejado Na prática no entanto não é necessário que pulsos sejam rigidamente formatados no transmissor A formatação final pode ser efetuada por um equalizador no receptor como discutido mais adiante Seção 75 74 Figura 719 Geração de pulso por filtro transversal EMBARALHAMENTO SCRAMBLING DE DADOS Em geral um embaralhador tende aumentar o caráter aleatório de dados através da remoção de sequências de 1s ou 0s O embaralhamento pode ser útil na extração da temporização por remover longas sequências de 0s de dados binários Contudo embaralhadores são usados principalmente para evitar acesso não autorizado aos dados sendo otimizados para esse fim Essa otimização pode resultar na geração de uma longa sequência de zeros nos dados A rede digital deve ser capaz de tratar de tais longas sequências de zeros com o emprego de técnicas de substituição discutidas na Seção 72 A Fig 720 mostra típicos embaralhador e desembaralhador O embaralhador consiste em um registrador de deslocamento com realimentação feedback shift register e o correspondente desembaralhador tem um registrador de deslocamento com antecipação feedforward shift register como indicado na Fig 720 Cada estágio do registrador de deslocamento atrasa um bit em uma unidade Para analisar o embaralhador e o correspondente desembaralhador consideremos uma sequência de saída T do embaralhador Fig 720a Se S for a sequência de entrada do embaralhador Figura 720 a Embaralhador b Desembaralhador em que D representa o operador de atraso ou seja D nT é a sequência T atrasada por n unidades Agora recordando que a soma em módulo 2 de qualquer sequência com ela própria produz uma sequência toda de 0s Somando D 3 D 5 aos dois lados da Eq 747 obtemos em que F D 3 D 5 Para projetar o desembaralhador no receptor iniciamos com T a sequência recebida no desembaralhador Da Eq 748 temos Essa equação na qual regeneramos a sequência de entrada S a partir da sequência recebida T é prontamente implementada pelo desembaralhador mostrado na Fig 720b Reparemos que um erro de detecção isolado na sequência recebida T afetará três bits de saída em R Logo o embaralhamento tem a desvantagem de causar múltiplos erros para um único erro de bit recebido Exemplo 72 A sequência de dados 101010100000111 é alimentada ao embaralhador na Fig 720a Determinemos a saída T do embaralhador admitindo que o conteúdo inicial dos registradores seja zero Da Fig 720a observamos que inicialmente T S a sequência entra no registrador e sai como D 3 D 5S FS pela rota de realimentação Essa nova sequência FS entra novamente no registrador e retorna como F 2S e assim por diante Portanto Reconhecendo temos Como a soma em módulo 2 de qualquer sequência com ela própria é zero D 8 D 8 0 e Do mesmo modo e assim por diante Logo Eq 749 Como D nS é simplesmente a sequência S atrasada em n bits vários termos na equação anterior correspondem às seguintes sequências Notemos que a sequência de entrada contém a sequência periódica 10101010 assim como uma longa sequência de 0s A saída do embaralhador remove a componente periódica assim como a longa sequência de 0s A sequência de entrada tem 15 dígitos A saída do embaralhador é mostrada somente até o 15 o dígito pois todos os outros dígitos além do 15 o dependem dos dígitos de entrada além do 15 o que não foram dados O leitor pode comprovar que a saída do desembaralhador é de fato S se a sequência T anterior for aplicada à sua entrada 75 751 RECEPTORES DIGITAIS E REPETIDORES REGENERATIVOS Basicamente um receptor ou repetidor regenerativo executa três funções 1 reformata pulsos recebidos por meio de um equalizador 2 extrai informação de temporização necessária para amostrar os pulsos recebidos nos instantes ótimos e 3 decide que símbolo foi detectado com base em amostras de pulsos O repetidor mostrado na Fig 721 consiste em um receptor mais um regenerador Um receptor completo pode incluir ainda a provisão para separar potência dc e sinais ac Isso é normalmente feito por acoplamento ac dos sinais por transformador e desviando dc do transformador para o circuito de alimentação de potência Figura 721 Repetidor regenerador Equalizadores Um trem de pulsos é atenuado e distorcido pelo meio de transmissão A atenuação pode ser compensada pelo préamplificador enquanto a distorção é compensada pelo equalizador A distorção de canal tem a forma de dispersão causada pela atenuação de certas componentes em frequências críticas do trem de pulsos de dados Teoricamente um equalizador deve ter uma característica de frequência igual ao inverso da característica do meio de transmissão Isso restaurará as componentes em frequências críticas e eliminará a dispersão dos pulsos Lamentavelmente isso também realça o ruído de canal recebido pois amplifica as componentes desse nas frequências críticas Esse fenômeno indesejável é conhecido como amplificação de ruído Para sinais digitais no entanto a equalização completa não é necessária pois o detector precisa tomar decisões relativamente simples como decidir se o pulso é positivo ou negativo ou se o pulso está presente ou ausente Portanto considerável dispersão de pulsos pode ser tolerada Dispersão de pulsos resulta em ISI e por conseguinte em aumento no erro de detecção O aumento de ruído resultante da equalização que amplifica as frequências altas também aumenta a probabilidade de erro de detecção Por essa razão o projeto de um equalizador ótimo envolve um inevitável equilíbrio entre redução de ISI e redução de ruído de canal Uma escolha acertada das características de equalização é uma questão central em todos os sistemas de comunicação digital bem projetados 6 Equalizador com Forçamento a Zero A eliminação ou minimização da ISI interferência entre pulsos vizinhos para todo t não é de fato necessária Basta eliminar ou minimizar a interferência entre pulsos vizinhos em seus respectivos instantes de amostragem pois a decisão do receptor é baseada somente em valores de amostras Esse tipo de equalização abrandada pode ser feito com equalizadores que usem a estrutura de filtro transversal discutida anteriormente Ao contrário de filtros tradicionais equalizadores a filtros transversais são facilmente ajustáveis para compensar efeitos de canais diferentes ou que variem lentamente no tempo O objetivo de projeto é forçar que o pulso de saída do equalizador tenha ISI zero nos instantes de amostragem tomada de decisão Em outras palavras os pulsos de saída do equalizador satisfazem o critério de Nyquist ou o de ISI controlada O atraso temporal T entre derivações sucessivas é escolhido como T b o intervalo entre pulsos Inicialmente tomemos os ganhos das derivações c 0 1 e c k 0 para todos os valores de k no filtro transversal na Fig 722a Com isso a saída do filtro será igual à entrada atrasada por NT b Para um pulso p rt Fig 722b na entrada do filtro transversal com essa especificação de derivação a saída do filtro p ot será exatamente p rt NT b ou seja p rt atrasado por NT b Esse atraso não tem efeito prático em nosso sistema de comunicação e não é relevante para nossa discussão Assim por conveniência ignoraremos esse atraso Isso significa que p rt na Fig 722b também representa a saída do filtro p ot para essa configuração de derivações c 0 1 e c k 0 k 0 Exigimos que esse pulso satisfaça o critério de Nyquist ou o critério de ISI controlada como for o caso Da Fig 722b vemos que as amplitudes de pulso a 1 a 1 e a 2 em T b T b e 2T b respectivamente não são desprezíveis Ajustando os ganhos das derivações c k geramos pulsos deslocados adicionais de amplitudes apropriadas que forçarão o resultante pulso de saída a ter os valores desejados em t 0 T b 2T b Figura 722 Análise de equalizador com forçamento a zero A saída p ot Fig 722c é a soma de pulsos da forma c k p rt kT b ignorando o atraso NT b Assim As amostras de p ot em t kT b são Usando uma notação mais conveniente p rk para denotar p rkT b e p ok para denotar p okT b a Eq 751a pode ser expressa como O primeiro critério de Nyquist requer amostras p ok 0 para k 0 e p ok 1 para k 0 Substituindo esses valores na Eq 751b obtemos um conjunto de infinitas equações simultâneas em termos de 2N 1 variáveis Obviamente a solução dessas equações não é possível Contudo se especificarmos os valores de p ok somente em 2N 1 pontos como existirá uma única solução Isso assegura que um pulso terá interferência zero nos instantes de amostragem de N pulsos anteriores e N pulsos posteriores Como as amplitudes dos pulsos decaem rapidamente em geral interferência além do Nésimo pulso não é significativa para N 2 A substituição da condição 752 na Eq 751b produz um conjunto de 2N 1 equações simultâneas para 2N 1 incógnitas Essas 2N 1 equações podem ser reescritas em forma matricial como Nessa expressão compacta a matriz P r de ordem 2N 1 2N 1 tem entradas idênticas ao longo de todas as diagonais Esse tipo de matriz é conhecida como matriz de Toeplitz e é comumente encontrado na descrição de relações convolutivas Uma matriz de Toeplitz é totalmente determinada pelas primeiras linha e coluna tem algumas propriedades interessantes e admite algoritmos mais simples para o cálculo de sua inversa por exemplo os métodos de Trench 7 Os ganhos c k das derivações podem ser obtidos da solução dessa equação com o cálculo da inversa da matriz P r Exemplo 73 Para o pulso recebido p rt na Fig 722b sejam Projetemos um equalizador de três derivações N 1 Substituindo os valores anteriores na Eq 753 obtemos A solução desse conjunto de equações produz c 1 0210 c 0 1 13 e c 1 0318 Essa configuração de derivações assegura p 00 1 e p 01 p 01 0 O gráfico da saída ideal p ot é mostrado na Fig 722c 752 Vale notar que o equalizador determinado da Eq 753 pode garantir somente a condição de ISI zero da Eq 752 Em outras palavras a ISI é zero somente para k 0 1 N Na verdade para outros valores de k é muito comum que as amostras p okT b 0 indicando ISI residual Por exemplo consideremos o problema de equalizador do Exemplo 73 As amostras do pulso equalizado têm ISI zero para k 1 0 1 Contudo de podemos ver que os parâmetros do equalizado de três derivações com forçamento a zero resultarão em Fica claro portanto que nem toda ISI foi removida devido a essas quatro amostras não nulas do pulso de saída do equalizador Na verdade como temos apenas 2N 1 N 1 no Exemplo 73 parâmetros no equalizador é impossível forçar p ok 0 para todo k a menos que N Isso significa que não poderemos projetar um equalizador prático com um número finito de derivações que alcance ISI zero ideal Todavia quando N é suficientemente grande os valores de amostras não nulas residuais serão pequenos indicando que a maior parte da ISI foi suprimida Método do Mínimo Erro Quadrático Médio Na prática uma abordagem alternativa consiste em minimizar a diferença quadrática média entre a resposta de saída do equalizador p ok e a resposta desejada com ISI zero Isso é conhecido como método do mínimo erro quadrático médio MMSE minimum mean square error para o projeto de equalizadores com filtros transversais O método MMSE não tenta forçar que as amostras de pulsos sejam zero em 2N pontos mas busca minimizar o erro quadrático médio considerando um conjunto de amostras de saída O método envolve mais equações simultâneas Assim devemos determinar os valores de derivações do equalizador para minimizar o erro quadrático médio em uma janela maior K K em que usamos uma função conhecida como delta de Kronecker A solução desse problema de minimização é convenientemente representada em forma matricial como em que representa a pseudoinversa de MoorePenrose da matriz não quadrada P r de ordem 2K 1 2N 1 O projeto MMSE leva a um equalizador mais robusto para a redução de ISI Equalização Adaptativa e Outros Equalizadores Mais Genéricos A estrutura do filtro equalizador descrita aqui tem a forma mais simples Sistemas de comunicação digital práticos muitas vezes aplicam estruturas equalizadoras mais sofisticadas e algoritmos de equalização mais avançados 6 Devido às necessárias ferramentas probabilísticas adiaremos a discussão desse tema especializado de equalização para o Capítulo 12 Extração de Temporização O sinal digital recebido deve ser amostrado em instantes precisos Isso requer um sinal de relógio no receptor em sincronismo com o sinal do relógio no transmissor sincronização de símbolo ou de bit atrasado pela resposta do canal Há três métodos genéricos de sincronização 1 Derivação de um padrão primário ou secundário por exemplo transmissor e receptor escravizados à fonte mestra de temporização 2 Transmissão de um sinal de sincronização separado relógio piloto 3 Autossincronização em que a informação de temporização é extraída do próprio sinal recebido Devido ao alto custo o primeiro método é adequado a grandes volumes de dados e sistemas de comunicação de alta velocidade O segundo método em que parte da capacidade do canal é usada para transmitir a informação de temporização é adequado a situações em que a capacidade disponível é grande em comparação com a taxa de dados e quando há disponibilidade de potência de transmissão O terceiro é um método muito eficiente de extração de temporização ou recuperação de relógio pois a temporização é extraída do próprio sinal de mensagem recebido Um exemplo do método de autossincronização será discutido a seguir Já mostramos que um sinal digital como o sinal onoff Fig 73a contém uma componente discreta da frequência do relógio Fig 73c Portanto quando o sinal binário onoff é aplicado a um circuito ressonante sintonizado na frequência do relógio o sinal de saída é o desejado sinal do relógio Nem todos os sinais binários contêm uma componente discreta da frequência do relógio Por exemplo um sinal bipolar não tem componente discreta de qualquer frequência Eq 721 ou Fig 79 Nesses casos a extração da temporização pode ser possível com o uso de um dispositivo não linear para gerar um tom de frequência relacionado ao relógio de temporização No caso bipolar por exemplo uma simples retificação converte um sinal bipolar em um sinal onoff que pode ser prontamente utilizado para extrair a temporização Pequenos desvios aleatórios dos pulsos recebidos em relação à localização ideal conhecidos como incerteza temporal sempre estão presentes mesmo nos mais sofisticados sistemas Embora a fonte emita pulsos nos instantes corretos operações subsequentes durante a transmissão como deslocamento Doppler tendem a forçar os pulsos a se desviarem de suas posições originais O Q do circuito sintonizado usado para extração da temporização deve ser grande o bastante para prover adequada supressão da incerteza temporal tornandoa suficientemente pequena para atender os requisitos de estabilidade Durante os intervalos em que não há pulos na entrada a oscilação continua devido ao efeito de volante flywheel effect do circuito de alto Q Não obstante a saída do oscilador é sensível ao padrão de entrada por exemplo durante uma longa sequência de 1s a amplitude de saída aumentará ao passo que durante uma longa sequência de 0s diminuirá Isso introduz incerteza adicional ao sinal de temporização extraído Figura 723 Extração de temporização O completo extrator de temporização e gerador de pulso de temporização para o caso bipolar são ilustrados na Fig 723 A saída senoidal do oscilador extração de temporização é aplicada ao deslocador de fase que ajusta a fase do sinal de 753 temporização de modo que os pulsos de temporização ocorram nos pontos máximos Esse método é usado para recuperar o relógio em cada um dos regeneradores em um sistema PCM As incertezas introduzidas por sucessivos regeneradores se somam e após um certo número de regeneradores se torna necessário o uso de um regenerador com um sistema mais sofisticado de recuperação do relógio como um sistema de malha de captura de fase PLL phase locked loop Incerteza temporal Variações nas posições dos pulsos ou instantes de amostragem causam incerteza temporal timing jitter Isso advém de várias causas algumas das quais dependem do padrão de pulsos sendo transmitido enquanto outras não As primeiras são cumulativas ao longo da cadeia de repetidores regenerativos pois todos os repetidores são afetados da mesma forma As outras formas de incerteza são aleatórias de regenerador para regenerador e portanto tende a haver um cancelamento parcial de efeitos mútuos ao longo de um enlace de grande distância Formas aleatórias de incerteza temporal são causadas por ruído interferências e desvio de sintonia de circuitos de relógio Incerteza dependente de padrão resulta de desvios de relógio conversão amplitudefase em circuitos de relógio e ISI que altera a posição do pico do sinal de entrada segundo o padrão É possível mostrar que o valor rms da incerteza ao longo de uma cadeia de N repetidores aumenta com O acúmulo de incerteza em um enlace digital pode ser reduzido com o emprego de armazenagem elástica buffer e temporização da sequência de dígitos sob o controle de uma malha de captura de fase altamente estável Em um longo enlace digital se faz necessária a redução de incertezas a cada 300 km para manter a incerteza máxima dentro de limites razoáveis Detecção de Erro Uma vez que a transmissão tenha passado pelo equalizador a detecção pode ser feita no detector que amostra o sinal recebido com base no relógio fornecido pelo extrator de temporização O sinal recebido no detector consiste no trem de pulsos equalizados mais um ruído de canal aleatório O ruído pode causar erro na detecção de pulso Consideremos por exemplo o caso da transmissão polar que usa um pulso básico pt Fig 724a Esse pulso tem uma amplitude de pico A p Um típico trem de pulsos recebidos é mostrado na Fig 724b Os pulsos são amostrados em seus valores de pico Se o ruído estivesse ausente a amostra do pulso positivo correspondendo a 1 seria A p e a do pulso negativo correspondendo a 0 A p Devido ao ruído os valores dessas amostras passariam a A p n em que n é a amplitude do ruído aleatório Fig 724b Dada a simetria da situação o limiar de detecção é zero ou seja se o valor da amostra de pulso for positivo o dígito é detectado como 1 se o valor da amostra for negativo o dígito é detectado como 0 A decisão do detector em declarar 1 ou 0 poderia ser tomada prontamente a partir da amostra de pulso não fosse o valor do ruído n aleatório o que significa que seu valor exato é imprevisível O valor do ruído pode ser grande ou pequeno assim como pode ser negativo ou positivo É possível que 1 seja transmitido e que no instante de amostragem n tenha um valor negativo grande Isso tornaria o valor da amostra A p n pequeno ou até mesmo negativo Se por outro lado um 0 for transmitido e n tiver um valor positivo grande no instante de amostragem o valor da amostra A p n pode ser positivo e o dígito detectado como 1 Isso fica claro na Fig 724b Figura 724 Probabilidade de erro na detecção por limiar 76 O desempenho de um sistema de comunicação digital é em geral especificado pelo número médio de erros de detecção Por exemplo se dois telefones celulares receptores no mesmo local tentam detectar a mesma transmissão da estação radiobase o telefone celular com menor erros de detecção será o melhor receptor É provável que esse telefone tenha menor perda de chamadas e menos dificuldade para receber uma fala clara Contudo como o ruído é aleatório algumas vezes um telefone celular pode ser melhor outras o segundo telefone celular pode ter menos erros A real medida do desempenho do receptor é a razão média entre o número de erros e o número total de dados transmitidos Assim a comparação razoável de desempenho é a probabilidade de ocorrência de erro de detecção ou probabilidade de erro de detecção Como a análise precisa e o cálculo dessa probabilidade de erro requer conhecimento e ferramentas da teoria da probabilidade adiaremos a análise de erros até introdução de probabilidade no Capítulo 8 Mais adiante no Capítulo 10 discutiremos em detalhe a análise de probabilidade de erro de diferentes sistemas de comunicação digital considerando diversos modelos de ruído assim como projetos de sistemas para combater ruídos variados Por exemplo o ruído gaussiano pode caracterizar o ruído aleatório de canal proveniente de efeitos térmicos e interferência cross talk intrassistema Detectores ótimos podem ser projetados para minimizar a probabilidade de erro devido a ruído gaussiano Contudo transientes de comutação descargas elétricas chaveamento de carga em linhas de alta tensão e outros eventos singulares causam pulsos de ruído de alta intensidade e curta duração que contaminam os pares de cabo que transportam sinais digitais Esses pulsos denominados coletivamente ruído impulsional são de difícil combate e constituem a prevalecente fonte de erros em ambientes externos aos sistemas digitais Erros portanto praticamente jamais ocorrem de modo isolado mas em rajadas de até centenas de cada vez Para corrigir uma rajada de erros lançamos mão de códigos especiais para corrigir erros em rajadas descritos no Capítulo 14 DIAGRAMAS DE OLHO UMA FERRAMENTA ÚTIL Na seção anterior estudamos o efeito de ruído e ISI de canal na detecção de transmissões digitais Descrevemos também o projeto de equalizadores para compensar distorção de canal e explicamos o processo de extração de temporização A seguir apresentamos uma prática ferramenta de engenharia conhecida como diagrama de olho O diagrama de olho é de fácil geração e aplicado por engenheiros a sinais recebidos pois facilita o exame visual da gravidade da ISI da precisão da extração de temporização da imunidade ao ruído e de outros fatores importantes Para gerar um diagrama de olho precisamos apenas de um osciloscópio básico Dado um sinal em banda base na saída do canal o mesmo pode ser aplicado à entrada vertical do osciloscópio A base de tempo do osciloscópio é disparada à mesma taxa 1T b de chegada de pulsos produzindo uma varredura que dura exatamente T b segundos a duração de um símbolo de dado transmitido a k O osciloscópio mostra a superposição de diversos traços de comprimento T b da saída do canal yt O que aparece no osciloscópio são simplesmente cortes do sinal de entrada entrada vertical feitos a cada T b e superpostos uns aos outros O padrão resultante no osciloscópio tem a aparência de um olho humano daí a denominação diagrama de olho De modo mais genérico também podemos aplicar uma varredura temporal com duração de m intervalos de símbolos ou mT b O padrão no osciloscópio passa então a ser composto por cortes do sinal de entrada entrada vertical feitos a cada mT b e superpostos uns aos outros O osciloscópio exibirá um diagrama de olho com largura mT b e tem o formato de m olhos em uma linha horizontal A seguir apresentamos um exemplo Consideremos a transmissão de um sinal binário por pulsos polares NRZ Fig 725a Os correspondentes diagramas de olho são mostrados na Fig 725b para bases de dados T b e 2T b respectivamente Nesse exemplo o canal tem largura de banda infinita para passar o pulso NRZ e não há distorção de canal Assim obtemos diagramas de olho com olhos totalmente abertos Podemos ainda considerar uma saída de canal com o mesmo código de linha polar mas um formato diferente de pulsos RZ como mostrado na Fig 725c Os resultantes diagramas de olho são mostrados na Fig 725d Nesse caso o olho está bem aberto apenas no ponto médio do intervalo de duração de cada pulso Com extração de temporização adequada para melhor imunidade ao ruído no ponto de decisão Seção 753 o receptor deve amostrar o sinal recebido exatamente no ponto médio em que o olho está totalmente aberto O ponto médio do olho representa o melhor instante de amostragem para cada pulso pois a amplitude é máxima sem interferência de pulsos vizinhos ISI zero Figura 725 Diagrama de olho Figura 726 Leitura de um diagrama de olho Consideremos agora um canal com distorção ou com largura de banda finita ou ambos Após passagem pelo canal não ideal o sinal polar NRZ da Fig 725a se torna a forma da onda na Fig 725e Os pulsos de sinal recebidos não são mais retangulares mas arredondados distorcidos e alargados Os diagramas de olho não são mais totalmente abertos como mostrado na Fig 725f Nesse caso a ISI não é zero Portanto em cada traço os valores do pulso nos respectivos instantes de amostragem se desviarão dos valores ideais por um grau variável causando um borrão e resultando em um padrão de olho parcialmente fechado Na presença de ruído de canal o olho tenderá a se fechar em todos os casos Ruído fraco causa um fechamento proporcionalmente pequeno do olho O limiar de decisão em relação ao símbolo 1 ou 0 transmitido é o ponto médio do olho Observemos que para ISI zero o sistema pode tolerar ruído de até metade da abertura vertical do olho Qualquer valor de ruído 77 maior que esse limite pode causar erro de decisão caso seu sinal seja oposto ao do símbolo de dado Como a ISI reduz a abertura do olho também reduz a tolerância ao ruído O diagrama de olho é usado ainda para determinar especificação ótima de derivações do equalizador Derivações são ajustadas para obter o máximo de aberturas vertical e horizontal de olho O diagrama de olho é uma ferramenta muito eficaz para análise de sinais em experimentos em tempo real Não apenas é de operação simples mas fornece informação rica e importante sobre a qualidade e suscetibilidade do sinal digital recebido Do típico diagrama de olho ilustrado na Fig 726 podemos extrair diversas medidas importantes relativas à qualidade do sinal Ponto de máxima abertura O grau de abertura no instante de amostragem e decisão indica a quantidade de ruído que o detector pode tolerar sem cometer um erro Essa quantidade é conhecida como margem de ruído O instante de máxima abertura do olho indica o instante ótimo de amostragem e decisão Sensibilidade à incerteza temporal A largura do olho indica o intervalo de tempo em que uma decisão correta pode ser feita sendo desejável ter um olho com máxima abertura horizontal Se o instante de tomada de decisão se desviar do instante em que o olho tem máxima abertura vertical a margem de tolerância ao ruído fica reduzida Isso causa maior probabilidade de erro na detecção de pulsos A inclinação do olho mostra quão rápido a tolerância ao ruído é reduzida e em consequência a sensibilidade da tolerância da decisão ao ruído em relação a variações no instante de amostragem A inclinação demonstra efeitos da incerteza temporal Incerteza temporal no cruzamento de nível Tipicamente receptores práticos extraem informação de temporização sobre a taxa de pulso e sobre o relógio de amostragem a partir do cruzamento de nível zero da forma de onda do sinal recebido A variação do cruzamento de nível pode ser vista da largura das esquinas do olho Essa medida fornece informação sobre a incerteza temporal a que o receptor estará sujeito Figura 727 Diagramas de olho de um sistema de sinalização polar usando um pulso cosseno levantado com fator de decaimento r 05 a largura de 2T b 2 períodos de símbolo e deslocamento temporal T b2 b sem deslocamento temporal Por fim vejamos um exemplo prático de diagrama de olho para uma forma de onda de sinalização polar Para esse caso selecionemos um pulso com decaimento cossenoidal que satisfaça o primeiro critério de Nyquist para ISI zero Escolhamos o fator de decaimento como r 05 O diagrama de olho é mostrado na Fig 727 com uma base de tempo 2T b Na verdade para um mesmo sinal o diagrama de olho pode adquirir aparências distintas dependendo dos valores dos deslocamentos temporais aplicados pontos iniciais A Fig 727a ilustra o diagrama de olho dessa forma de onda de sinalização polar para um deslocamento temporal T b2 enquanto a Fig 727b mostra o diagrama de olho sem a aplicação de deslocamento temporal Uma comparação dos dois diagramas deixa claro que os mesmo guardam uma simples relação de deslocamento circular horizontal Observando a máxima abertura de olho vemos que esse sinal em banda base tem ISI zero confirmando a principal característica do pulso cosseno levantado Como o primeiro critério de Nyquist não impõe nenhuma condição ao cruzamento do zero do pulso o diagrama de olho indica a probabilidade de ocorrência de incerteza temporal PAM SINALIZAÇÃO MÁRIA EM BANDA BASE PARA TAXA DE DADOS MAIS ELEVADA Independentemente do código de linha usado modulações binárias em banda base têm algo em comum todas transmitem um bit de informação no intervalo de T b segundos ou seja a uma taxa de 1T b bits por segundo Caso o transmissor deseje enviar seus bits a uma taxa muito mais elevada T b deve ser reduzido Por exemplo para aumentar a taxa de bits por um fator M T b deve ser reduzido pelo mesmo fator contudo um alto preço será pago em termos de largura de banda Como demonstramos na Fig 79 a largura de banda de uma modulação em banda base é proporcional à taxa de pulsos 1T b A redução de T b por um fator M certamente aumentará a necessária largura de banda de canal pelo mesmo fator M Afortunadamente a redução de T b não é a única forma de aumentar a taxa de dados Uma solução muito prática consiste em permitir que cada pulso transporte múltiplos bits A seguir explicaremos esse conceito Para que cada símbolo de transmissão transporte mais bits no intervalo de tempo T b devem existir mais de dois símbolos Aumentando o número de símbolos para M asseguramos que a informação transmitida por símbolo também aumenta com M Por exemplo quando M 4 sinalização 4ária ou quaternária temos quatro símbolos básicos ou pulsos disponíveis para comunicação Fig 728a Uma sequência de dois dígitos binários pode ser transmitida por apenas um símbolo 4ário pois uma sequência de dois bits pode formar apenas quatro possíveis sequências 11 10 01 e 00 Como dispomos de quatro símbolos distintos podemos alocar um deles a cada uma dessas combinações Fig 728a Cada símbolo ocupa um intervalo de tempo T s Um exemplo de sinalização para uma sequência curta é dada na Fig 728b e o diagrama de olho 4ário é mostrado na Fig 728c Figura 728 Sinalização PAM 4ária a quatro símbolos RZ b transmissão em banda base c diagrama de olho RZ 4ário Essa sinalização nos permite transmitir cada par de bits por um pulso 4ário Fig 728b Logo para transmitir n bits precisamos somente de n2 pulsos 4ários Isso significa que um símbolo 4ário pode transmitir a informação de dois dígitos binários Além disso como três bits formam 2 2 2 8 combinações um grupo de três bits pode ser transmitido por um símbolo 8ário De modo similar um grupo de quatro bits podem ser transmitidos por um símbolo 16ário Em geral a informação I M transmitida por um símbolo Mário é Isso significa que podemos aumentar a taxa de transmissão de informação aumentando o valor de M Essa sinalização Mária especial é conhecida como modulação por amplitude de pulso PAM pulse amplitude modulation pois a informação de dados é transportada pela variação da amplitude do pulso Vale observar que a modulação por amplitude de pulso é apenas uma das várias possibilidades de sinalização Mária Há um número infinito de possibilidades Todavia apenas algumas poucas são de fato eficazes no combate ao ruído e na redução de largura de banda e consumo de potência Uma discussão mais detalhada de outros esquemas de sinalização Mária será apresentada um pouco mais adiante na Seção 79 Na maioria dos projetos de sistemas sempre há um preço a ser pago por ganho possível O preço pago por PAM para aumentar a taxa de dados é o consumo de potência À medida que M aumenta a potência transmitida também aumenta com M Isso se deve ao fato de que para termos imunidade ao ruído a mínima separação entre amplitudes de pulsos deve ser comparável à do pulso binário Portanto amplitudes de pulso aumentam com M Fig 728 Podemos mostrar que a potência transmitida aumenta com M 2 Exercício 775 Assim para aumentar a taxa de comunicação por um fator log 2 M a potência necessária aumenta com M 2 Como a largura de banda de transmissão depende somente da taxa de pulsos e não das amplitudes dos pulsos a largura de banda independe de M Para ilustrar esse ponto usemos o exemplo de análise de PSD a seguir Exemplo 74 Determinemos a PSD da sinalização quaternária 4ária em banda base dada na Fig 728 considerando que os bits de mensagem 1 e 0 têm igual probabilidade de ocorrência O código de linha 4ário tem quatro símbolos distintos correspondentes às quatro combinações de dois bits de mensagem Um possível mapeamento é Portanto todos os quatro valores de a k têm igual probabilidade de ocorrência cada um com uma chance de 1 em 4 Recordemos que No somatório 14 de a k será 1 e 3 Logo Para n 0 devemos determinar Para calcular esse valor médio construamos uma tabela com todos os possíveis valores do produto a k a k n Da listagem anterior de todos os possíveis produtos a k a k n vemos que cada produto no somatório a k a k n pode assumir qualquer um dos seguintes seis valores 1 3 9 Observamos que 1 9 têm igual probabilidade de ocorrência 1 em 8 Por sua vez 3 também têm igual probabilidade de ocorrência 1 em 4 Assim obtemos Logo Portanto o código de linha Mário gera a mesma forma de PSD que a sinalização polar binária A única diferença é que utiliza 5 vezes a potência de sinal original 78 Embora a maioria da rede terrestre de telefonia digital empregue codificação binária a porção da malha de assinante da rede digital de serviços integrados ISDN usa o código quaternário 2B1Q semelhante à Fig 728a São usados pulsos NRZ para transmitir 160 kbits de dados a uma taxa de baud taxa de pulsos ou de símbolos de 80 kbits Dos vários códigos de linha examinados pelo comitê de padronização de ANSI 2B1Q é o que provê maior redução da taxa de baud na planta de cabos locais ambiente ruidoso e sujeito a interferências Formatação de Pulso e Diagramas de Olho em PAM Neste caso podemos usar pulsos que satisfaçam o critério de Nyquist pois tais pulsos têm zero ISI nos pontos de amostragem e portanto suas amplitudes podem ser detectadas corretamente se forem amostradas nos centros dos pulsos Também podemos usar ISI controlada sinalização de resposta parcial para sinalização M ária 8 Figura 729 Diagramas de olho de um sistema de sinalização PAM 4ária usando pulso cosseno levantado com fator de decaimento r 05 a com dois períodos de símbolo 2T b e deslocamento temporal de T b2 b sem deslocamento temporal Diagramas de olho também podem ser gerados para PAM Mária usando o mesmo método empregado em modulações binárias Devido à sinalização em múltiplos níveis o diagrama de olho deve ter M níveis nos instantes de amostragem ótima mesmo quando a ISI for zero Aqui geramos o exemplo prático de diagrama de olho para um sinal PAM de quatro níveis que usa o mesmo pulso cosseno levantado com fator de decaimento r 05 como no diagrama de olho na Fig 727 Os correspondentes diagramas de olho com deslocamentos temporais de T b2 e 0 são dados nas Fig 729 a e b respectivamente Mais uma vez nenhuma ISI é observada nos instantes de amostragem Os diagramas de olho mostram claramente quatro valores de sinais igualmente separados sem ISI nos pontos de amostragem ótima SISTEMAS DIGITAIS COM PORTADORA Até aqui discutimos sistemas digitais em banda base em que sinais são transmitidos diretamente sem nenhum deslocamento em frequência Como sinais em banda base têm muita potência nas frequências baixas são adequados à transmissão por um par de fios ou por um cabo coaxial Uma boa parte da comunicação moderna é conduzida dessa forma Contudo sinais em banda base não podem ser transmitidos em enlaces de rádio ou de satélites pois isso exigiria antenas demasiadamente grandes e impraticáveis para irradiar eficientemente o espectro de baixa frequência desses sinais Portanto para essas aplicações o espectro do sinal deve ser deslocado a uma faixa de frequências altas Um deslocamento do espectro para frequências mais altas também se faz necessário para transmitir várias mensagens simultaneamente com compartilhamento da grande largura de banda de um meio de transmissão Como vimos no Capítulo 4 o espectro de um sinal pode ser deslocado para uma frequência mais alta usando o sinal em banda base para modular uma senoide portadora de alta frequência Na transmissão e recepção de sinais digitais com portadora precisamos de um modulador e de um demodulador para transmitir e receber dados Para comunicação em duas direções duplex esses dois dispositivos modulador e demodulador são comumente empacotados em uma unidade que recebe o nome de modem 781 Modulações Binárias Básicas com Portadora Há duas formas básicas de modulação de portadora modulação em amplitude e modulação em ângulo Na modulação em amplitude a amplitude da portadora é variada em proporção ao sinal modulante ou seja o sinal em banda base Isso é ilustrado na Fig 730 Uma portadora não modulada cos ω c t é mostrada na Fig 730a O sinal onoff em banda base mt sinal modulante é mostrado na Fig 730b Segundo a Eq 71 o sinal modulante pode ser escrito como Figura 730 a Portadora cos ω c t b Sinal modulante mt c ASK sinal modulado mt cos ω c t O código de linha a k 0 1 é onoff Quando a amplitude da portadora é variada em proporção a mt podemos escrever o sinal modulado com portadora como que é mostrado na Fig 730c Reparemos que o sinal modulado ainda é um sinal onoff Esse esquema de modulação para transmissão de dados binários é conhecido como chaveamento onoff OOK onoff keying ou modulação por chaveamento de amplitude ASK amplitude shift keying O sinal em banda base mt pode obviamente usar um pulso pt diferente do retangular mostrado no exemplo da Fig 730 Isso gerará um sinal ASK que não tem amplitude constante durante a transmissão de 1 a k 1 Se o sinal em banda base mt fosse polar Fig 731a o correspondente sinal modulado mt cos ω c t teria a aparência ilustrada na Fig 731b Nesse caso se pt for o pulso básico transmitimos 1 por um pulso pt cos ω c t e 0 por pt cos ω c t pt cos ω c t π Os dois pulsos portanto estão defasados de π radianos A informação reside na fase ou no sinal do pulso Por essa razão esse esquema é conhecido como chaveamento por deslocamento de fase PSK phase shift keying Reparemos que a transmissão ainda é polar Na verdade assim como ASK o sinal PSK modulado com portadora tem a mesma forma com a diferença que o código de linha é polar a k 1 Quando dados são transmitidos por meio da variação da frequência temos o caso de chaveamento por deslocamento de frequência FSK frequency shift keying como ilustrado na Fig 731c Um 0 é transmitido por um pulso de frequência ω c0 e um 1 por um pulso de frequência ω c1 A informação sobre o dado transmitido reside na frequência portadora O sinal FSK pode ser visto como a soma de dois sinais ASK entrelaçados um com frequência portadora ω c0 e outro com frequência portadora ω c1 Podemos usar a expressão de ASK binário da Eq 757 e escrever o sinal FSK como 782 em que a k 0 1 é onoff Assim o sinal FSK é uma superposição de dois sinais AM com diferentes frequências portadoras e amplitudes diferentes mas complementares Figura 731 a Sinal modulante mt b PSK sinal modulado mtcosω c t c FSK sinal modulado Na prática a ASK como um esquema onoff é comumente usado em sistemas de comunicação por fibra óptica na forma de modulação da intensidade do laser A PSK é comumente utilizado em sistemas de comunicação por satélite e também foi usado nos primeiros modems telefônicos 2400 e 4800 bits Quanto à FSK em 1962 a ATT desenvolveu um dos primeiros modems para linha telefônica chamado 103A e usava a FSK para transmitir 300 bits em duas frequências 1070 e 1270 Hz a recepção era FSK em 2025 e 2225 Hz PSD de Modulação Digital com Portadora Acabamos de mostrar que os esquemas de modulação binária com portadora ASK PSK e FSK podem ser escritos na forma mt cos ω c t Para determinar a PSD dos sinais ASK PSK e FSK é conveniente que primeiro determinemos a relação entre a PSD de mt e a PSD do sinal modulado Recordemos da Eq 380 que a PSD de φt é em que Ψ T é a transformada de Fourier do sinal truncado Aqui m T t é o sinal em banda base truncado com transformada de Fourier M T f Aplicando a propriedade de translação em frequência Eq 336 temos Por conseguinte a PSD do sinal modulado com portadora φt é Como Mf é um sinal em banda base M T f f c e M T f f c têm sobreposição zero à medida que T desde que f c seja maior que a largura de banda de Mf Portanto concluímos que Em outras palavras para uma frequência portadora escolhida de modo apropriado a modulação causa um deslocamento na PSD do sinal em banda base O sinal ASK na Fig 730c se encaixa nesse modelo com mt sendo um sinal onoff usando um pulso NRZ ou de largura completa Portanto a PSD do sinal ASK é igual à de um sinal onoff Fig 74b deslocada para f c como mostrado na Fig 732a Recordemos que usando um pulso retangular de largura completa pt Nesse caso a PSD do sinal onoff na Fig 730b não tem componentes discretas exceto em dc Em consequência o espectro ASK tem componentes discretas apenas em ω c O sinal PSK também se encaixa nessa descrição de modulação em que mt é um sinal polar que usa um pulso NRZ de largura completa Portanto a PSD de um sinal PSK é igual à do sinal polar em banda base deslocada para w c como mostrado na Fig 732b Reparemos que essa PSD tem a mesma forma com diferente fator de escala que a PSD do sinal ASK sem suas componentes discretas 783 Figura 732 PSD de a ASK b PSK e c FSK Por fim mostramos que o sinal FSK pode ser visto como a soma de dois sinais ASK entrelaçados usando o pulso de largura completa Portanto o espectro FSK é a soma de dois espectros ASK nas frequências ω c 0 e ω c 1 como mostrado na Fig 732c Podemos mostrar que com escolha adequada de ω c 0 e ω c 1 e com manutenção da continuidade de fase durante a translação em frequência as componentes discretas podem ser eliminadas em ω c 0 e ω c 1 Com isso nenhuma componente discreta aparece nesse espectro É importante ressaltar que a largura de banda de FSK é maior que às de ASK ou PSK Como observado anteriormente a sinalização polar é o esquema mais eficiente do ponto de vista de potência PSK por ser polar requer 3 dB de potência menor que ASK ou FSK para uma mesma imunidade ao ruído ou seja para uma mesma probabilidade de erro na detecção de pulsos É claro que podemos também modular o esquema bipolar ou qualquer outro discutido anteriormente Reparemos que na Fig 730 e na Fig 731 usamos pulso retangular NRZ apenas para facilitar a ilustração Na prática pulsos em banda base podem ser formatados especificamente para eliminar a ISI Relações entre Modulações Analógica e Digital com Portadora Existe uma relação natural e clara entre ASK e AM pois a mensagem de informação é diretamente refletida na variação da amplitude do sinal modulado Devido à sua amplitude não negativa a ASK é em essência um sinal AM com índice de modulação μ 1 Existe uma conexão similar entre FSK e FM FSK é simplesmente um sinal FM com um número limitado de frequências instantâneas A relação entre PSK e modulação em ângulo é um pouco mais sutil Para PSK o sinal modulado pode ser escrito como 784 Esse sinal pode portanto ser relacionado a PM Contudo um exame mais detalhado do sinal PSK revela que devido à fase constante θ k sua frequência instantânea não varia Na verdade fazendo a k A cos θ k e b k A sen θ k podemos reescrever o sinal PSK como Da Eq 761 reconhecemos uma forte semelhança com a representação do sinal QAM dada na Seção 44 Portanto uma modulação digital PSK guarda uma relação próxima com o sinal analógico QAM Em particular para PSK binário θ 0 π Assim PSK binário pode ser escrito como Isso é efetivamente uma manifestação digital da modulação em amplitude DSBSC Na verdade como veremos mais adiante se permitirmos que a k assuma valores em múltiplos níveis e tomarmos b k 0 podemos gerar outra modulação digital com portadora conhecida como modulação por amplitude de pulso ou PAM que pode transportar múltiplos bits durante cada intervalo de tempo T b de modulação Como estudado no Capítulo 4 a modulação em amplitude DSBSC tem melhor eficiência de potência que AM Portanto a PSK binária tem melhor eficiência de potência que a ASK Em termos de uso de largura de banda podemos ver de suas relações com modulações analógicas que a ASK e a PSK têm idênticas larguras de banda enquanto a FSK requer maior largura de banda Essas observações corroboram de modo intuitivo os resultados de PSD na Fig 732 Demodulação A demodulação de sinais modulados digitais é similar à de sinais modulados analógicos Devido às relações entre ASK e AM entre FSK e FM e entre PSK e QAM ou DSBSC AM as diferentes técnicas empregadas para modulações analógicas podem ser diretamente aplicadas aos equivalentes digitais Detecção ASK Assim como a AM a ASK Fig 730c pode ser demodulada de forma coerente para detecção síncrona ou incoerente para detecção de envelope O detector coerente requer equipamento mais elaborado e tem desempenho superior especialmente quando a potência de sinal e portanto a SNR é baixa Para SNR mais alta o detector de envelope tem desempenho quase tão bom como o detector coerente Por conseguinte a detecção coerente não é muito utilizada para ASK pois violaria o propósito do esquema simplicidade de detecção Se pudermos tirar proveito de um detector síncrono é preferível o uso de PSK que tem melhor eficiência de potência que ASK Detecção FSK Novamente o sinal FSK binário pode ser visto como dois sinais ASK entrelaçados com frequências portadoras ω c 0 e ω c 1 Fig 732c Portanto a FSK pode ser detectada de forma coerente ou incoerente Na detecção incoerente o sinal que chega é aplicado a um par de filtros sintonizados em ω c 0 e ω c 1 Cada filtro é seguido por um detector de envelope Fig 733a As saídas dos dois detectores de envelope são amostradas e comparadas Se um 0 for transmitido por um pulso de frequência ω c 0 esse pulso aparecerá na saída do filtro sintonizado em ω c 0 Praticamente nenhum sinal aparecerá na saída do filtro sintonizado em ω c 1 Assim a amostra da saída do detector de envelope que segue o filtro ω c 0 será maior que a amostra da saída do detector de envelope que segue o filtro ω c 1 e o receptor decide que um 0 foi transmitido No caso de um 1 ocorre o oposto É óbvio que a FSK também pode ser detectada coerentemente com a geração de duas frequências de referência ω c 0 e ω c 1 para os dois demoduladores para a demodulação do sinal recebido e a subsequente comparação das saídas dos dois demoduladores como ilustrado na Fig 733b Assim o detector FSK coerente deve gerar duas portadoras em sincronia com as portadoras de modulação Novamente esse demodulador complexo viola o propósito da FSK projetado principalmente para detecção mais simples e não coerente Na prática a detecção FSK coerente não é utilizada Figura 733 a Detecção incoerente de FSK b Detecção coerente de FSK Figura 734 Detector PSK binário coerente similar a um demodulador DSBSC Detecção PSK Em PSK binário um 1 é transmitido por um pulso A cos ω c t e um 0 por um pulso A cos ω c t Fig 731b A informação em sinais PSK reside na fase da portadora Assim como em DSBSC esses sinais não podem ser demodulados por detecção de envelope pois o envelope é o mesmo para 1 e 0 Fig 731b O detector coerente da modulação PSK binária é mostrado na Fig 734 A detecção coerente é similar à usada para sinais analógicos Métodos de aquisição de portadora foram discutidos na Seção 48 PSK Diferencial Embora a detecção de envelope não possa ser usada para PSK ainda é possível explorar o número finito de valores de fase de modulação para detecção incoerente De fato sinais PSK podem ser demodulados de forma incoerente por meio de um engenhoso método conhecido como PSK diferencial ou DPSK O princípio da detecção diferencial é que o receptor detecte a mudança de fase relativa entre sucessivas fases moduladas θ k e θ k 1 Como os valores de fase em PSK são finitos iguais a 0 e π em PSK binário o transmissor pode codificar o dado de informação na diferença de fase θ k θ k 1 Por exemplo uma diferença de fase zero representa 0 enquanto uma diferença de fase π significa 1 Essa técnica é conhecida como codificação diferencial antes da modulação Em um código diferencial um 0 é codificado pelo mesmo pulso usado para codificar o bit de dado anterior sem transição e 1 é codificado pelo negativo do pulso usado para codificar o bit de dado anterior transição A codificação diferencial é de simples implementação como mostrado na Fig 735b Reparemos que a adição é em módulo 2 O sinal codificado é mostrado na Fig 735b Desse modo uma transição na sequência de pulsos do código de linha indica 1 e nenhuma transição 0 O sinal modulado consiste em pulsos Figura 735 a Codificação diferencial b sinal codificado c receptor PSK diferencial Se o bit de dado for 0 o pulso corrente e o anterior têm a mesma polaridade ou fase os dois pulsos são iguais a A cos ω c t ou iguais a A cos ω c t Se o bit de dado for 1 o pulso corrente e o anterior têm polaridades ou fases opostas se o pulso corrente for A cos ω c t o anterior é A cos ω c t ou viceversa Na demodulação da DPSK Fig 735c evitamos a geração de uma portadora local observando que o próprio sinal modulado recebido é uma portadora A cos ω c t com uma possível ambiguidade de sinal Para demodulação no lugar da portadora podemos usar o sinal recebido atrasado por T b um intervalo de bit Se o pulso recebido for igual ao anterior o produto dos dois será yt A 2 cos 2 ω c t A 221 cos 2ω c t e a saída do filtro passabaixas zt A 22 Imediatamente detectamos o pulso corrente como um 0 Se o pulso recebido e o anterior tiverem polaridades opostas yt A 2 cos 2 ω c t e zt A 22 e o bit corrente é detectado como 1 A Tabela 73 ilustra um exemplo específico de codificação e decodificação Tabela 73 Codificação diferencial e detecção de DPSL binário Tempo k 0 1 2 3 4 5 6 7 8 9 10 I k 1 0 1 0 0 1 1 1 0 0 q k 0 1 1 0 0 0 1 0 1 1 1 Código de linha a k 1 1 1 1 1 1 1 1 1 1 1 θ k π 0 0 π π π 0 π 0 0 0 θ k θ k 1 π π π π π 0 0 79 Bits detectados 1 0 1 0 0 1 1 1 0 0 Em termos de complexidade de demodulação ASK FSK e DPSK podem ser todos detectados incoerentemente sem uma portadora síncrona no receptor A PSK por sua vez deve ser detectada coerentemente Detecção incoerente no entanto tem um preço em termos de imunidade ao ruído Do ponto de vista de imunidade ao ruído a PSK coerente é superior a todos os outros esquemas A PSK também requer menor largura de banda do que a FSK Fig 732 Uma discussão quantitativa sobre esse tema será feita no Capítulo 10 MODULAÇÃO DIGITAL MÁRIA COM PORTADORA As modulações digitais binárias ASK FSK e PSK com portadora transmitem um bit de informação por intervalo de T b segundos o que corresponde a uma taxa de bits de 1T b bits Assim como no caso da transmissão de sinais digitais em banda base maior taxa de transmissão de bits pode ser alcançada com a redução de T b ou com aplicação de sinalização Mária a primeira opção requer mais largura de banda e a segunda mais potência Na maioria dos sistemas de comunicação largura de banda é estritamente limitada Assim para conservar largura de banda uma forma eficaz de aumentar a taxa de transmissão de dados consiste em generalizar a modulação binária com o emprego de sinalização Mária Especificamente podemos aplicar modulações ASK de M níveis FSK de M frequências e PSK de M fases ASK Mária e Detecção Incoerente A ASK Mária é uma generalização muito simples da modulação ASK binária Em vez de enviar apenas a modulação ASK Mária pode enviar log 2 M bits por vez ao transmitir por exemplo Esse ainda é um sinal AM que usa M amplitudes distintas e um índice de modulação μ 1 A largura de banda é igual à do sinal ASK binário enquanto a potência cresce proporcionalmente com M 2 A demodulação pode ser feita por detecção de envelope ou por detecção coerente FSK Mária e Sinalização Ortogonal A FSK Mária é gerada com a seleção de uma senoide do conjunto A cos 2πf it i 1 M para transmitir um padrão particular de log 2 M bits Em geral com FSK podemos projetar um incremento de frequência δf e definir Para essa modulação FSK com igual separação entre frequências o desvio de frequência na análise do sinal FM é Fica claro que a seleção do conjunto de frequências f i determina o desempenho e a largura de banda da modulação FSK Se δf for escolhido demasiadamente grande o sinal FSK Mário usará excessiva largura de banda Se por outro lado δf for escolhido demasiadamente pequeno no intervalo de tempo de T b segundos praticamente não haverá distinção entre diferentes símbolos FSK e o receptor será incapaz de distinguir os símbolos de modo confiável Assim grande valor de δf leva a desperdício de largura de banda enquanto pequeno δf favorece a suscetibilidade a erros de detecção devido ao ruído de transmissão e à interferência O projeto da modulação FSK Mária requer a determinação de um valor suficientemente pequeno de δf de modo que cada símbolo FSK A cos ω c t seja distinguível de todos os outros símbolos FSK Uma solução para esse problema de projeto de sinais FSK pode ser encontrada na discussão do espaço ortogonal de sinais na Seção 262 Se pudermos projetar símbolos FSK que sejam ortogonais em T b com a seleção de um pequeno valor para δf ou Δf os sinais FSK serão verdadeiramente distintos no intervalo T b e o consumo de largura de banda será pequeno Para determinar o mínimo valor de δf que leva a um conjunto ortogonal de sinais FSK a condição de ortogonalidade segundo a Seção 262 requer que Podemos usar essa condição para determinar o mínimo δf Primeiro calculemos Como em modulações práticas f m f nT b é muito grande em geral não menor que 10 3 o primeiro termo na Eq 763 é efetivamente zero e desprezível Assim a condição de ortogonalidade se reduz à condição que para quaisquer inteiros m n Como f m f 1 m 1δf para mútua ortogonalidade temos Dessa condição fica claro que o menor δf que satisfaz a condição de mútua ortogonalidade é Essa escolha de mínima separação de frequência é conhecida como FSK de mínimo deslocamento Por formar um conjunto ortogonal de símbolos essa escolha também é conhecida como sinalização ortogonal Podemos descrever a modulação FSK de mínimo deslocamento geometricamente aplicando o conceito de funções de base ortogonais da Seção 26 Sejam Podemos comprovar com facilidade que Assim cada símbolo FSK pode ser escrito como A relação geométrica entre os dois símbolos FSK para M 2 é capturada na Fig 736 A demodulação de sinais FSK Mários segue os mesmos princípios que a demodulação de sinais FSK binários Com a generalização dos demoduladores FSK binários na Fig 733 podemos aplicar um banco de M detectores coerentes ou incoerentes para sinais FSK Mários antes de tomar uma decisão com base no ramo detector mais intenso Anteriormente na análise da PSD de modulações em banda base mostramos que no intervalo de símbolo T b a largura de banda de um sinal digital em banda base podia ser aproximada por 1T b Portanto para FSK de deslocamento mínimo Δf M 14T b e segundo a regra de Carson a largura de banda é aproximadamente Na verdade podemos mostrar que em geral a largura de banda de um esquema Mário ortogonal é M vezes a do esquema binário Seção 107 Eq 10123 Portanto em um esquema Mário ortogonal a taxa de comunicação aumenta por um fator log 2 M ao custo de um aumento na largura de banda de transmissão por um fator M No esquema ortogonal para uma comparável imunidade ao ruído a potência de transmissão praticamente independe de M Por conseguinte em contraste com a modulação ASK Mária a FSK Mária não requer maior potência de transmissão Contudo seu requisito de largura de banda aumenta quase linearmente com M em comparação com FSK binária ou ASK Mária Figura 736 Símbolos FSK binários no espaço ortogonal bidimensional de sinais Figura 737 Símbolos PSK Mário no espaço ortogonal de sinais a M 2 b M 4 c M 8 PSK PAM e QAM Márias Com uma pequena modificação na Eq 761 sinais PSK genéricos podem ser escritos no formato em que a m A cos θ m e b m A sen θ m Na verdade com base na análise na Seção 26 cos ω c t e sen ω c t são mutuamente ortogonais Além disso são normalizados no intervalo 0 T b Como resultado podemos representar todos os símbolos PSK em um sinal bidimensional de sinais com funções de base tais que Podemos ilustrar geometricamente a relação entre símbolos PSK no espaço de sinais Fig 737 A Eq 764 significa que modulações PSK podem ser representadas como uma modulação QAM Na verdade como o sinal é PSK os pontos de sinal devem satisfazer a condição especial Em outras palavras todos os pontos de sinal devem estar em uma circunferência de raio A Na prática todos os pontos de sinal são escolhidos para serem igualmente espaçados com o propósito de obter melhor imunidade ao ruído Portanto para a sinalização PSK Mária os ângulos são escolhidos como uniformemente espaçados A sinalização PSK especial com M 4 é um formato de modulação digital extremamente popular e poderoso Esse sinal é a soma de dois sinais PSK binários de mesma frequência um com portadora cos ω c t em fase e outro com portadora sen ω c t em quadratura Por essa razão este sinal também é conhecido como PSK em quadratura QPSK quadrature PSK Podemos transmitir e receber os dois sinais no mesmo canal dobrando a taxa de transmissão Para generalizar PSK e alcançar taxa de dados ainda mais alta podemos ver que a representação PSK da Eq 764 é um caso especial da modulação em amplitude em quadratura QAM discutida no Capítulo 4 Fig 419 A única diferença reside na exigência de PSK de que o sinal modulado tenha uma magnitude módulo constante A Na verdade o formato de modulação QAM muito mais flexível e geral também pode ser convenientemente usado para modulação digital O sinal transmitido por um sistema QAM Mário pode ser escrito como em que e pt é um pulso em banda base adequadamente formatado A escolha mais simples para pt seria um pulso retangular Pulsos melhores podem certamente ser aplicados para conservar largura de banda A Fig 738 mostra o modulador e o demodulador QAM Cada um dos dois sinais m 1t e m 2t é uma sequência de pulsos em banda base Os dois sinais são modulados por duas portadoras de mesma frequência mas em quadratura de fase O sinal QAM digital p it pode ser gerado por meio de QAM com m 1t a ipt e m 2t b ipt Os sinais m 1t e m 2t são sinais PAM em banda base O diagrama de olho do sinal QAM consiste na componente em fase m 1t e na componente em quadradura m 2t Ambas exibem o diagrama de olho do sinal PAM Mário em banda base como discutido anteriormente na Seção 76 A representação geométrica de sinais QAM Mários pode ser obtida como extensão do espaço de sinais PSK com a simples remoção da condição de módulo constante na Eq 764c Uma escolha prática e muito popular de r i e θ i para M 16 é ilustrada graficamente na Fig 738b O pulso transmitido p it pode assumir 16 formas distintas e portanto é um pulso 16ário Como M 16 cada pulso pode transmitir a informação de log 2 16 4 dígitos binários Isso pode ser feito da seguinte forma há 16 possíveis sequências de quatro dígitos binários e há 16 combinações a i b i na Fig 738b Assim cada possível sequência de quatro bits é transmitida por um particular a i b i ou r i θ i Portanto um pulso de sinal r ipt cos ω c t θ i transmite quatro bits Em comparação com PSK binário ou BPSK a taxa de bits do sinal QAM 16ário é quatro vezes maior sem aumentar a largura de banda A taxa de transmissão pode ser aumentada ainda mais com o aumento do valor de M Modulação e demodulação podem ser efetuadas com o sistema ilustrado na Fig 738a As entradas são m 1t a ipt e m 2t b ipt As duas saídas do demodulador são a ipt e b ipt O conhecimento de a i b i permite a determinação de quatro bits transmitidos Uma análise mais detalhada de sinais QAM 16ários em canal ruidoso é feita na Seção 106 Eq 10104 O valor prático da sinalização QAM16 fica evidente quando consideramos a grande variedade de suas aplicações Na verdade a QAM 16 é usada em modems de dados telefônicosfax V32 9600 bits em modems de cabo de alta velocidade e na moderna difusão da televisão digital via satélite Reparemos que se desabilitarmos a sequência de dados que modula sen ω c t em QAM todos os pontos de sinalização poderão ser reduzidos a uma única dimensão Fazendo m 2t 0 a modulação QAM passa a Figura 738 a QAM ou multiplexação em quadratura e b QAM de 16 pontos M 16 710 Que se degenera em modulação por amplitude de pulso ou PAM Uma comparação da expressão do sinal p it com a do sinal DSBSC analógico deixa claro que PAM é a versão digital de DSBSC Assim como um sinal QAM analógico é formado pela superposição de dois sinais com modulação em amplitude DSBSC em quadratura de fase o sinal QAM digital consiste em dois sinais PAM cada um com níveis de sinalização Como na relação entre as modulações DSBSC analógica e QAM a PAM requer a mesma largura de banda que QAM No entanto a PAM é muito menos eficiente pois necessita de M níveis de sinalização de modulação em uma dimensão enquanto QAM requer apenas com níveis de sinalização em cada uma das duas dimensões QAM ortogonais Negociação entre Potência e Largura de Banda No Capítulo 10 discutiremos outros tipos de sinalização Mária A natureza da negociação entre largura de banda de transmissão e potência transmitida ou SNR depende da escolha do esquema Mário Por exemplo na sinalização ortogonal a potência transmitida praticamente independe de M mas a largura de banda de transmissão aumenta com M No caso PAM em contraste a potência transmitida aumenta aproximadamente com M 2 enquanto a largura de banda permanece constante Assim a sinalização Mária nos permite grande flexibilidade na negociação entre potência de sinal ou SNR e largura de banda de transmissão A escolha do sistema apropriado depende de circunstâncias particulares Por exemplo o uso de sinalização QAM é apropriado se a largura de banda for limitada como em linha telefônicas e o uso de sinalização ortogonal é adequado quando há restrição de potência como em comunicações espaciais EXERCÍCIOS COM O MATLAB Nesta seção apresentamos programas MATLAB para gerar diagramas de olho O primeiro passo consiste na especificação das formas básicas de pulso em PAM Os quatro programas curtos dados a seguir são usados para gerar pulsos NRZ RZ meia senoide e cosseno levantado O primeiro programa binaryeyem usa quatro diferentes formas de pulso para gerar diagramas de olho de sinalização polar binária 1 2 O segundo programa Maryeyem usa quatro diferentes formas de pulso para gerar diagramas de sinalização PAM de quatro níveis REFERÊNCIAS A Lender Duobinary Technique for High Speed Data Transmission IEEE Trans Commun Electron vol CE82 pp 214 218 May 1963 A Lender Correlative Level Coding for BinaryData Transmission IEEE Spectrum vol 3 no 2 pp 104115 Feb 1966 3 4 5 6 7 8 721 a b a b 723 724 a b 731 722 P Bylanski and D G W Ingram Digital Transmission Systems Peter Peregrinus Ltd Hertshire England 1976 H Nyquist Certain Topics in Telegraph Transmission Theory AIEE Trans vol 47 p 817 April 1928 E D Sunde Communication Systems Engineering Technology Wiley New York 1969 RW Lucky and H R Rudin Generalized Automatic Equalization for Communication Channels IEEE Int Commun Conf vol 22 1966 W F Trench An Algorithm for the Inversion of Finite Toeplitz Matrices J SIAM vol 12 pp 515522 Sept 1964 A Lender Chapter 7 in Digital Communications Microwave Applications K Feher Ed PrenticeHall Englewood Cliffs NJ 1981 EXERCÍCIOS Considere um pulso retangular de largura completa Determine a PSD para as sinalizações polar onoff e bipolar Esboce o gráfico de cada PSD e determine sua largura de banda Para cada sinalização compare a largura de banda com a do caso em que pt é um pulso retangular de meia largura Uma sequência aleatória de dados binários 110100101 é transmitida com o uso do código de linha Manchester bifásico com o pulso pt mostrado na Fig 77a Esboce o gráfico da forma de onda yt Calcule S yf a PSD de um sinal Manchester bifásico na parte a supondo que 1 e 0 têm igual probabilidade de ocorrência Esboce o gráfico desta PSD e determine sua largura de banda Para a forma de pulso use o código diferencial Fig 718 para determinar a PSD para um sinal binário Determine a PSD S yf O código de linha duobinário proposto por Lender também é terciário como o bipolar mas requer somente metade da largura de banda de bipolar Na prática o código duobinário é realizado indiretamente com o uso de uma forma especial de pulso como discutido na Seção 73 Fig 718 Nesse código um 0 é transmitido por ausência de pulso e um 1 por um pulso pt ou pt segundo a regra um 1 é codificado pelo mesmo pulso usado para o 1 anterior se houver um número par de 0s entre eles um 1 é codificado por um pulso com polaridade oposta à do pulso usado para o 1 anterior se houver um número ímpar de 0s entre eles Um número 0 é considerado um número par Como o bipolar esse código também tem uma capacidade de detecção de erro isolado pois a recepção correta implica que entre sucessivos pulsos de mesma polaridade deve ocorrer um número par de 0s e entre sucessivos pulsos de polaridades opostas um número ímpar de 0s Admitindo um pulso retangular de meia largura esboce o gráfico do sinal duobinário yt para a sequência binária aleatória 1110001101001010 Determine R 0 R 1 e R 2 para este código Admita se preferir prove que R n 0 para todo n 2 Determine a PSD para esse código de linha considerando um pulso de meia largura e esboce seu gráfico Mostre que sua largura de banda é R b 2 metade da largura de banda do código bipolar Dados a uma taxa de 6 kbits devem ser transmitidos em uma linha privada com largura de banda de 4 kHz usando pulsos que satisfaçam o critério de Nyquist Determine o máximo valor do fator de 732 a b 733 a b c d e 734 a b c 735 736 decaimento r que pode ser usado Em um certo sistema de telemetria há oito medidas analógicas cada uma com largura de banda de 2 kHz Amostras desses sinais são multiplexadas por divisão no tempo quantizadas e codificadas em binário O erro nas amplitudes das amostras não pode ultrapassar 1 da amplitude de pico Determine L o número de níveis de quantização Determine a largura de banda de transmissão B T se forem usados pulsos que satisfaçam o critério de Nyquist com fator de decaimento r 02 A taxa de amostragem deve ser pelo menos 25 acima da taxa de Nyquist Uma linha privada de telefonia com largura de banda de 3 kHz é usada para transmitir dados binários Calcule da taxa de dados em bits por segundo que pode ser transmitida se for usado Sinal polar com pulsos retangulares de meia largura Sinal polar com pulsos retangulares de largura completa Sinal polar com pulsos que satisfaçam o critério de Nyquist com fator de decaimento r 025 Sinal bipolar com pulsos retangulares de meia largura Sinal bipolar com pulsos retangulares de largura completa A transformada de Fourier Pf do pulso básico pt usado em certos sistemas de comunicação binária é mostrado na Fig E734 A partir da forma de Pf determine a que taxa de pulsos esse pulso satisfaria o critério de Nyquist Determine pt e comprove que esse pulso satisfaz ou não o critério de Nyquist Se o pulso não satisfizer o critério de Nyquist qual é a taxa de transmissão em bits por segundo e qual é o valor do fator de decaimento Figura E734 Um pulso pt cujo espectro Pf é mostrado na Fig E735 satisfaz o critério de Nyquist Se f 1 08 MHz e f 2 12 MHz determine a máxima taxa em que dados binários podem ser transmitidos por esse pulso usando o critério de Nyquist Qual é o valor do fator de decaimento Figura E735 Dados binários à taxa de 1 Mbits devem ser transmitidos com uso de pulsos que satisfaçam o critério de Nyquist sendo Pf mostrada na Fig E735 As frequências f 1 e f 2 do espectro são ajustáveis O canal 737 738 739 7310 a b 7311 a b 741 742 disponível para transmissão desses dados tem largura de banda de 700 kHz Determine f 1 e f 2 e o fator de decaimento Mostre que a transformada de Fourier inversa de Pf na Eq 739 é de fato o pulso pt dado na Eq 738 que satisfaz o segundo critério de Nyquist Sugestão Use a Eq 332 para determinar a transformada inversa de Fourier de Pf na Eq 739 e expresse sinc x na forma sen xx Mostre que a transformada de Fourier inversa de Pf o espectro do pulso cosseno levantado na Eq 735 é o pulso pt dado na Eq 736 Sugestão Use a Eq 332 para determinar a transformada inversa de Fourier de Pf na Eq 735 e expresse sinc x na forma sen xx Mostre que existe um e somente um pulso pt de largura de banda R b 2 Hz que satisfaz o segundo critério de Nyquist Eq 737 Mostre que esse pulso é dado por e que sua transformada de Fourier é Pf dada na Eq 739 Sugestão Para um pulso de largura de banda R b 2 Hz o intervalo de Nyquist é 1R b T b e a condição 737 dá os valores das amostras de Nyquist em t nT b Para construir pt use a fórmula de interpolação Eq 610 com B R b 2 T s T b Na determinação de Pf use Em uma transmissão de dados binários usando pulsos duobinários valores de amostras foram lidos como 120 2 200 202002000 2 Determine se há qualquer erro na detecção Se não houver erro de detecção determine a sequência de bits recebida Em uma transmissão de dados binários usando pulsos duobinários valores de amostras foram lidos como 12000 200 20200 20220 2 Determine se há qualquer erro na detecção Você é capaz de deduzir a correta sequência de dígitos transmitida Há mais de uma sequência correta possível Forneça tantas sequências corretas quanto possível admitindo que a ocorrência de mais de um erro de detecção é extremamente provável No Exemplo 72 quando a sequência S 101010100000111 foi aplicada à entrada do desembaralhador na Fig 720a a saída T foi determinada como 101110001101001 Comprove que quando essa sequência T é aplicada à entrada do desembaralhador na Fig 720b a saída é a sequência original de entrada S 101010100000111 Projete um desembaralhador para o embaralhador da Fig E742 Se uma sequência S 101010100000111 for aplicada à entrada do embaralhador determine a sequência de saída T Comprove que se essa sequência T for aplicada à entrada do desembaralhador a saída será a sequência S 743 751 a b 771 a b 772 a b c 773 a Figura E742 Repita o Exercício 742 para o caso em que o desembaralhador mostrado na Fig E743 é concatenado com o embaralhador na Fig E742 para formar um embaralhador composto Figura E743 Em certo sistema de comunicação binária que usa pulsos que satisfazem o critério de Nyquist um pulso recebido p r t Fig 722a tem os seguintes valores de amostras não nulas Determine a configuração das derivações de um equalizador de três derivações e forçamento a zero Usando o equalizador na parte a determine a ISI residual não nula Em um esquema PAM com M 16 Determine a mínima largura de banda necessária para transmitir dados a uma taxa de 12000 bitss com ISI zero Determine a largura de banda de transmissão se pulsos que satisfazem o critério de Nyquist com fator de decaimento r 02 forem usados para transmitir os dados Um sinal de áudio de largura de banda de 4 kHz é amostrado a uma taxa 25 acima da taxa de Nyquist e quantizado O erro de quantização não deve exceder 01 da amplitude de pico do sinal As resultantes amostras quantizadas são então codificadas e transmitidas por pulsos 4ários Determine o número mínimo de pulsos 4ários para codificar cada amostra Determine a largura mínima de banda necessária à transmissão destes dados com ISI zero Se pulsos 4ários que satisfaçam o critério de Nyquist com 25 de decaimento forem usados para transmitir estes dados determine a largura de banda de transmissão Dados binários são transmitidos em um certo canal a uma taxa de R b bits Para reduzir a largura da banda foi decidido o uso de sinalização PAM 16ária para a transmissão desses dados Qual é o fator de redução de largura de banda b 774 775 a b 781 a b 782 783 Qual é o fator de aumento da potência de transmissão admitindo que a mínima separação entre amplitudes de pulso seja a mesma nos dois casos Sugestão Tome amplitudes de pulso como A2 3A2 5A2 7A2 15A2 de modo que a mínima separação entre os vários níveis de amplitude seja A como no caso binário com pulsos A2 Suponha que todos os 16 níveis tenham igual probabilidade de ocorrência Recorde ainda que a multiplicação de um pulso por uma constante k aumenta a energia do mesmo k 2 vezes Um sinal de áudio de largura de banda de 10 kHz é amostrado à taxa de 24 kHz quantizado em 256 níveis e codificado por pulsos PAM Mários que satisfazem o critério de Nyquist com fator de decaimento r 02 Uma largura de banda de 30 kHz é disponível para a transmissão dos dados Determine o melhor valor de M Considere o caso de transmissão binária via sinalização polar que usa pulsos retangulares de meia largura de amplitudes A2 e A2 A taxa de dados é R b bits Qual é a mínima largura de banda e a potência transmitida Esses dados devem ser transmitidos por pulsos retangulares Mários de meia largura e amplitudes Repare que para manter a mesma imunidade ao ruído a mínima separação entre amplitudes de pulso é A Se todos os pulsos Mários tiverem igual probabilidade de ocorrência mostre que a potência transmitida será Determine ainda a largura de banda A Fig E781 mostra um esquema de transmissão de dados binários O gerador de sinal em banda base usa pulsos de largura completa e sinalização polar A taxa de dados é 1 Mbits Se o modulador gerar um sinal PSK qual é a largura de banda da saída modulada Se o modulador gerar FSK com diferença f c 1 f c 0 100 kHz Fig 732c determine a largura de banda do sinal modulado Figura E781 Refaça o Exercício 781 com pulsos de largura completa que satisfazem o critério de Nyquist com r 02 Refaça o Exercício 781 para um esquema multiamplitude com M 4 sinalização PAM com pulsos de largura completa Em FSK Exercício 781 parte b admita que níveis sucessivos de amplitude sejam transmitidos por frequências separadas por 100 kHz Isso admite não mais que um erro em sequência Múltiplos erros em sequência podem cancelar os respectivos efeitos e assim não serem detectados Contudo a probabilidade de múltiplos erros é muito menor que a de apenas um erro Mesmo para um erro não podemos identificar sua localização exatamente Portanto esse código detecta a presença de erros isolados mas não é capaz de corrigilos Acoplamento ac é necessário porque as rotas dc providas por pares de cabo entre estações repetidoras são usadas para transmitir a potência necessária à operação dos repetidores A rigor a primeira frequência de nulo acima de dc nem sempre é uma boa medida da largura de banda de um sinal A quantidade de sinal contida no lóbulo principal primeiro da PSD é que determina se o primeiro nulo não dc será uma medida significativa de largura de banda como veremos mais adiante ao compararmos a PSD de vários códigos de linha Fig 79 Na maioria dos casos práticos essa aproximação é aceitável para os códigos de linha e formas de pulsos usados comumente O esquema que usa pulso de largura completa pt ΠtT b é um exemplo de um esquema sem retorno ao zero NRZ O esquema de meia largura de pulso por sua vez é um exemplo de um esquema com retorno ao zero RZ O trem de impulsos na Fig 323a do Exemplo 311 é Além disso a série de Fourier para esse trem de impulsos é obtida da Eq 267 como Tomamos a transformada de Fourier dos dois lados dessa equação e usamos o fato de que Isso leva a Na verdade um pulso correspondendo a 0 seria negativo Contudo considerar todos os pulsos como positivos não afeta o raciocínio Mostrar pulsos negativos tornaria a figura desnecessariamente confusa Observemos que se R b 2B em que B é a largura de banda em hertz de Pf as repetições de Pf não se sobrepõem e a condição 727 não pode ser satisfeita Para R b 2B a condição é satisfeita somente para o caso ideal passabaixas Pf pt sinc πR b t que não é realizável Logo devemos ter B R b 2 O espectro de fase é linear θ p f πfT b O repetidor em geral inclui circuito para proteger a eletrônica do regenerador de transientes de alta tensão induzidos por surtos de potência ou descargas elétricas Enrolamentos especiais de transformador podem ser fornecidos para acoplar sinais espúrios a cabos dedicados Assumindo ISI zero Isso se aplica ao caso de decisão em dois níveis por exemplo quando pt e pt são usados para 1 e 0 respectivamente No caso de decisão em três níveis por exemplo sinalização bipolar haverá dois limiares QPSK tem diversas variações práticas incluindo QPSK offset A 81 té aqui estudamos sinais cujos valores em qualquer instante t eram determinados por suas descrições analíticas ou gráficas Sinais desse tipo são determinísticos implicando certeza absoluta sobre seus valores em qualquer instante de tempo t Esses sinais que podem ser especificados com certeza são incapazes de transportar informação Veremos no Capítulo 13 que a informação é inerentemente relacionada à incerteza Quanto maior a incerteza em relação a um sinal ou mensagem a ser recebidoa maior o conteúdo de informação Se uma mensagem a ser recebida for especificada ou seja previamente conhecida não conterá incerteza e portanto não transportará qualquer informação ao receptor Portanto sinais que transportam informação devem ser imprevisíveis Além dos sinais que transportam informação sinais de ruído que perturbam sinais de informação em um sistema também são imprevisíveis caso contrário poderiam ser subtraídos As formas de onda de sinais de mensagem e de ruído imprevisíveis são exemplos de processos aleatórios que têm papel fundamental em sistemas de comunicação e na análise dos mesmos Fenômenos aleatórios têm origem em nossa parcial ignorância dos mecanismos de geração como nos casos de sinais de mensagem e de ruído ou no fato de os fenômenos serem governados por leis que são fundamentalmente aleatórias como em mecânica quântica Em ainda outra situação como o resultado da jogada de um dado é possível prever o resultado desde que saibamos exatamente todas as condições o ângulo em que o dado foi lançado a natureza da superfície em que o mesmo é jogado a força imposta pelo jogador e assim por diante A grande complexidade e a alta sensibilidade a todas as condições fazem com que a análise exata do problema seja impraticável o que nos obriga a aceitar a predição de resultado em termos médios Aqui o fenômeno aleatório tem origem em nossa falta de disposição em efetuar a análise completa uma vez que a coleta precisa de todas as condições é impraticável e não justifica o esforço Iniciemos com uma revisão de conceitos fundamentais da teoria da probabilidade que forma a base para a descrição de processos aleatórios CONCEITO DE PROBABILIDADE Para iniciar a discussão de probabilidade precisamos definir alguns elementos básicos e termos importantes O termo experimento é usado na teoria da probabilidade para descrever um processo cujo resultado não pode ser predito completamente pois as condições em que é executado não podem ser predeterminadas com precisão e completeza suficientes O lançamento de uma moeda ou dado e a retirada de uma carta de um baralho são exemplos de tais experimentos Um experimento pode ter vários resultados que podem ser identificados separadamente Por exemplo o lançamento de um dado tem seis resultados identificáveis possíveis 1 2 3 4 5 e 6 Um evento é um subconjunto de resultados que compartilham algumas características comuns Um evento ocorre se o resultado do experimento pertencer ao específico subconjunto de resultados que define o evento No experimento de lançamento de um dado por exemplo o evento número ímpar obtido admite três resultados 1 3 e 5 Logo esse evento é um conjunto que consiste em três resultados 1 3 e 5 Assim eventos são agrupamentos de resultados em classes entre as quais decidimos estabelecer uma distinção Os conceitos de experimento resultados e eventos formam a base da teoria da probabilidade Figura 81 Espaço de amostras para o lançamento de um dado Definimos o espaço de amostras ou espaço amostral S como uma coleção de todos os resultados possíveis e identificáveis de um experimento Em outras palavras o espaço de amostras S especifica o experimento Cada resultado é um elemento ou ponto de amostra ou ponto amostral desse espaço S e pode ser representado por um ponto no espaço de amostras No experimento de lançamento de um dado por exemplo o espaço de amostras consiste em seis elementos representados pelos seis pontos ζ 1 ζ 2 ζ 3 ζ 4 ζ 5 e ζ 6 em que ζ i representa o resultado número i é obtido Fig 81 O evento por sua vez é um subconjunto de S O evento número ímpar é obtido denotado por A o é um subconjunto de S ou um conjunto dos pontos de amostra ζ 1 ζ 3 e ζ 5 Do mesmo modo o evento A e número par é obtido é outro subconjunto de S ou um conjunto dos pontos de amostra ζ 2 ζ 4 e ζ 6 A o ζ 1 ζ 3 ζ 5 A e ζ 2 ζ 4 ζ 6 Denotemos o evento número menor ou igual a 4 é obtido por B Assim B ζ 1 ζ 2 ζ 3 ζ 4 Esses eventos são marcados na Fig 81 Reparemos que um resultado também pode ser um evento pois um resultado é um subconjunto de S com somente um elemento O complemento de qualquer evento A denotado por A c é o evento que contém todos os pontos que não estão em A Assim para o exemplo B na Fig 81 B c ζ 5 ζ 6 Um evento que não tenha pontos de amostra é um evento nulo denotado por 0 e igual a S c A união de eventos A e B denotada por A B é o evento que contém todos os pontos em A e em B Esse evento é enunciado como tendo um resultado de A ou de B Para os eventos na Fig 81 Observemos que a operação de união comuta Figura 82 Representação de a complemento b união e c interseção de eventos A interseção ou intersecção de eventos A e B denotada por A B ou simplesmente AB é o evento que contém pontos comuns de A e de B Esse evento é enunciado como tendo um resultado que é de A e de B também conhecido como evento conjunto A B Assim os eventos A e B número par menor ou igual a 4 para cima é o conjunto ζ 2 ζ 4 A oB é obtido do mesmo modo Observemos que a interseção também comuta Todos esses conceitos podem ser demonstrados em um diagrama de Venn Fig 82 Se os eventos A e B forem tais que então dizemos que A e B são eventos disjuntos ou mutuamente exclusivos Isso significa que eventos A e B não podem ocorrer simultaneamente Na Fig 81 os eventos A e e A o são mutuamente exclusivos isso significa que em qualquer repetição ou ensaio do experimento se A e ocorrer A o não pode ocorrer ao mesmo tempo e viceversa Frequência Relativa e Probabilidade Embora o resultado de um experimento seja imprevisível existe uma regularidade estatística nos resultados Por exemplo se uma moeda for jogada um grande número de vezes em cerca da metade das vezes o resultado será cara e na outra metade coroa Podemos dizer que a frequência relativa dos dois resultados cara e coroa é um meio Essa frequência relativa representa a possibilidade de ocorrência de um evento particular Seja A um dos eventos de interesse em um experimento Se conduzirmos uma sequência de N repetições independentes desse experimento e se o evento A ocorrer em N A das N repetições a fração é denominada frequência relativa do evento A Observemos que para N pequeno o valor da fração NAN pode variar muito com N À medida que N aumenta a fração tenderá a um limite devido à regularidade estatística A probabilidade de um evento tem as mesmas conotações que a frequência relativa do evento Assim estimamos a probabilidade de cada evento como a frequência relativa do evento Portanto para um evento A alocamos uma probabilidade PA Da Eq 85 segue que Exemplo 81 Aloquemos probabilidade a cada um dos seis resultados na Fig 81 Como cada um dos seis resultados tem igual possibilidade de ocorrência em um grande número de repetições independentes cada resultado aparecerá em um sexto das repetições Logo Consideremos agora os dois eventos A e B de um experimento Suponhamos que efetuemos N repetições independentes desses experimentos e que eventos A e B ocorram em NA e NB repetições respectivamente Se A e B forem mutuamente exclusivos ou disjuntos se A ocorrer B não pode ocorrer e viceversa Portanto o evento A B ocorre em NA NB repetições e Esse resultado pode ser estendido a mais de dois eventos mutuamente exclusivos Em outras palavras se eventos A i forem mutuamente exclusivos tais que então Exemplo 82 Aloquemos probabilidades aos eventos A e A o B A e B e A oB na Fig 81 Como A e ζ 2 ζ 4 ζ 6 sendo ζ 2 ζ 4 e ζ 6 mutuamente exclusivos Da Eq 87 segue que Do mesmo modo Da Fig 81 podemos observar que e Da mesma forma Podemos mostrar que Esse resultado pode ser provado com o uso de frequência relativa Seja um experimento repetido N vezes N grande Como S é a união de todos os resultados possíveis S ocorre em cada repetição Logo o evento S ocorre em N de N repetições resultando na Eq 811 Exemplo 83 Dois dados são lançados Determinemos a probabilidade de que a soma dos números em cada dado seja sete Para esse experimento o espaço de amostras contém 36 pontos de amostra pois existem 36 resultados possíveis Todos os resultados têm igual possibilidade de ocorrência Logo a probabilidade de cada resultado é 136 A soma igual a sete pode ser obtida de seis combinações 1 6 2 5 3 4 4 3 5 2 e 6 1 Logo o evento a soma é sete é a união de seis resultados cada um com probabilidade 136 Portanto Exemplo 84 Uma moeda é jogada quatro vezes seguidas Determinemos a probabilidade de obtermos exatamente duas caras Um total de 2 4 16 resultados distintos é possível e todos têm igual possibilidade de ocorrência dada a simetria da situação Portanto o espaço de amostras consiste em 16 pontos cada um com probabilidade 116 Os 16 resultados são os seguintes nos quais H representa cara e T coroa Seis dos 16 resultados levam ao evento ocorrência de duas caras marcados com setas Como todos os seis resultados são disjuntos mutuamente exclusivos temos No Exemplo 84 o método de listar todos os resultados possíveis rapidamente se torna impraticável à medida que o número de jogadas de moeda aumenta Por exemplo se uma moeda for jogada apenas 10 vezes o número total de resultados será 1024 Uma abordagem mais conveniente seria aplicar os resultados de análise combinatória usada em repetições de Bernoulli a serem discutidas em breve Probabilidade Condicional e Eventos Independentes Probabilidade Condicional Com frequência a probabilidade de um evento é influenciada pelo resultado de outro Como exemplo consideremos a retirada de duas cartas sucessivas de um baralho Seja A o evento em que a primeira carta retirada é um ás A carta tirada na primeira rodada não é devolvida ao baralho Seja B o evento em que a segunda carta retirada é um ás É evidente que a probabilidade de tirar um ás na segunda rodada será influenciada pelo resultado da primeira Se a primeira rodada não resultar em um ás a probabilidade de obter um ás na segunda rodada é 451 A probabilidade do evento B depende portanto da ocorrência do evento A Agora introduzimos o conceito de probabilidade condicional PBA para denotar a probabilidade do evento B dada a ocorrência do evento A PBA é lido como probabilidade de B dado A Consideremos N repetições de um experimento em que o evento A ocorre n 1 vezes Dessas n 1 repetições o evento B ocorre n 2 vezes É claro que n 2 é o número de vezes em que o evento conjunto A B Fig 82c ocorre Ou seja Reparemos que lim N n 1N PA lim N n 2n 1 PBA pois B ocorre n 2 das n 1 vezes em que A ocorre Isso representa a probabilidade condicional de B dado A Portanto e Usando um argumento semelhante obtemos Da Eq 813 segue que As Eqs 814 são chamadas regra de Bayes Na regra de Bayes uma probabilidade condicional é expressa em termos da probabilidade condicional reversa Exemplo 85 Um experimento consiste em tirar duas cartas de um baralho sucessivamente sem devolver ao baralho a primeira carta retirada Aloquemos um valor à probabilidade de obter dois ases vermelhos em duas rodadas Sejam A e B os eventos ás vermelho na primeira rodada e ás vermelho na segunda rodada respectivamente Desejamos determinar PA B e a frequência relativa de A é 252 126 Logo PBA é a probabilidade de tirar um ás vermelho na segunda rodada dado que um ás vermelho foi tirado na primeira A frequência relativa desse evento é 151 de modo que Logo Eventos Independentes Na probabilidade condicional apresentamos um exemplo no qual a ocorrência de um evento era influenciada pela ocorrência de outro É claro que há muitos exemplos em que dois ou mais eventos são totalmente independentes isto é a ocorrência de um evento não influencia de forma alguma a ocorrência do outro evento Como exemplo mais uma vez consideremos a retirada de duas cartas sucessivas de um baralho mas agora a carta tirada na primeira rodada é devolvida e o baralho é embaralhado para a segunda rodada Nesse caso o resultado da segunda rodada não é influenciado de modo algum pelo resultado da primeira rodada Assim PB a probabilidade de tirar um ás na segunda rodada independe da ocorrência do evento A tirar um ás na primeira rodada Portanto os eventos A e B são independentes A probabilidade condicional PBA é dada por PB O evento B é independente do evento A se e somente se Reparemos que se os eventos A e B forem independentes das Eqs 813a e 815b segue que Essa relação afirma que se B for independente de A sua probabilidade não é afetada pelo evento A Naturalmente se o evento B for independente do evento A o evento A também é independente do evento B Podemos ver da Eq 814 que Reparemos que há uma grande diferença entre eventos independentes e eventos mutuamente exclusivos Se A e B forem mutuamente exclusivos A B é vazio e PA B 0 Se A e B forem mutuamente exclusivos A e B não podem ocorrer ao mesmo tempo Isso significa que NÃO são eventos independentes Repetições de Bernoulli Nas repetições ou ensaios de Bernoulli se um dado evento A ocorrer dizemos que é um sucesso Se PA p a probabilidade do sucesso é p Se q for a probabilidade de falha q 1 p Determinemos a probabilidade de k sucessos em n repetições de Bernoulli O resultado de cada ensaio independe dos resultados dos outros ensaios É claro que em n ensaios se sucessos ocorrerem em k deles falha deve ocorrer em n k ensaios Como os resultados das repetições são independentes a probabilidade desse evento é p n1 p nk ou seja Pk sucessos em uma ordem específica em n ensaios p k 1 p nk Contudo o evento k sucessos em n ensaios pode ocorrer de várias maneiras diferentes ordens diferentes Da análise combinatória é bem conhecido que existem maneiras em que k posições podem ser tomadas de n posições o que é igual ao número de maneiras de obter k sucessos em n repetições Isso pode ser provado da seguinte forma consideremos uma urna que contém n bolas distintas marcadas como 1 2 n Suponhamos que k bolas sejam retiradas dessa urna e não devolvidas A primeira bola pode ser qualquer uma das n bolas a segunda pode ser qualquer uma das remanescentes n 1 bolas e assim por diante Portanto o número total de maneiras em que k bolas podem ser retiradas é A seguir consideremos um conjunto qualquer de k bolas retiradas Essas bolas podem ser ordenadas de diferentes formas Poderíamos rotular qualquer uma das k bolas como a de número 1 qualquer uma das k 1 bolas remanescentes como a de número 2 e assim por diante Isso produz um total de kk 1k 2 1 k padrões distintos formados por k bolas O número total de maneiras em que k coisas podem ser tomadas de n coisas é nn k Todavia muitas dessas formas usarão as mesmas k coisas ordenadas de formas diferentes Essas formas em que k coisas podem ser tomadas de n coisas sem considerar a ordem um subconjunto desordenado k tomado de n coisas é nn k dividido por k Isso é precisamente definido pela Eq 816 Isso significa que a probabilidade de k sucessos em n repetições é Jogar uma moeda e observar o número de caras é um ensaio de Bernoulli com p 05 Logo a probabilidade de observar k caras em n rodadas é Exemplo 86 Um canal simétrico binário BSC Binary Symmetric Channel tem probabilidade de erro P e isto é P e é a probabilidade de receber 0 quando 1 é transmitido ou viceversa Notemos que o comportamento do canal é simétrico em relação a 0 e 1 Assim e em que Pyx denota a probabilidade de receber y quando x foi transmitido Uma sequência de n dígitos binários é transmitida nesse canal Determinemos a probabilidade de receber exatamente k dígitos em erro A recepção de cada dígito independe da recepção dos outros dígitos Esse é um exemplo de uma repetição de Bernoulli com probabilidade de sucesso p P e sucesso aqui consiste em receber um dígito com erro A probabilidade de k sucessos em n repetições k erros em n dígitos é Por exemplo se P e 10 5 a probabilidade de receber dois dígitos com erro em uma sequência de oito dígitos é Exemplo 87 Probabilidade de Erro em Repetidor PCM Na modulação por código de pulso repetidores regenerativos são usados para detectar pulsos antes que sejam perdidos em ruído e retransmitir pulsos novos e limpos Isso combate o acúmulo de ruído e distorção de pulso Certo canal PCM consiste em n enlaces idênticos em cascata Fig 83 Os pulsos são detectados no fim de cada enlace e pulsos novos e limpos são transmitidos ao próximo enlace Se P e for a probabilidade de erro na detecção de um pulso em qualquer enlace mostremos que P E a probabilidade de erro na detecção de um pulso em todo o canal nos n enlaces em cascata é Figura 83 Repetidor PCM As probabilidades de detecção de um pulso corretamente em um enlace e em todo o canal n enlaces em cascata são 1 P e e 1 P E respectivamente Um pulso pode ser detectado corretamente em todo o canal se o pulso for detectado corretamente em cada enlace ou erros forem feitos somente em um número par de enlaces em que a denota o maior inteiro menor ou igual a a Como a detecção de pulsos em cada enlace independe da detecção em outros enlaces Exemplo 86 Pdetecção correta em todos os n enlaces 1 P e n e Logo Na prática P e 1 de modo que somente os dois primeiros termos no lado direito dessa equação são relevantes Temos 1 P e nk 1 e Se n P e 1 o segundo termo também pode ser desprezado de modo que Podemos explicar esse resultado heuristicamente considerando a transmissão de N N pulsos Cada enlace faz NP e erros e o número total de erros é aproximadamente nNP e aproximadamente pois alguns pulsos em erro em um enlace estarão em erro em outros enlaces Assim a probabilidade total de erro é nP e Exemplo 88 Em comunicação binária uma das técnicas usadas para aumentar a confiabilidade de um canal consiste em repetir uma mensagem diversas vezes Por exemplo podemos enviar cada mensagem 0 ou 1 três vezes Portanto os dígitos transmitidos são 000 para a mensagem 0 ou 111 para a mensagem 1 devido ao ruído de canal podemos receber qualquer uma das oito possíveis combinações de três dígitos binários A decisão para determinar a mensagem transmitida é feita segundo a regra da maioria ou seja se pelo menos dois dos três dígitos detectados são 0 a decisão é 0 e assim por diante Esse esquema permite a correta recepção de dados mesmo se um dentre três dígitos estiver em erro A detecção de erro ocorre somente se pelo menos dois dos três dígitos forem recebidos em erro Se P e for a probabilidade de erro de um dígito e P for a probabilidade de fazer uma decisão errônea nesse esquema então Na prática P e 1 e Por exemplo se P e 10 4 P 3 10 8 Assim a probabilidade de erro é reduzida de 10 4 para 3 10 8 Para que esse esquema funcione podemos usar qualquer número ímpar de repetições Nesse exemplo maior confiabilidade foi alcançada ao custo da redução na taxa de transmissão de informação por um fator de 3 Veremos no Capítulo 14 que existem maneiras mais eficientes com uso de meio de códigos corretores de erros para barganhar confiabilidade por taxa de transmissão Regra da Multiplicação para Probabilidades Condicionais Como mostrado na Eq 812 podemos escrever o evento conjunto Essa regra para eventos conjuntos pode ser generalizada para múltiplos eventos A 1 A 2 A n via iterações Se A 1A 2 A n 0 temos Reparemos que como A 1A 2 A n 0 cada denominador na Eq 818a é positivo e bem definido Exemplo 89 Suponhamos que uma caixa contenha N g diodos bons e N b diodos defeituosos Se cinco diodos forem selecionados aleatoriamente um de cada vez e não forem devolvidos à caixa determinemos a probabilidade de obter a sequência de diodos na ordem bom defeituoso bom bom defeituoso Podemos denotar por G i o evento em que o diodo retirado na iésima repetição é um diodo bom Estamos interessados no evento Figura 84 Evento de interesse B e a partição de S em A i Dividir para Conquistar Teorema da Probabilidade Total Ao analisar um particular evento de interesse algumas vezes a adoção de uma abordagem direta na determinação de sua probabilidade pode ser difícil pois pode haver um número demasiadamente grande de resultados a considerar Em problemas desse tipo em geral é vantajosa a adoção de uma abordagem dividir para conquistar em que são separados todos os casos possíveis que levam ao particular evento de interesse B O teorema da probabilidade total fornece uma ferramenta perfeita para analisar a probabilidade de tais problemas Definimos S como o espaço de amostras do experimento de interesse Como mostrado na Fig 84 o espaço de amostras inteiro pode ser partido em n eventos disjuntos A 1 A n Agora podemos enunciar o teorema Teorema da Probabilidade Total Sejam n eventos disjuntos A 1 A n que formam uma partição do espaço de amostras S tal que Então a probabilidade de um evento B pode ser escrita como Prova A prova desse teorema é muito simples com base na Fig 84 Como A i forma uma partição de S Como os eventos A i são disjuntos os eventos A iB também são disjuntos Logo Com a identificação de todas as diferentes causas A i para B esse teorema pode simplificar a análise do evento mais complexo B de interesse Ao quantificar o efeito de A i em B por meio de PBA i o teorema permite que dividamos para conquistar um problema complexo do evento B Exemplo 810 A decodificação de um pacote de dados pode estar em erro devido a N distintos padrões de erro E 1 E 2 E N que podem ocorrer Esses padrões de erro são mutuamente exclusivos cada um com probabilidade PE i p i Quando o padrão de erro E i ocorre o pacote de dados seria detectado erroneamente com probabilidade q i Determinemos a probabilidade de o pacote de dados ser decodificado incorretamente Apliquemos o teorema da probabilidade total para resolver este problema Primeiro definamos B como o evento em que o pacote de dados é decodificado incorretamente Pelo enunciado do problema sabemos que Além disso o pacote de dados foi detectado incorretamente Portanto Aplicando o teorema da probabilidade total determinamos Isolação de uma Causa Particular Teorema de Bayes O teorema da probabilidade total facilita análise probabilística de um evento complexo por meio de uma abordagem dividir para conquistar Na prática também pode ser útil determinar a possibilidade de ocorrência de uma causa particular de um evento dentre muitas causas disjuntas possíveis O teorema de Bayes fornece a solução para esse problema Teorema de Bayes Sejam n eventos disjuntos A 1 A n que formam uma partição de um espaço de amostras S Seja B um evento com PB 0 Então para j 1 n A prova é dada pelo próprio teorema O teorema de Bayes fornece um método simples para calcular a probabilidade condicional de A j dado que B tenha ocorrido A probabilidade PA jB é com frequência referida como probabilidade posterior do evento A j PA jB descreve dentre n causas possíveis de B a probabilidade de que B possa ser causado por A j Em outras palavras o teorema de Bayes isola e determina a probabilidade relativa de ocorrência de cada possível causa de um evento de interesse Exemplo 811 Um sistema de comunicação sempre encontra uma de três formas de onda interferentes F 1 F 2 ou F 3 A probabilidade de cada interferência é 08 016 e 004 respectivamente O sistema de comunicação falha com probabilidade 001 01 e 04 quando encontra F 1 F 2 ou F 3 respectivamente Dado que o sistema falhou determinemos a probabilidade de que a falha tenha resultado de F 1 F 2 ou F 3 respectivamente Denotemos por B o evento da falha do sistema Sabemos do enunciado que Além disso o efeito de cada interferência no sistema é dado por Agora segundo o teorema de Bayes temos 82 O Exemplo 811 ilustra a maior diferença entre probabilidade posterior PF iB e probabilidade anterior PF i Embora a probabilidade anterior PF 3 004 seja a menor entre todas as três interferências possíveis uma vez que o evento de falha B tenha ocorrido PF 3B 04 é um dos eventos de maior possibilidade de ocorrência O teorema de Bayes é uma ferramenta importante em comunicações para a determinação de possibilidade relativa de ocorrência de uma particular causa de um evento Teoria Axiomática da Probabilidade A definição de frequência relativa é intuitivamente atraente Infelizmente há algumas objeções matemáticas contra ela É lógico que não existe razão para calcularmos uma estimativa da frequência relativa com base em 10000 ensaios ou em 20 Além disso na definição de frequência relativa não fica claro quando e em que sentido matemático existe o limite na Eq 85 Se considerarmos um conjunto de um número infinito de ensaios podemos partir cada conjunto em vários subconjuntos como ensaios de ordens par e ímpar Cada um desses subconjuntos com um número infinito de ensaios teria sua própria frequência relativa Até aqui falharam todas as tentativas no sentido de provar que as frequências relativas de todos os subconjuntos são iguais 1 Há ainda outras dificuldades Por exemplo alguns casos como a visita de Júlio César à GrãBretanha consistem em experimento para o qual não é possível repetir um número infinito de ensaios de um evento Assim jamais poderemos determinar a probabilidade de tal evento Fazse portanto necessário desenvolver uma teoria de probabilidade que não esteja atrelada a qualquer definição particular de probabilidade Em outras palavras fazse necessário separar o problema empírico de probabilidade do problema formal A alocação de probabilidade a um evento é um aspecto empírico enquanto o estabelecimento de cálculo puramente formal para tratar de probabilidades alocadas por qualquer método empírico é o aspecto formal É conveniente que consideremos aqui a diferença básica entre ciências físicas e matemáticas Ciências físicas baseiamse na lógica indutiva enquanto a matemática é estritamente uma lógica dedutiva A lógica indutiva consiste em efetuar um grande número de observações e a partir de tais observações enunciar leis genéricas que as expliquem Por exemplo história e experiência nos dizem que todo ser humano deve morrer um dia Isso leva a uma lei que estipula que humanos são mortais Este é um exemplo de lógica intuitiva Com base em uma lei ou leis obtidas por lógica indutiva podemos fazer mais deduções A asserção João é um ser humano de modo que deve morrer um dia exemplifica a lógica dedutiva A dedução de leis das ciências físicas é basicamente um exercício de lógica indutiva enquanto matemática é pura lógica dedutiva Em uma ciência física fazemos observações em um dado campo e as generalizamos em leis como a de Ohm equações de Maxwell e mecânica quântica Não há provas para essas leis obtidas de modo indutivo tais leis são validadas por observações Contudo uma vez que tenhamos leis formuladas de modo indutivo axiomas ou hipóteses podemos por meio de raciocínio deduzir resultados adicionais com base apenas nessas leis ou axiomas básicos Esse é o domínio próprio da matemática Todos os resultados deduzidos devem ser provados de forma rigorosa com base em um conjunto de axiomas Assim com base somente nas equações de Maxwell podemos deduzir as leis de propagação de ondas eletromagnéticas Essa discussão mostra que a disciplina de matemática pode ser resumida em um aforismo Isso implica aquilo Em outras palavras se tivermos um conjunto de axiomas hipóteses com base apenas nesses axiomas o que mais é verdadeiro Como disse Bertrand Russell A matemática pura consiste inteiramente em asseverações de que se tal proposição é verdade de qualquer coisa então essa outra proposição é verdade daquela coisa Sob essa luz pode parecer que a alocação de probabilidade a um evento pode não ser necessariamente a responsabilidade da disciplina matemática de probabilidade Na disciplina matemática devemos iniciar com um conjunto de axiomas sobre probabilidade e então investigar o que mais pode ser dito sobre probabilidade com base somente nesse conjunto de axiomas Iniciemos com um conceito ainda indefinido de probabilidade e postulemos axiomas Os axiomas devem ser internamente consistentes e devem se conformar às relações e comportamentos observados de probabilidade nos sentidos prático e intuitivo A discussão de como esses axiomas são formulados foge do escopo deste livro A moderna teoria da probabilidade tem início com as Eqs 86 88 e 811 como axiomas Com base apenas nesses três axiomas o que mais é verdadeiro representa a essência da moderna teoria da probabilidade A abordagem da frequência relativa usa a Eq 85 para definir probabilidade e as Eqs 85 88 e 811 seguem como uma consequência dessa definição Na abordagem axiomática por sua vez nada dizemos sobre como alocar uma probabilidade PA a um evento A postulamos que a função probabilidade deva obedecer aos três postulados ou axiomas nas Eqs 86 88 e 811 A moderna teoria da probabilidade não se preocupa com o problema de alocar probabilidades a eventos mas supõe que de alguma forma as probabilidades foram alocadas a esses eventos a priori Para que um modelo matemático se conforme a fenômenos reais devemos alocar probabilidades de modo consistente com um entendimento empírico e intuitivo de probabilidade O conceito de frequência relativa é admiravelmente adequado para esse fim Assim embora usemos a frequência relativa para alocar e não para definir probabilidades fica tudo sob o tapete não é uma parte da disciplina matemática de probabilidade VARIÁVEIS ALEATÓRIAS O resultado de um experimento pode ser um número real como no caso do lançamento de um dado ou não numérico descrito por uma frase como cara ou coroa no lançamento de uma moeda De um ponto de vista matemático é mais simples ter valores numéricos para todos os resultados Por essa razão alocamos um número real a cada ponto de amostra segundo alguma regra Se houver m pontos de amostra ζ 1 ζ 2 ζ m com o uso de alguma regra conveniente alocamos um número real xζ i ao ponto de amostra ζ i i 1 2 m No caso do lançamento de uma moeda por exemplo podemos alocar o número 1 ao resultado cara e o número 1 ao resultado coroa Fig 85 Assim x é uma função que mapeia os pontos de amostra ζ 1 ζ 2 ζ m em números reais x 1 x 2 x n Agora temos uma variável aleatória x que assume os valores x 1 x 2 x n Usaremos o tipo romano x para denotar uma variável aleatória VA e o tipo itálico por exemplo x 1 x 2 x n para denotar os valores que a mesma assume A probabilidade de uma VA x tomar um valor x i é P xx i Probabilidade de x x i Variáveis Aleatórias Discretas Uma variável aleatória é discreta se existir uma sequência numerável de números distintos x i tais que Figura 85 Probabilidades em um experimento de lançamento de moeda Assim uma VA discreta assume somente certos valores discretos Uma VA que pode assumir qualquer valor em um conjunto contínuo é denominada variável aleatória contínua Exemplo 812 Dois dados são lançados A soma dos pontos que aparecem nos dois dados é uma VA x Determinemos os valores assumidos por x e as correspondentes probabilidades Vemos que x pode assumir todos os valores inteiros de 2 a 12 Várias probabilidades podem ser determinadas pelo método delineado no Exemplo 83 Há 36 pontos de amostra no total cada um com probabilidade 136 Os resultados para diversos valores de x são listados na Tabela 81 Reparemos que embora existam 36 pontos de amostra todos são mapeados em 11 valores de x Isso ocorre porque mais de um ponto de amostra é mapeado em um mesmo valor de x Por exemplo seis pontos de amostra são mapeados em x 7 O leitor pode verificar que Tabela 81 Valor de x i Resultados de lançamentos de dados P xx i 2 11 136 3 1 2 2 1 236 118 4 1 3 2 2 3 1 336 112 5 1 4 2 3 3 2 4 1 436 19 6 1 5 2 4 3 3 4 2 5 1 536 7 1 6 2 5 3 4 4 3 5 2 6 1 636 16 8 2 6 3 5 4 4 5 3 6 2 536 9 3 6 4 5 5 4 6 3 436 19 10 4 6 5 5 6 4 336 112 11 5 6 6 5 236 118 12 6 6 136 A discussão anterior pode ser estendida a duas VAs x e y A probabilidade conjunta P xyx i y j é a probabilidade x x i e y y j Consideremos por exemplo o caso de uma moeda lançada duas vezes sucessivamente Se o resultado do primeiro e do segundo lançamentos forem mapeados nas VAs x e y então x e y podem assumir valores 1 e 1 Como os resultados dos dois lançamentos são independentes x e y são independentes e e Figura 86 Representação de probabilidades conjuntas de duas variáveis aleatórias Essas probabilidades são ilustradas na Fig 86 Para um caso genérico em que a variável x pode assumir valores x 1 x 2 x n e a variável y pode assumir valores y 1 y 2 y m temos Isso segue do fato de o somatório na esquerda ser a probabilidade da união de todos os resultados possíveis e portanto deve ser a unidade um evento certo Probabilidades Condicionais Se x e y forem duas VAs a probabilidade condicional de x x i dado y y j é denotada por P xyx iy j Além disso Isso pode ser provado observando que probabilidades P xyx iy j são especificadas no espaço de amostras correspondente à condição y y j Portanto Σ i P xyx iy j é a probabilidade da união de todos os possíveis resultados de x sob a condição y y j e deve ser a unidade um evento certo Um argumento semelhante se aplica a Σ j P yxy jx i Temos ainda da Eq 812 A regra de Bayes segue da Eq 822 Da Eq 822 temos Do mesmo modo As probabilidades P xx i e P yy j são denominadas probabilidades marginais As Eqs 823 mostram como determinar probabilidades marginais a partir de probabilidades conjuntas Resultados das Eqs 820 a 823 podem ser estendidos a mais de duas VAs Exemplo 813 A probabilidade de erro de um canal simétrico binário BSC é P e A probabilidade de transmitir 1 é Q e a de transmitir 0 é 1 Q Fig 87 Determinemos as probabilidades de receber 1 e 0 no receptor Figura 87 Canal simétrico binário BSC Se x e y forem o dígito transmitido e o dígito recebido respectivamente para um BSC temos Precisamos determinar P y1 e P y0 Do teorema da probabilidade total Essas respostas quase parecem óbvias a partir da Fig 87 Reparemos que por causa de erros de canal a probabilidade de receber um dígito 1 não é igual à de transmitir 1 O mesmo se aplica a 0 Exemplo 814 Em certo canal de comunicação binária os símbolos 0 e 1 são transmitidos respectivamente com probabilidades 04 e 06 É dado que P 0 10 6 e P 1 10 4 em que P x i é a probabilidade de detectar o erro dado que x i é transmitido Determinemos P a probabilidade de erro do canal Como Px i é a probabilidade conjunta de x i ser transmitido e detectado erroneamente o teorema da probabilidade total fornece Reparemos que P0 10 6 significa que em média um em cada 1 milhão de 0s recebidos será detectado erroneamente Do mesmo modo P1 10 4 significa que em média um de cada 10000 1s recebidos estará em erro Mas P 060410 4 indica que em média um de cada 1060410 4 16556 dígitos seja 0 ou 1 será recebido em erro Função Distribuição Cumulativa A função distribuição cumulativa CDF Cumulative Distribution Function F xx de uma VA x é a probabilidade de x assumir um valor menor ou igual a x ou seja Podemos agora mostrar que a CDF F xx tem as seguintes quatro propriedades A primeira propriedade é óbvia A segunda e a terceira propriedades são provadas observando que F x Px e F x Px Para provar a quarta propriedade da Eq 824 temos Como x x 1 e x 1 x x 2 são disjuntos temos Como Px 1 x x 2 é não negativa o resultado segue Exemplo 815 Em um experimento um ensaio consiste em quatro lançamentos sucessivos de uma moeda Se definirmos uma VA x como o número de caras que aparece em um ensaio determinemos P xx e F xx Um total de 16 resultados disjuntos e equiprováveis é listado no Exemplo 84 Várias probabilidades podem ser prontamente determinadas ao contarmos os resultados que pertencem a um dado valor de x Por exemplo somente um resultado é mapeado em x 0 enquanto seis resultados são mapeados em x 2 Logo P x0 116 e P x2 616 Da mesma forma obtemos As probabilidades P xx i e a correspondente CDF F xx são mostradas na Fig 88 Figura 88 a Probabilidades P x x i e b a função distribuição cumulativa CDF Variável Aleatória Contínua Uma VA contínua x pode assumir qualquer valor em certo intervalo Em um contínuo de qualquer tamanho existe um número infinito incontável de valores possíveis nesse caso P xx i a probabilidade de x x i como um de infinitos e incontáveis valores é zero Consideremos o caso de uma temperatura T em certo local Podemos supor que essa temperatura assuma qualquer valor em um intervalo Assim pode prevalecer um número infinito de possíveis valores de temperatura e a probabilidade de a variável aleatória T assumir um dado valor T i é zero A situação é um pouco semelhante àquela descrita na Seção 31 em conexão com uma viga carregada continuamente Fig 35b Há uma carga em cada ponto ao longo da viga mas em qualquer ponto a carga é zero No caso da viga a medida significativa foi a carga ou peso não em um ponto mas em um intervalo finito Do mesmo modo para uma VA contínua a quantidade significativa não é a probabilidade de x x i mas a probabilidade de x x x x A CDF é uma medida adequada para esse caso pois a referida probabilidade é apenas F xx x F xx Eq 826 Portanto iniciamos o estudo de VAs com a CDF As propriedades da CDF Eqs 825 e 826 deduzidas anteriormente são genéricas e válidas para VAs contínuas e discretas Função Densidade de Probabilidade Da Eq 826 temos Se x 0 podemos expressar F xx x por meio de uma expansão em série de Taylor como Das Eqs 827 segue que à medida que x 0 Denotemos a derivada de F xx em relação a x por p xx Fig 89 Figura 89 a Função distribuição cumulativa CDF b Função densidade de probabilidade PDF A função p xx é denominada função densidade de probabilidade PDF Probability Density Function da VA x Da Eq 828 segue que a probabilidade de observar a VA x no intervalo x x x é p xx x x 0 Isso é a área sob a PDF p xx no intervalo x como mostrado na Fig 89b Da Eq 829 podemos ver que Aqui usamos o fato de que F x 0 Da Eq 826 também temos Assim a probabilidade de observar x em qualquer intervalo x 1 x 2 é dada pela área sob a PDF p xx no intervalo x 1 x 2 como mostrado na Fig 89b Comparemos isso com a barra carregada continuamente Fig 35b em que o peso em qualquer intervalo era dado pela integral da densidade de carga no intervalo Como F x 1 temos Isso também resulta do fato de que o intervalo da Eq 832 representa a probabilidade de observar x no intervalo Toda PDF deve satisfazer a condição na Eq 832 Também fica evidente que a PDF não deve ser negativa ou seja Embora seja verdadeiro que a probabilidade de um evento impossível é 0 e que a de um evento certo é 1 as recíprocas não são verdadeiras Um evento cuja probabilidade seja 0 não é necessariamente um evento impossível e um evento com probabilidade 1 não é necessariamente um evento certo Isso pode ser ilustrado pelo exemplo a seguir A temperatura T em uma cidade em um dia de verão é uma VA que assume qualquer valor no intervalo de 5 a 50C Como a PDF p TT é contínua a probabilidade de que T 3456 por exemplo é zero Contudo esse não é um evento impossível Do mesmo modo a probabilidade de que T assuma qualquer valor diferente de 3456 é 1 embora esse não seja um evento certo Na verdade uma VA contínua assume qualquer valor em certo intervalo Todavia p xx a probabilidade de que x x é zero para cada x no intervalo Podemos também determinar a PDF p xx para uma variável aleatória discreta Como a CDF F xx para o caso discreto é sempre uma sequência de funções do tipo degrau Fig 88 a PDF a derivada da CDF consistirá em um trem de impulsos positivos Se uma VA x assumir valores x 1 x 2 x n com probabilidades a 1 a 2 a n respectivamente então Isso pode ser facilmente comprovado do Exemplo 815 Fig 88 Logo É possível ter um caso misto no qual a PDF pode ter uma parte contínua e uma parte impulsiva Exercício 824 Variável Aleatória Gaussiana Consideremos a PDF Fig 810 Esse é um caso da bem conhecida densidade de probabilidade gaussiana ou normal que tem média zero e variância unitária O nome dessa função é uma homenagem ao matemático Carl Friedrich Gauss A CDF F xx nesse caso é Figura 810 a PDF gaussiana b Função Qy c CDF da PDF gaussiana O valor dessa integral não pode ser dado em uma forma fechada devendo ser calculado numericamente É conveniente usar a função Q definida como 2 A área sob p xx de y a sombreada na Fig 810a é Qy Da simetria de p xx em relação à origem e do fato de que a área total sob p xx 1 temos Observemos que para a PDF na Fig 810a a CDF é dada por Fig 810c A função Qx é tabelada na Tabela 82 Fig 812d mais adiante A função é largamente tabelada e pode ser encontrada na maioria dos livros de tabelas matemáticas 2 3 Pode ser mostrado que 4 Por exemplo quando x 2 o erro nessa aproximação é 187 Contudo para x 4 é 104 e para x 6 é 23 Uma melhor aproximação de Qx é O erro nessa aproximação é de apenas 1 para x 215 Para maiores valores de x o erro tende a 0 Uma função de densidade gaussiana mais geral tem dois parâmetros m σ sendo dada por Fig 811 Para este caso Tabela 82 3 Qx x 000 001 002 003 004 005 006 007 008 009 00000 05000 04960 04920 04880 04840 04801 04761 04721 04681 04641 01000 04602 04562 04522 04483 04443 04404 04364 04325 04286 04247 02000 04207 04168 04129 04090 04052 04013 03974 03936 03897 03859 03000 03821 03783 03745 03707 03669 03632 03594 03557 03520 03483 04000 03446 03409 03372 03336 03300 03264 03228 03192 03156 03121 05000 03085 03050 03015 02981 02946 02912 02877 02843 02810 02776 06000 02743 02709 02676 02643 02611 02578 02546 02514 02483 02451 07000 02420 02389 02358 02327 02296 02266 02236 02206 02177 02148 08000 02119 02090 02061 02033 02005 01977 01949 01922 01894 01867 09000 01841 01814 01788 01762 01736 01711 01685 01660 01635 01611 1000 01587 01562 01539 01515 01492 01469 01446 01423 01401 01379 1100 01357 01335 01314 01292 01271 01251 01230 01210 01190 01170 1200 01151 01131 01112 01093 01075 01056 01038 01020 01003 09853E 01 1300 09680E 01 09510E 01 09342E 01 09176E 01 09012E 01 08851E 01 08691E 01 08534E 01 08379E 01 08226E 01 1400 08076E 01 07927E 01 07780E 01 07636E 01 07493E 01 07353E 01 07215E 01 07078E 01 06944E 01 06811E 01 1500 06681E 01 06552E 01 06426E 01 06301E 01 06178E 01 06057E 01 05938E 01 05821E 01 05705E 01 05592E 01 1600 05480E 01 05370E 01 05262E 01 05155E 01 05050E 01 04947E 01 04846E 01 04746E 01 04648E 01 04551E 01 1700 04457E 01 04363E 01 04272E 01 04182E 01 04093E 01 04006E 01 03920E 01 03836E 01 03754E 01 03673E 01 1800 03593E 01 03515E 01 03438E 01 03362E 01 03288E 01 03216E 01 03144E 01 03074E 01 03005E 01 02938E 01 1900 02872E 01 02807E 01 02743E 01 02680E 01 02619E 01 02559E 01 02500E 01 02442E 01 02385E 01 02330E 01 2000 02275E 01 02222E 01 02169E 01 02118E 01 02068E 01 02018E 01 01970E 01 01923E 01 01876E 01 01831E 01 2100 01786E 01 01743E 01 01700E 01 01659E 01 01618E 01 01578E 01 01539E 01 01500E 01 01463E 01 01426E 01 2200 01390E 01 01355E 01 01321E 01 01287E 01 01255E 01 01222E 01 01191E 01 01160E 01 01130E 01 01101E 01 2300 01072E 01 01044E 01 01017E 01 09903E 02 09642E 02 09387E 02 09137E 02 08894E 02 08656E 02 08424E 02 2400 08198E 02 07976E 02 07760E 02 07549E 02 07344E 02 07143E 02 06947E 02 06756E 02 06569E 02 06387E 02 2500 06210E 02 06037E 02 05868E 02 05703E 02 05543E 02 05386E 02 05234E 02 05085E 02 04940E 02 04799E 02 2600 04661E 02 04527E 02 04396E 02 04269E 02 04145E 02 04025E 02 03907E 02 03793E 02 03681E 02 03573E 02 2700 03467E 02 03364E 02 03264E 02 03167E 02 03072E 02 02980E 02 02890E 02 02803E 02 02718E 02 02635E 02 2800 02555E 02 02477E 02 02401E 02 02327E 02 02256E 02 02186E 02 02118E 02 02052E 02 01988E 02 01926E 02 2900 01866E 02 01807E 02 01750E 02 01695E 02 01641E 02 01589E 02 01538E 02 01489E 02 01441E 02 01395E 02 3000 01350E 02 01306E 02 01264E 02 01223E 02 01183E 02 01144E 02 01107E 02 01070E 02 01035E 02 01001E 02 3100 09676E 03 09354E 03 09043E 03 08740E 03 08447E 03 08164E 03 07888E 03 07622E 03 07364E 03 07114E 03 3200 06871E 03 06637E 03 06410E 03 06190E 03 05976E 03 05770E 03 05571E 03 05377E 03 05190E 03 05009E 03 3300 04834E 03 04665E 03 04501E 03 04342E 03 04189E 03 04041E 03 03897E 03 03758E 03 03624E 03 03495E 03 3400 03369E 03 03248E 03 03131E 03 03018E 03 02909E 03 02802E 03 02701E 03 02602E 03 02507E 03 02415E 03 3500 02326E 03 02241E 03 02158E 03 02078E 03 02001E 03 01926E 03 01854E 03 01785E 03 01718E 03 01653E 03 3600 01591E 03 01531E 03 01473E 03 01417E 03 01363E 03 01311E 03 01261E 03 01213E 03 01166E 03 01121E 03 3700 01078E 03 01036E 03 09961E 04 09574E 04 09201E 04 08842E 04 08496E 04 08162E 04 07841E 04 07532E 04 3800 07235E 04 06948E 04 06673E 04 06407E 04 06152E 04 05906E 04 05669E 04 05442E 04 05223E 04 05012E 04 3900 04810E 04 04615E 04 04427E 04 04247E 04 04074E 04 03908E 04 03747E 04 03594E 04 03446E 04 03304E 04 4000 03167E 04 03036E 04 02910E 04 02789E 04 02673E 04 02561E 04 02454E 04 02351E 04 02252E 04 02157E 04 4100 02066E 04 01978E 04 01894E 04 01814E 04 01737E 04 01662E 04 01591E 04 01523E 04 01458E 04 01395E 04 4200 01335E 04 01277E 04 01222E 04 01168E 04 01118E 04 01069E 04 01022E 04 09774E 05 09345E 05 08934E 05 4300 08540E 05 08163E 05 07801E 05 07455E 05 07124E 05 08807E 05 06503E 05 06212E 05 05934E 05 05668E 05 4400 05413E 05 05169E 05 04935E 05 04712E 05 04498E 05 04294E 05 04098E 05 03911E 05 03732E 05 03561E 05 4500 03398E 05 03241E 05 03092E 05 02949E 05 02813E 05 02682E 05 02558E 05 02439E 05 02325E 05 02216E 05 4600 02112E 05 02013E 05 01919E 05 01828E 05 01742E 05 01660E 05 01581E 05 01506E 05 01434E 05 01366E 05 4700 01301E 05 01239E 05 01179E 05 01123E 05 01069E 05 01017E 05 09680E 06 09211E 06 08765E 06 08339E 06 4800 07933E 06 07547E 06 07178E 06 06827E 06 06492E 06 06173E 06 05869E 06 05580E 06 05304E 06 05042E 06 4900 04792E 06 04554E 06 04327E 06 04111E 06 03906E 06 03711E 06 03525E 06 03448E 06 03179E 06 03019E 06 5000 02867E 06 02722E 06 02584E 06 02452E 06 02328E 06 02209E 06 02096E 06 01989E 06 01887E 06 01790E 06 5100 01698E 06 01611E 06 01528E 06 01449E 06 01374E 06 01302E 06 01235E 06 01170E 06 01109E 06 01051E 06 5200 09964E 07 09442E 07 08946E 07 08476E 07 08029E 07 07605E 07 07203E 07 06821E 07 06459E 07 06116E 07 5300 05790E 07 05481E 07 05188E 07 04911E 07 04647E 07 04398E 07 04161E 07 03937E 07 03724E 07 03523E 07 5400 03332E 07 03151E 07 02980E 07 02818E 07 02664E 07 02518E 07 02381E 07 02250E 07 02127E 07 02010E 07 5500 01899E 07 01794E 07 01695E 07 01601E 07 01512E 07 01428E 07 01349E 07 01274E 07 01203E 07 01135E 07 5600 01072E 07 01012E 07 09548E 08 09010E 08 08503E 08 08022E 08 07569E 08 07140E 08 06735E 08 06352E 08 5700 05990E 08 05649E 08 05326E 08 05022E 08 04734E 08 04462E 08 04206E 08 03964E 08 03735E 08 03519E 08 5800 03316E 08 03124E 08 02942E 08 02771E 08 02610E 08 02458E 08 02314E 08 02179E 08 02051E 08 01931E 08 5900 01818E 08 01711E 08 01610E 08 01515E 08 01425E 08 01341E 08 01261E 08 01186E 08 01116E 08 01049E 08 6000 09866E 09 09276E 09 08721E 09 08198E 09 07706E 09 07242E 09 06806E 09 06396E 09 06009E 09 05646E 09 6100 05303E 09 04982E 09 04679E 09 04394E 09 04126E 09 03874E 09 03637E 09 03414E 09 03205E 09 03008E 09 6200 02823E 09 02649E 09 02486E 09 02332E 09 02188E 09 02052E 09 01925E 09 01805E 09 01692E 09 01587E 09 6300 01488E 09 01395E 09 01308E 09 01226E 09 01149E 09 01077E 09 01009E 09 09451E 10 08854E 10 08294E 10 6400 07769E 10 07276E 10 06814E 10 06380E 10 05974E 10 05593E 10 05235E 10 04900E 10 04586E 10 04292E 10 6500 04016E 10 03758E 10 03515E 10 03288E 10 03077E 10 02877E 10 02690E 10 02516E 10 02352E 10 02199E 10 6600 02056E 10 01922E 10 01796E 10 01678E 10 01568E 10 01465E 10 01369E 10 01279E 10 01195E 10 01116E 10 6700 01042E 10 09731E 11 09086E 11 08483E 11 07919E 11 07392E 11 06900E 11 06439E 11 06009E 11 05607E 11 6800 05231E 11 04880E 11 04552E 11 04246E 11 03960E 11 03692E 11 03443E 11 03210E 11 02993E 11 02790E 11 6900 02600E 11 02423E 11 02258E 11 02104E 11 01960E 11 01826E 11 01701E 11 01585E 11 01476E 11 01374E 11 7000 01280E 11 01192E 11 01109E 11 01033E 11 09612E 12 08946E 12 08325E 12 07747E 12 07208E 12 06706E 12 7100 06238E 12 05802E 12 05396E 12 05018E 12 04667E 12 04339E 12 04034E 12 03750E 12 03486E 12 03240E 12 7200 03011E 12 02798E 12 02599E 12 02415E 12 02243E 12 02084E 12 01935E 12 01797E 12 01669E 12 01550E 12 7300 01439E 12 01336E 12 01240E 12 01151E 12 01068E 12 09910E 13 09196E 13 08531E 13 07914E 13 07341E 13 7400 06809E 13 06315E 13 05856E 13 05430E 13 05034E 13 04667E 13 04326E 13 04010E 13 03716E 13 03444E 13 7500 03191E 13 02956E 13 02739E 13 02537E 13 02350E 13 02176E 13 02015E 13 01866E 13 01728E 13 01600E 13 7600 01481E 13 01370E 13 01268E 13 01174E 13 01086E 13 01005E 13 09297E 14 08600E 14 07954E 14 07357E 14 7700 06803E 14 06291E 14 05816E 14 05377E 14 04971E 14 04595E 14 04246E 14 03924E 14 03626E 14 03350E 14 7800 03095E 14 02859E 14 02641E 14 02439E 14 02253E 14 02080E 14 01921E 14 01773E 14 01637E 14 01511E 14 7900 01395E 14 01287E 14 01188E 14 01096E 14 01011E 14 09326E 15 08602E 15 07934E 15 07317E 15 06747E 15 8000 06221E 15 05735E 15 05287E 15 04874E 15 04492E 15 04140E 15 03815E 15 03515E 15 03238E 15 02983E 15 8100 02748E 15 02531E 15 02331E 15 02146E 15 01976E 15 01820E 15 01675E 15 01542E 15 01419E 15 01306E 15 8200 01202E 15 01106E 15 01018E 15 09361E 16 08611E 16 07920E 16 07284E 16 06698E 16 06159E 16 05662E 16 8300 05206E 16 04785E 16 04398E 16 04042E 16 03715E 16 03413E 16 03136E 16 02881E 16 02646E 16 02431E 16 8400 02232E 16 02050E 16 01882E 16 01728E 16 01587E 16 01457E 16 01337E 16 01227E 16 01126E 16 01033E 16 8500 09480E 17 08697E 17 07978E 17 07317E 17 06711E 17 06154E 17 05643E 17 05174E 17 04744E 17 04348E 17 8600 03986E 17 03653E 17 03348E 17 03068E 17 02811E 17 02575E 17 02359E 17 02161E 17 01979E 17 01812E 17 8700 01659E 17 01519E 17 01391E 17 01273E 17 01166E 17 01067E 17 09763E 18 08933E 18 08174E 18 07478E 18 8800 06841E 18 06257E 18 05723E 18 05234E 18 04786E 18 04376E 18 04001E 18 03657E 18 03343E 18 03055E 18 8900 02792E 18 02552E 18 02331E 18 02130E 18 01946E 18 01777E 18 01623E 18 01483E 18 01354E 18 01236E 18 9000 01129E 18 01030E 18 09404E 19 08584E 19 07834E 19 07148E 19 06523E 19 05951E 19 05429E 19 04952E 19 9100 04517E 19 04119E 19 03756E 19 03425E 19 03123E 19 02847E 19 02595E 19 02365E 19 02155E 19 01964E 19 9200 01790E 19 01631E 19 01486E 19 01353E 19 01232E 19 01122E 19 01022E 19 09307E 20 08474E 20 07714E 20 9300 07022E 20 06392E 20 05817E 20 05294E 20 04817E 20 04382E 20 03987E 20 03627E 20 03299E 20 03000E 20 9400 02728E 20 02481E 20 02255E 20 02050E 20 01864E 20 01694E 20 01540E 20 01399E 20 01271E 20 01155E 20 9500 01049E 20 09533E 21 08659E 21 07864E 21 07142E 21 06485E 21 05888E 21 05345E 21 04852E 21 04404E 21 9600 03997E 21 03627E 21 03292E 21 02986E 21 02709E 21 02458E 21 02229E 21 02022E 21 01834E 21 01663E 21 9700 01507E 21 01367E 21 01239E 21 01123E 21 01018E 21 09223E 22 08358E 22 07573E 22 06861E 22 06215E 22 9800 05629E 22 05098E 22 04617E 22 04181E 22 03786E 22 03427E 22 03102E 22 02808E 22 02542E 22 02300E 22 9900 02081E 22 01883E 22 01704E 22 01541E 22 01394E 22 01261E 22 01140E 22 01031E 22 09323E 23 08429E 23 1 2 1000 07620E 23 06888E 23 06225E 23 05626E 23 05084E 23 04593E 23 04150E 23 03749E 23 03386E 23 03058E 23 Notas E01 deve ser lido como 10 1 E02 deve ser lido como 10 2 e assim por diante Esta tabela lista Q x para x no intervalo de 0 a 10 em incrementos de 001 Para obter o valor de Q 536 por exemplo procuramos a linha que começa com x 53 A sexta entrada nessa linha na coluna 006 é o valor desejado 04161 10 7 Figura 811 PDF gaussiana com média m e variância σ 2 Fazendo x mσ z Portanto e A PDF gaussiana é talvez a mais importante PDF no campo de comunicações A maioria dos processos de ruído observados na prática é gaussiana A amplitude n de um sinal de ruído gaussiano é uma VA com PDF gaussiana Isso significa que a probabilidade de observar n em um intervalo n n n é p nnn em que p nn tem a forma na Eq 839 com m 0 Exemplo 816 Detecção por Limiar Em certo canal binário mensagens m0 e 1 são transmitidas com igual probabilidade por pulsos positivo e negativo respectivamente O pulso recebido correspondente a 1 é pt mostrado na Fig 812a e o pulso recebido correspondente a 0 é pt Denotemos a amplitude de pico de pt em t T p por A p Devido ao ruído de canal nt o pulso recebido será Fig 812c Para detectar os pulsos no receptor cada pulso é amostrado em sua amplitude de pico Na ausência de ruído a saída do amostrador é A p para m1 ou A p para m0 Devido ao ruído de canal a saída do amostrador é A p n sendo n amplitude do ruído no instante de amostragem Fig 812b uma VA Para ruído gaussiano a PDF de n é Fig 812b Figura 812 Probabilidade de erro na detecção por limiar a pulso transmitido b PDF do ruído c pulsos recebidos com ruído d probabilidade de erro de detecção Devido à simetria da situação o limiar de detecção ótima é zero ou seja o pulso recebido é detectado como 1 ou 0 dependendo se o valor da amostra é positivo ou negativo Como as amplitudes de ruído variam de a o valor de amostra A p n pode ocasionalmente ser positivo fazendo com que 0 seja lido como 1 Fig 812b Do mesmo modo A p n pode ocasionalmente ser negativo fazendo com que o 1 recebido seja lido como 0 Se 0 for transmitido será detectado como 1 se A p n 0 ou seja se n A p Se P0 for a probabilidade de erro dado que 0 foi transmitido Como Pn A p é a área sombreada na Fig 812b à direita de A p da Eq 840c com m0 vem Do mesmo modo e A probabilidade de erro P pode ser obtida da Fig 812d Distribuição Conjunta Para duas VAs x e y podemos definir uma CDF F xyx y como e a PDF conjunta p xyx y como Raciocinando como no caso de uma variável podemos mostrar que à medida que x 0 e y 0 Portanto a probabilidade de observarmos a variável x no intervalo x x x e a variável y no intervalo y y y conjuntamente é dada pelo volume sob a PDF conjunta p xyx y na região limitada por x x x e y y y como mostrado na Fig 813a Da Eq 845 segue que Assim a probabilidade de observarmos x no intervalo x 1 x 2 e y no intervalo y 1 y 2 é o volume sob a PDF na região limitada por x 1 x 2 e y 1 y 2 Figura 813 a PDF conjunta b PDF condicional O evento da observação de x no intervalo e da observação de y no intervalo é certo Logo Portanto o volume total sob a PDF conjunta deve ser unitário Quando tratamos com duas VAs x e y as densidades de probabilidades individuais p xx e p yy podem ser obtidas da densidade conjunta p xyx y Essas densidades individuais também são conhecidas como densidades marginais Para obtêlas notamos que p xxx é a probabilidade de observar x no intervalo x x x O valor de y pode estar em qualquer lugar no intervalo Logo Os dois últimos passos advieram do fato de p xyx y ser constante em x x x pois x 0 Portanto Da mesma forma Em termos da CDF temos Esses resultados podem ser generalizados para múltiplas VAs x 1 x 2 x n Densidades Condicionais O conceito de probabilidades condicionais pode ser estendido ao caso de VAs contínuas Definimos a PDF condicional p xyxy j como a PDF de x dado que y tem valor y j Isso é equivalente a dizer que p xyxy jx é a probabilidade de observar x no intervalo x x x dado que y y j A densidade de probabilidade p xyxy j é a interseção do plano y y j com a PDF conjunta p xyx y Fig 813b Como toda PDF deve ter área unitária devemos normalizar a área sob a curva de interseção C para ser unitária e obter a desejada PDF Assim C é Ap xyxy em que A é a área sob C Uma extensão dos resultados deduzidos para o caso discreto fornece e A Eq 851a é a regra de Bayes para VAs contínuas No caso de variáveis mistas discretas e contínuas a forma mista da regra de Bayes é em que x é uma VA discreta e y uma VA contínua Reparemos que acima de tudo p xyxy ainda é uma função densidade de probabilidade Assim Variáveis Aleatórias Independentes As VAs contínuas x e y são independentes se Nesse caso das Eqs 853a e 851 segue que Isso implica que para VAs independentes x e y Com base na Eq 853c a CDF conjunta também é separável Exemplo 817 Densidade de Rayleigh A densidade de Rayleigh é caracterizada pela PDF Fig 814b Figura 814 Dedução da densidade de Rayleigh Uma VA de Rayleigh pode ser deduzida de duas VAs gaussianas independentes como mostrado a seguir Sejam x e y variáveis gaussianas independentes com mesma PDF Então A densidade conjunta tem a aparência da superfície em formato de sino mostrada na Fig 813 Os pontos no plano x y também podem ser descritos por coordenadas polares r θ em que Fig 814a Na Fig 814a a região sombreada representa r r r dr e θ Θ θ dθ em que tanto dr como dθ 0 Portanto se p rΘ r θ for a PDF conjunta de r e Θ por definição Eq 845 a probabilidade de observar r e Θ nessa região é p rΘ r θdrdθ Contudo também sabemos que essa probabilidade é p xyx y vezes a área r dr dθ da região sombreada Portanto Eq 856 e 83 e Eq 848a Como Θ existe somente na região 0 2π Reparemos que r é sempre maior que 0 Do mesmo modo obtemos As VAs r e Θ são independentes pois p rΘ r θ p r rp Θ θ A PDF p r r é a função densidade de Rayleigh Mais adiante mostraremos que o envelope do ruído gaussiano de banda estreita tem densidade de Rayleigh p r r e p Θ θ são mostradas nas Fig 814b e c MÉDIAS VALORES MÉDIOS ESTATÍSTICAS OS Médias são extremamente importantes no estudo de VAs Para uma definição apropriada da média de uma variável aleatória x consideremos o problema de determinar a altura média da população de um país Admitamos que temos suficientes recursos para colher dados da altura de cada cidadão Se os dados forem registrados com precisão de um centímetro a altura x de cada pessoa será aproximada por um de n números x 1 x 2 x n Se existirem N i pessoas de altura x i a altura média será dada por em que o número total de pessoas é N iN i Portanto No limite N a razão N iN tende a P xx i segundo a definição de probabilidade baseada na frequência relativa Logo O valor da média também é denominado valor médio ou valor esperado da VA x sendo denotado por Ex Assim Usaremos essas duas notações determinando a escolha entre uma ou outra determinada pelas circunstâncias e conveniência Se a VA x for contínua um argumento semelhante ao usado na obtenção da Eq 859a fornece Esse resultado pode ser deduzido aproximando a variável contínua x por uma variável discreta quantizada em degraus x e então fazendo x 0 A Eq 859b é mais geral e inclui a Eq 859a pois a VA discreta pode ser considerada como uma VA contínua com densidade impulsional Nesse caso a Eq 859b se reduz à Eq 859a Como um exemplo consideremos a PDF gaussiana genérica dada por Fig 811 Da Eq 859b temos Mudando a variável para x y m obtemos A primeira integral entre parênteses é zero pois o integrando é uma função ímpar de y O termo entre colchetes é a integração da PDF gaussiana e é igual a 1 Portanto Média de uma Função de uma Variável Aleatória Muitas vezes é necessário determinar o valor médio de uma função de uma VA Por exemplo na prática é comum estarmos interessados na amplitude quadrática média de um sinal A amplitude quadrática média é a média do quadrado da amplitude x ou seja x 2 Em geral podemos buscar o valor médio de uma VA y que é função de uma VA x isto é desejamos determinar y em que y gx Seja x uma VA discreta que assume valores x 1 x 2 x n com probabilidades P xx 1 P xx 2 P xx n respectivamente Contudo como y gx y assume valores gx 1 gx 2 gx n com probabilidades P xx 1 P xx 2 P xx n respectivamente Portanto da Eq 859a temos Se x for uma VA contínua um raciocínio semelhante leva a Exemplo 818 A tensão de saída de um gerador de onda senoidal é A cos ωt Esta saída é amostrada aleatoriamente Fig 815a A saída amostrada é uma VA x que pode assumir qualquer valor no intervalo A A Determinemos o valor médio x e o valor quadrático médio x 2 da saída amostrada x Se a saída for amostrada em um instante aleatório t a saída x é uma função da VA t Se definirmos ωt Θ Θ também será uma VA e se considerarmos somente valores de Θ em módulo 2π a VA Θ residirá no intervalo 0 2π Como t é escolhido de modo aleatório Θ pode assumir qualquer valor no intervalo 0 2π com probabilidade uniforme Como a área sob a PDF deve ser unitária p Θ θ é como mostrado na Fig 815b Figura 815 Amostragem aleatória da saída de um gerador de onda senoidal A VA x é portanto uma função de outra VA Θ Portanto da Eq 861b temos e Da mesma forma para o caso de duas variáveis x e y temos Média da Soma Se g 1x y g 2x y g nx y forem funções de duas VAs x e y então A prova é trivial e segue diretamente da Eq 862 Portanto a média valor esperado da soma é igual à soma das médias Um importante caso especial é A Eq 863a pode ser estendida a funções de um número qualquer de VAs Média do Produto de Duas Funções Infelizmente não há um resultado simples como a Eq 863 para o produto de duas funções Para o caso especial em que Se x e y forem independentes então Eq 853c e Um caso especial é Momentos O nésimo momento de uma VA x é definido como o valor médio de x n Assim o nésimo momento de x é O nésimo momento central de uma VA x é definido como O segundo momento central de uma VA x é de especial importância e recebe o nome de variância de x sendo denotado por σ x 2 sendo σ x conhecido como desviopadrão DP da VA x Por definição Assim a variância de x é igual ao valor quadrático médio menos o quadrado da média Quando a média é zero a variância é o valor quadrático médio ou seja x 2 σ x 2 Exemplo 819 Determinemos o valor quadrático médio e a variância da VA gaussiana com a PDF na Eq 839 ver Fig 811 Temos Mudando a variável para y x mσ e integrando obtemos E das Eqs 866 e 860b Portanto uma VA gaussiana descrita pela densidade na Eq 860a tem média m e variância σ 2 Em outras palavras a função densidade gaussiana é completamente especificada pelos primeiro x e segundo x 2 momentos Exemplo 820 Valor Quadrático Médio do Erro de Quantização Uniforme em PCM No esquema PCM discutido no Capítulo 6 um sinal limitado em banda a B Hz é amostrado a uma taxa de 2B amostras por segundo Todo o intervalo m p m p das amplitudes do sinal é partido em L intervalos uniformes cada um de tamanho 2m pL Fig 816a Cada amostra é aproximada pelo ponto médio do intervalo em que cai Assim a amostra m na Fig 816a é aproximada por um valor o ponto médio do intervalo que contém a amostra Cada amostra é dessa forma aproximada quantizada por um dos L números A diferença q m é o erro de quantização e é uma VA Determinemos q 2 o valor médio quadrático do erro de quantização Da Fig 816a podemos verificar que q é uma VA contínua que existe no intervalo m pL m pL e é zero fora dele Suponhamos que há igual possibilidade de a amostra cair em qualquer ponto no intervalo de quantização assim a PDF de q é uniforme Figura 816 a Erro de quantização em PCM e b sua PDF como mostrado na Fig 816b e Da Fig 816b podemos verificar que 0 Logo Exemplo 821 Valor Quadrático Médio do Erro Causado por Ruído de Canal em PCM Ruído de quantização é uma das fontes de erro em PCM A outra fonte de erro é ruído de canal Cada amostra quantizada é codificada por um grupo de n pulsos binários Devido ao ruído de canal alguns desses pulsos são detectados incorretamente no receptor Portanto o valor de amostra decodificado no receptor diferirá do valor de amostra quantizado transmitido O erro é uma variável aleatória Calculemos o valor quadrático médio do erro causado no valor da amostra pelo ruído de canal Iniciemos determinando os valores que pode assumir e as correspondentes probabilidades Cada amostra é transmitida por n pulsos binários O valor de depende da posição do pulso detectado incorretamente Consideremos por exemplo o caso L 16 transmitido por quatro pulsos binários n 4 como mostrado na Fig 15 Aqui o código transmitido 1101 representa o valor 13 Um erro de detecção no primeiro dígito muda o código recebido para 0101 que é o valor 5 Isso causa um erro 8 Da mesma forma um erro no segundo dígito leva a 4 Erros no terceiro e no quarto dígitos produzem 2 e 1 respectivamente Em geral o erro no iésimo dígito causa um erro i 2 i16 Para o caso geral o erro é i 2 iF em que F é o tamanho total da escala ou seja em PCM 2m p Assim Reparemos que o erro é uma VA discreta Portanto Como P i é a probabilidade de i P i é a probabilidade de erro de detecção no iésimo dígito Como a probabilidade do erro de detecção de um dígito é a mesma à de qualquer outro ou seja P e Essa hipótese é uma progressão geométrica com razão comum r 2 2 com o primeiro termo a 1 2 2 e o último a n 2 2 n Portanto Apêndice E4 Reparemos que a magnitude do erro varia de 2 12m p a 2 n2m p O erro pode ser positivo ou negativo Por exemplo 8 devido a um erro no primeiro dígito de 1101 Mas o erro seria 8 se o código transmitido fosse 0101 É claro que o sinal de não importa na Eq 869 Devemos recordar todavia que varia de 2 n2m p a 2 n2m p e suas probabilidades são simétricas em relação a 0 Portanto 0 e Variância de uma Soma de Variáveis Aleatórias Independentes A variância de uma soma de VAs independentes é igual à soma de suas variâncias Assim se x e y forem VAs independentes e z x y então Isso pode ser mostrado da seguinte forma Como x e y são VAs independentes x x e y y também são VAs independentes Logo da Eq 864b temos Esse resultado pode ser estendido a um número qualquer de variáveis Se as VAs x e y tiverem média zero ou seja x y 0 então z x y 0 Além disso quando a média é zero a variância iguala o valor quadrático médio portanto desde que x y 0 e desde que x e y sejam VAs independentes Exemplo 822 Erro Quadrático Médio Total em PCM Em PCM como visto nos Exemplos 820 e 821 uma amostra de sinal m é transmitida como uma amostra quantizada causando um erro de quantização Devido ao ruído de canal a amostra quantizada é lida como causando um erro de detecção Portanto a amostra de sinal m é recebida como com um erro total em que q e são VAs de média zero Como o erro de quantização q e o erro devido ao ruído de canal são independentes o valor quadrático médio da soma Eq 872 é E como L 2 n Desigualdade de Chebyshev O desviopadrão σ x de uma VA x é uma medida da largura de sua PDF Quanto maior σ x mais larga é a PDF A Fig 817 ilustra esse efeito para uma PDF gaussiana A desigualdade de Chebyshev é uma asserção desse fato e afirma que para uma VA x de média zero Isso significa que a probabilidade de observarmos x em uns poucos desviospadrão é muito alta Por exemplo a probabilidade de encontrar x em 3σ x é igual ou maior que 088 Assim para uma PDF com σ x 1 Px 3 088 enquanto para uma PDF com σ x 3 Px 9 088 Fica claro que a PDF com σ x 3 se espalha mais que a PDF com σ x 1 Portanto σ x ou é usado com frequência como uma medida da largura de uma PDF No Capítulo 10 usaremos essa medida para estimar a largura de banda do espectro de um sinal A prova da Eq 874 é dada a seguir Como o integrando é positivo Se substituirmos x por seu menor valor kσ x a desigualdade permanece válida Essa desigualdade pode ser generalizada para uma VA de média não nula como 84 Figura 817 PDF gaussiana com desviospadrão σ 1 e σ 3 Exemplo 823 Estimemos a largura ou espalhamento de uma PDF gaussiana Eq 860a Para uma VA gaussiana Eqs 835 e 840b Isso significa que a área sob a PDF no intervalo x 3σ x 3σ é 9974 da área total Uma fração desprezível 026 da área está fora desse intervalo Portanto a largura ou espalhamento da PDF gaussiana pode ser consideradao grosseiramente como 3σ em torno de sua média perfazendo uma largura total de cerca de 6σ CORRELAÇÃO Muitas vezes estamos interessados em determinar a natureza da dependência entre duas entidades como entre o hábito de fumar e câncer do pulmão Consideremos um experimento aleatório com dois resultados descritos pelas VAs x e y Conduzimos vários ensaios desse experimento e registramos os valores de x e y em cada ensaio A partir desses dados pode ser possível determinar a natureza da dependência entre x e y A covariância das VAs x e y é uma medida de cálculo simples e que pode fornecer informação útil a respeito da dependência entre x e y A covariância σ xy de duas VAs é definida como Notemos que o conceito de covariância é uma extensão natural do conceito de variância definida como Consideremos um caso de duas variáveis dependentes x e y que tendem a variar em harmonia ou seja se x aumentar y aumenta se x diminuir y também diminui Por exemplo x pode ser a temperatura média em uma cidade e y o volume de vendas de refrigerantes na cidade nesse dia É razoável esperar que as duas quantidades variem em harmonia na maioria dos casos Consideremos o seguinte experimento escolher um dia arbitrário e registrar a temperatura média nesse dia como o valor de x e o volume de vendas de refrigerantes nesse dia como o valor y Efetuamos tal medida ao longo de vários dias vários ensaios do experimento e registramos os valores x e y em cada ensaio Agora representemos em um gráfico os pontos x y para todos os ensaios Esse gráfico conhecido como diagrama de espalhamento pode ter a aparência ilustrada na Fig 818a O gráfico mostra que quando x é grande é provável que y seja grande Notemos o uso da palavra provável Não é sempre verdade que y será grande se x for grande mas é verdade na maior parte do tempo Em outras palavras em alguns poucos casos uma baixa temperatura média será associada a um maior volume de vendas de refrigerantes devido a alguma situação atípica como uma decisão de campeonato de futebol Isso fica bastante claro no diagrama de espalhamento na Fig 818a Para dar prosseguimento a esse exemplo a variável x x representa a diferença entre os valores real e médio de x e y y representa a diferença entre os valores real e médio de y É mais ilustrativo fazer o gráfico de y y em função de x X Isto é o mesmo que o diagrama de espalhamento na Fig 818a mas com a origem deslocada para xy como na Fig 818b que mostra ser provável que um dia com temperatura acima da média produza venda de refrigerantes abaixo da média Ou seja se x x for positivo é provável que y y seja positivo e se x x for negativo é mais provável que y x seja negativo Assim a quantidade x xy y será positiva na maioria dos ensaios Calculemos esse produto para cada par somemos esses produtos e então dividamos a soma pelo número de ensaios O resultado é o valor médio de x xy y ou seja a covariância σ xy x xy y No exemplo em consideração a covariância será positiva Em casos como esse dizemos que existe uma correlação positiva entre as variáveis x e y Podemos concluir que uma correlação positiva implica variação das duas variáveis em harmonia na mesma direção para cima ou para baixo A seguir consideremos o caso das duas variáveis x a temperatura média diária e z o volume diário de vendas de agasalhos É razoável acreditar que à medida que x temperatura média aumente z volume de venda de agasalhos tenda a diminuir Um hipotético diagrama de espalhamento para esse experimento é ilustrado na Fig 818c Assim se x X for positivo temperatura acima da média é provável que z z seja negativo volume de vendas abaixo da média Do mesmo modo quando x for negativo é provável que z seja positivo O produto x xz z será negativo para a maioria dos ensaios e a média x xz z σ xz será negativa Neste caso dizemos que existe uma correlação negativa entre x e y Vale ressaltar que a correlação negativa não significa que não exista relação entre x e z significa que x e z são dependentes mas quando um aumenta o outro diminui e viceversa Por fim consideremos as variáveis x temperatura média diária e w número de nascimentos É razoável esperar que a temperatura média diária tenha pouco efeito no número de crianças que nascem Um hipotético diagrama de espalhamento para esse caso terá a aparência ilustrada na Fig 818d Se se x for positivo é provável que w w seja positivo ou negativo É igualmente provável que o produto x xw w seja positivo ou negativo de forma que a média x xw w σ xw será zero Nesse caso dizemos que as VAs x e w são descorrelacionadas Para reiterar se σ xy for positiva ou negativa dizemos que x e y guardam uma correlação positiva ou negativa se σ xy 0 dizemos que as variáveis x e y são descorrelacionadas Dessa discussão parece que em condições adequadas a covariância pode servir como uma medida da dependência entre as duas variáveis Com frequência a covariância fornece alguma informação sobre a interdependência entre duas VAs e se mostra útil em diversas aplicações A covariância σ xy pode ser expressa de várias maneiras como mostrado a seguir Por definição Figura 818 Diagramas de espalhamento a b correlação positiva c correlação negativa d correlação zero Da Eq 877 segue que as variáveis x e y são descorrelatadas σ xy 0 se A correlação entre x e y não pode ser comparada diretamente com a correlação entre z e w pois diferentes VAs podem diferir em intensidade Para ser razoável o valor da covariância deve ser adequadamente normalizado Por essa razão a definição de coeficiente de correlação é particularmente útil O coeficiente de correlação ρ xy é σ xy normalizada por σ xσ y Desta forma se x e y forem descorrelatadas ρ xy 0 Além disso podemos mostrar que Exercício 855 Independência versus Descorrelação Reparemos que para VAs independentes Eq 864c Portanto VAs independentes são descorrelacionadas Isso está em acordo com o argumento heurístico apresentado anteriormente Devemos notar que embora variáveis independentes sejam descorrelacionadas a recíproca não é necessariamente verdadeira variáveis descorrelacionadas em geral não são independentes Exercício E853 Independência geralmente é uma condição mais forte e restritiva que descorrelação Para variáveis independentes mostramos Eq 864b que quando existem expectativas para quaisquer funções g 1 e g 2 enquanto para descorrelação a única exigência é que 85 Existe apenas um caso especial para o qual independência e descorrelação são equivalentes quando as variáveis x e y são conjuntamente gaussianas Reparemos que quando x e y são conjuntamente gaussianas x e y são individualmente gaussianas Valor Quadrático Médio da Soma de Variáveis Descorrelacionadas Se x e y forem descorrelacionadas para z x y mostramos que Ou seja para VAs descorrelacionadas a variância da soma é soma das variâncias Provamos esse resultado anteriormente para variáveis independentes x e y Seguindo o desenvolvimento após a Eq 871 obtemos Como x e y são descorrelacionadas σ xy 0 e a Eq 881 resulta Se x e y tiverem média zero z também terá média zero e o valor quadrático médio dessas variáveis será igual às suas variâncias Portanto se x e y forem descorrelacionadas e tiverem médias zero Assim as Eqs 881 e 882 são válidas não apenas quando x e y são independentes mas também sob a condição menos restritiva de que x e y sejam descorrelacionadas ESTIMAÇÃO QUADRÁTICA MÉDIA LINEAR Quando duas variáveis aleatórias x e y são relacionadas ou dependentes o conhecimento de uma dá certa informação sobre a outra Assim é possível estimar o valor de y um parâmetro ou sinal a partir do conhecimento do valor de x O valor estimado de y será outra variável aleatória ŷ Em geral a variável aleatória estimada ŷ diferirá do verdadeiro y Podemos escolher vários critérios de qualidade para estimação O mínimo erro quadrático médio é um critério possível Nesse caso o valor estimado ótimo minimiza o erro quadrático médio 2 dado por Em geral o valor estimado ótimo ŷ é uma função não linear de x Simplificamos o problema limitando o valor estimado ŷ a ser uma função linear de x da forma admitindo que x 0 Nesse caso Para minimizar 2 temos em que R xy xy R xx x 2 R yy y 2 Reparemos que para essa escolha constante de a Portanto Como por definição xy R xy e xx x 2 R xx temos A condição na Eq 884 é conhecida como princípio de ortogonalidade A interpretação física é que o dado x usado na estimação e o erro mínimo são ortogonais o que nesse caso implica descorrelação quando o erro quadrático médio é mínimo Dado o princípio de ortogonalidade o mínimo erro quadrático médio é dado por Uso de n Variáveis Aleatórias para Estimar uma Variável Aleatória Se uma variável aleatória x 0 for relacionada a n VAs x 1 x 2 x n podemos estimar o valor de x 0 usando uma combinação linear de x 1 x 2 x n O erro quadrático médio é dado por Para minimizar 2 devemos tomar Trocando a ordem da diferenciação e tomando a média obtemos A Eq 887a pode ser escrita como O último resultado pode ser reescrito na forma de equações de YuleWalker em que Diferenciando em 2 relação a a 1 a 2 a n e igualando a zero obtemos n equações simultâneas da forma mostrada na Eq 888 As desejadas constantes a 1 a 2 a n podem ser determinadas dessas equações via inversão de matriz A Eq 887 mostra que para estimação ótima o erro é ortogonal aos dados x 1 x 2 x n Isso dá a forma mais geral para o princípio de ortogonalidade na estimação quadrática média Em consequência o erro quadrático médio em condições ótimas é Como X i 0 i 1 2 n Exemplo 824 Na modulação por código de pulso diferencial DPCM em vez de transmitir valores de amostras diretamente estimamos predizemos o valor de cada amostra a partir do conhecimento de n amostras anteriores O erro de estimação k diferença entre o valor real e o valor estimado da k ésima amostra é quantizado e transmitido Fig 819 Como o erro de estimação k é menor que o valor da amostra m k para o mesmo número de níveis de quantização mesmo número de bits de código PCM a SNR aumenta Foi mostrado na Seção 65 que a melhora na SNR é igual a m 2 2 em que m 2 e 2 são os valores quadráticos médios do sinal de voz e do erro de estimação respectivamente Neste exemplo determinemos o preditor de segunda ordem linear ótimo e a correspondente melhora na SNR A equação do estimador preditor de segunda ordem mostrado na Fig 819 é em que k é o melhor valor estimado linear de O erro de estimação k é dado por 86 Figura 819 Preditor de segunda ordem no Exemplo 824 Para sinais de voz Jayant e Noll 5 fornecem os valores de correlações de várias amostras Os valores ótimos de a 1 e a 2 são determinados da Eq 889 como a 1 11314 e a 2 03714 e o erro quadrático médio na estimação é dado pela Eq 890 como A melhora na SNR é SOMA DE VARIÁVEIS ALEATÓRIAS Em muitas aplicações é útil caracterizar uma VA z que é a soma de duas VAs x e y z x y Como z x y y z x qualquer que seja o valor de x Portanto o evento z z é o evento conjunto y z x e x tem qualquer valor no intervalo Logo Se x e y forem VAs independentes e A PDF p z z é então a convolução das PDFs p xz e p yz Podemos estender esse resultado à soma de n VAs independentes x 1 x 2 x n Se a PDF p z z será a convolução das PDFs p x1 x p x2 x p xn x ou seja Soma de Variáveis Aleatórias Gaussianas Variáveis aleatórias gaussianas têm várias propriedades muito importantes Por exemplo uma variável aleatória gaussiana x e sua função densidade de probabilidade p xx são completamente descritas pela média µ x e variância σ x 2 Além disso a soma de um número qualquer de variáveis aleatórias gaussianas disjuntas também é uma variável aleatória gaussiana quaisquer que sejam as relações entre as mesmas como dependência Novamente notemos que quando os membros de um conjunto de variáveis aleatórias x i são conjuntamente gaussianos cada variável aleatória individual x i também tem distribuição gaussiana Como exemplo mostremos que a soma de duas variáveis aleatórias gaussianas independentes de média zero é gaussiana Sejam x 1 e x 2 duas variáveis aleatórias gaussianas independentes de média zero com funções densidade de probabilidade Seja Portanto a função densidade de probabilidade de y é Efetuando a convolução integração obtemos 87 Com uma simples mudança de variável podemos escrever a integral na Eq 894 como Um exame da Eq 895 nos mostra que y é uma VA gaussiana com média zero e variância Na verdade como x 1 e x 2 são independentes devem ser descorrelacionadas Essa relação pode ser obtida da Eq 881 De modo mais geral 5 se x 1 e x 2 forem conjuntamente gaussianas mas não necessariamente independentes então y x 1 x 2 é uma VA gaussiana com média e variãncia Com base na indução a soma de um número qualquer de VAs conjuntamente gaussianas distribuídas ainda é gaussiana Mais importante para quaisquer constantes fixas a i i 1 m e VAs conjuntamente gaussianas x i i 1 m permanece gaussiana Esse resultado tem importantes implicações práticas Por exemplo se x k for uma sequência de amostras de sinal conjuntamente gaussianas que passam por um filtro em tempo discreto com resposta ao impulso h i a saída do filtro continuará gaussiana O fato de que a saída do filtro linear com um sinal de entrada gaussiano será um sinal gaussiano é altamente significativo e é um dos mais úteis resultados na análise de comunicações TEOREMA DO LIMITE CENTRAL Em certas condições a soma de um grande número de VAs independentes tende a ser uma variável aleatória gaussiana não importando as formas das densidades de probabilidade das variáveis sendo somadas A afirmação rigorosa dessa tendência é conhecida como teorema do limite central A prova desse teorema pode ser encontrada nas Refs 6 e 7 Aqui apresentaremos tão somente um argumento simples plausível A Fig 820 ilustra a tendência à distribuição gaussiana quando da convolução de um grande número de funções Para simplificar supomos que todas as PDFs sejam idênticas isto é uma função retangular 05Πx2 A Fig 820 mostra as sucessivas convoluções de funções retangulares A tendência à forma de sino é evidente Esse importante resultado de que a distribuição da soma de n variáveis aleatórias independentes de Bernoulli quando adequadamente normalizadas converge a distribuições gaussianas foi estabe Figura 820 Demonstração do teorema do limite central lecido por A de Moivre no início do século XVIII A prova mais geral para distribuição arbitrária é creditada a J W Lindenber e P Lévy em 1920 Vale notar que soma normalizada é o valor médio de amostras ou média de amostras de n variáveis aleatórias Teorema do limite central para a média de amostras Sejam x 1 x n amostras aleatórias independentes de uma dada distribuição com média µ e variância σ 2 com 0 σ 2 Então para qualquer valor x temos ou de modo equivalente Notemos que é conhecido como média de amostras A interpretação é que a média de amostras de qualquer distribuição com variância finita não nula converge à distribuição gaussiana com média fixa µ e variância decrescente σ 2n Em outras palavras independentemente da real distribuição de x i pode ser aproximado por uma distribuição gaussiana com média nµ e variância nσ 2 Exemplo 825 Consideremos um sistema de comunicação que transmite um pacote de dados de 1024 bits Cada bit pode estar em erro com probabilidade de 10 2 Determinemos a probabilidade aproximada de que mais de 30 dos 1024 bits estejam em erro Definamos uma variável aleatória x i tal que x i 1 se o iésimo bit estiver em erro e x i 0 se não estiver em erro Assim é o número de erros no pacote de dados Desejamos determinar Pv 30 Como Px i 1 10 2 e Px i 0 1 10 2 a rigor deveríamos calcular Esse cálculo é demorado Agora apliquemos o teorema do limite central para resolver este problema de modo aproximado Primeiro determinemos Em consequência Com base no teorema do limite central v ix i é aproximadamente gaussiana com média 1024 10 2 1024 e variância 1024 00099 101376 Já que é uma variável gaussiana padrão com média zero e variância unitária Essa é uma boa ocasião para relaxar as condições no teorema do limite central para a média de amostras Essa importante generalização foi feita pelo famoso matemático russo A Lyapunov em 1901 Teorema do Limite Central para a soma de variáveis aleatórias independentes Sejam x 1 x n variáveis aleatórias independentes mas não necessariamente com distribuições idênticas Cada variável aleatória x i tem média µ i e variância não nula Além disso suponhamos que cada momento central de terceira ordem 1 2 3 4 5 6 7 811 812 813 814 a b e suponhamos ainda Então a variável aleatória converge a uma densidade gaussiana padrão à medida que n ou seja O teorema do limite central fornece uma explicação plausível para o bem conhecido fato de que em experimentos práticos muitas variáveis aleatórias são aproximadamente gaussianas Por exemplo ruído de canal de comunicação é o efeito da soma de distintas fontes de perturbações aleatórias por exemplo centelhas descargas elétricas eletricidade estática Com base no teorema do limite central ruído como a soma de todas essas distribuições aleatórias deve ser aproximadamente gaussiano REFERÊNCIAS J Singh Great Ideas of Modern Mathematics Dover Boston 1959 M Abramowitz and I A Stegun Eds Handbook of Mathematical Functions National Bureau of Standards Washington DC 1964 sec 26 The Chemical Rubber Co CRC Standard Mathematical Tables 26th ed 1980 J M Wozencraft and I M Jacobs Principles of Communication Engineering Wiley New York 1965 p 83 N S Jayant and P Noll Digital Coding of Waveforms Principles and Applications to Speech and Video PrenticeHall 1984 A Papoulis Probability Random Variables and Stochastic Processes 3rd ed McGrawHill New York 1995 M H DeGroot Probabilities and Statistics 2nd ed AddisonWesley Reading MA 1987 EXERCÍCIOS Uma carta é tirada de um baralho comum Aloque probabilidade ao evento em que a carta tirada é a uma carta vermelha b uma rainha preta c uma com figura conte ás como carta com figura d uma carta com o número 7 e uma carta com número 5 Três dados comuns são lançados Aloque probabilidades aos seguintes eventos a soma dos pontos que aparecem nos três dados é a 4 b 9 c 15 A probabilidade de que o número i apareça no lançamento de certo dado carregado é k i i 1 2 6 Aloque probabilidades aos seis resultados Uma caixa contém três osciladores em microchip marcados O 1 O 2 e O 3 e dois microchips de PLL marcados P 1 P 2 Dois microchips são retirados sucessivamente da caixa de modo aleatório e não são a ela devolvidos Quantos são os resultados possíveis ou seja quantos pontos estão no espaço de amostras Liste todos os resultados e aloque probabilidade a cada um deles Expresse os seguintes eventos como uniões dos resultados na parte a i um dos chips retirados é oscilador e o outro PLL ii os dois chips são PLL iii os dois chips são osciladores e iv os dois chips são de mesma natureza Aloque probabilidade a cada um desses eventos 815 816 a b 817 818 a b c d 819 a b 8110 a b 8111 Use a Eq 812 para determinar as probabilidades no Exercício 814 parte b No Exercício 814 determine a probabilidade de A segunda escolha ser um chip oscilador dado que a primeira foi um chip PLL A segunda escolha ser um chip oscilador dado que a primeira também foi um chip oscilador Uma fonte binária gera dígitos 1 e 0 de modo aleatório com igual probabilidade Aloque probabilidades aos seguintes eventos considerando 10 bits gerados pela fonte a há exatamente dois 1s e oito 0s b há pelo menos quatro 0s Na loteria da Califórnia Lotto um jogador escolhe quaisquer 6 números de um total de 49 de 1 a 49 Seis bolas são escolhidas aleatoriamente e não são devolvidas de 49 bolas numeradas de 1 a 49 Determine a probabilidade de que as 6 bolas casem os 6 números escolhidos pelo jogador Determine a probabilidade de casar exatamente 5 bolas Determine a probabilidade de casar exatamente 4 bolas Determine a probabilidade de casar exatamente 3 bolas Uma rede consiste em 10 enlaces s 1 s 2 s 10 em cascata Fig E819 Se um dos enlaces falhar todo o sistema falha Todos os enlaces são independentes com igual probabilidade de falha p 001 Qual é a probabilidade de falha da rede Sugestão Considere a probabilidade de que nenhum dos enlaces falhe A confiabilidade de uma rede é a probabilidade de a mesma não falhar Se a requerida confiabilidade do sistema for 099 qual deve ser a probabilidade de falha de cada enlace Figura E819 A confiabilidade de uma rede melhora quando são usados enlaces redundantes A confiabilidade da rede no Exercício 819 Fig E819 pode ser melhorada com a construção de duas subredes em paralelo Fig E819 Assim se uma subrede falhar a outra ainda proverá conexão Usando os dados do Exercício E819 determine a confiabilidade da rede na Fig E8110 Se a requerida confiabilidade dessa nova rede for 0999 qual deve ser a probabilidade de falha de cada enlace Figura E8110 Compare as confiabilidades das duas redes na Fig E8111 dado que a probabilidade de falha de cada um dos enlaces s 1 e s 2 seja p 8112 8113 8114 a b 8115 a b 8116 8117 8118 8119 a b 8120 821 822 Figura E8111 Em um jogo de pôquer cada jogador recebe cinco cartas de um baralho comum de 52 cartas Qual é a probabilidade de que um jogador obtenha um flush todas as cinco cartas de um mesmo naipe Dois dados são lançados Um dado é comum e o outro polarizado com as seguintes probabilidades Determine a probabilidade de obter a soma a 4 b 5 Na Seção 81 Exemplo 85 determine PB a probabilidade de tirar um ás na segunda rodada PAB a probabilidade de um ás vermelho ser tirado na primeira rodada dado que um ás foi tirado na segunda rodada Sugestão O evento B pode ocorrer de duas maneiras a primeira rodada é um ás vermelho e a segunda um ás ou a primeira rodada não é um ás vermelho e a segunda um ás Isso é A B A cB ver Fig 82 Uma fonte binária gera dígitos 1 e 0 de modo aleatório com probabilidades P1 08 e P0 02 Qual é a probabilidade de que exatamente dois 1s ocorram em uma sequência de n dígitos Qual é a probabilidade de que pelo menos três 1s ocorram em uma sequência de n dígitos Em um canal de comunicação binária o receptor detecta pulsos binários com probabilidade de erro P e Qual é a probabilidade de que entre 100 dígitos recebidos não mais que quatro dígitos estejam em erro Um canal PCM consiste em 10 enlaces com um repetidor regenerativo no final de cada enlace Se as probabilidades de erro de detecção dos 15 detectores forem p 1 p 2 p 15 determine a probabilidade de erro de detecção de todo o canal se p i 1 O Exemplo 88 considera a possibilidade de melhorar a confiabilidade com a repetição de um dígito três vezes Refaça a análise do exemplo para cinco repetições Uma caixa contém nove microchips defeituosos Um microchip bom é jogado na caixa por engano Alguém tenta recuperar o microchip bom Um chip é tirado da caixa aleatoriamente e testado Se o chip for defeituoso é descartado e outro chip é tirado da caixa de modo aleatório O processo é repetido até que o chip bom seja encontrado Qual é a probabilidade de encontrar o chip bom na primeira tentativa Qual é a probabilidade de encontrar o chip bom em cinco tentativas Uma pessoa de um grupo de 10 é selecionada para uma missão suicida por meio da escolha de um palito Há 10 palitos nove são do mesmo tamanho e o décimo é mais curto que os outros Cada pessoa sucessivamente tira um palito A pessoa que tirar o palito mais curto é selecionada para a missão Determine as posições na sequência que são respectivamente a mais favorável e a menos favorável para tirar o palito curto Para certo canal binário não simétrico é dado que em que x é o dígito transmitido e y o dígito recebido Se P x 0 04 determine P y 0 e P y 1 Um canal binário simétrico Exemplo 813 tem probabilidade de erro P e A probabilidade de transmitir 1 é Q Se o receptor detectar um dígito como 1 qual é a probabilidade de que o dígito originalmente 823 a b c 824 825 826 a b c 827 a b transmitido tenha sido a 1 b 0 Sugestão Se x for o dígito transmitido e y o dígito recebido use P yx 01 P yx 10 P e Use a regra de Bayes e determine P xy 11 e P xy 01 A PDF de amplitude x de certo sinal xt é dada por p x x 05xe x Determine a probabilidade de que x 1 Determine a probabilidade de que 1 x 2 Determine a probabilidade de que x 2 A PDF de uma amplitude x de um sinal gaussiano xt é dada por Esse sinal é aplicado à entrada de um circuito retificador de meiaonda Fig E824 Admitindo um diodo ideal determine F y y e p y y da amplitude do sinal de saída y xux Repare que a probabilidade de x 0 não é zero Figura E824 A PDF de uma variável gaussiana x é dada por Determine a Px 4 b Px 0 c Px 2 Para uma VA x com PDF Esboce o gráfico de p x x e determine justificando se esta é uma VA gaussiana Determine i Px 1 ii P1 x 2 Como a VA x pode ser gerada a partir de outra VA gaussiana Mostre um diagrama em blocos e justifique A PDF conjunta de VAs x e y é mostrada na Fig E827 Determine i A ii p x x iii p y y iv P xy xy v P yx yx x e y são independentes Justifique sua resposta 828 a b 829 8210 8211 Figura E827 A PDF conjunta p xy x y de duas VAs contínuas é dada por Determine p x x p y y p xy xy e p yx yx x e y são independentes As VAs x e y são ditas conjuntamente gaussianas se sua PDF conjunta for dada por em que M ab c 2 Mostre que p x x p y y p xy xy e p yx yx são todas gaussianas e que x 2 b y 2 a e xy c Sugestão Use A PDF conjunta das VAs x e y é dada por Determine a a constante k b p x x c p y y d p xy xy e p yx yx As VAs x e y são independentes No exemplo de detecção por limiar Exemplo 816 foi admitido que os dígitos 1 e 0 eram transmitidos com igual probabilidade Se P x 1 e P x 0 as probabilidades de transmitir 1 e 0 respectivamente não forem iguais mostre que o limiar ótimo não é 0 mas a com Sugestão Suponha que o limiar ótimo seja a e escreva P e em termos de funções Q Para o caso ótimo dP e da 0 Use o fato de que 831 832 833 834 835 836 837 838 851 852 Se uma amplitude x de um sinal gaussiano xt tiver um valor médio igual a 2 e um valor RMS de 3 determine sua PDF Determine a média o valor médio quadrático e a variância da VA x no Exercício 823 Determine a média o valor médio quadrático da VA x no Exercício 824 Determine a média o valor médio quadrático da VA x no Exercício 826 Determine a média o valor médio quadrático e a variância da VA x na Fig 835 Figura E835 A soma dos pontos em dois dados que são lançados é uma VA x discreta como analisado no Exemplo 812 Determine a média o valor quadrático médio e a variância da VA x Para uma PDF gaussiana mostre que Sugestão Busque em uma tabela matemática integrais definidas apropriadas Dez dados comuns são lançados A soma dos números que aparecem nesses 10 dados é uma VA x Determine x x 2 e σ x 2 Sugestão Lembrese de que o resultado de cada dado é independente Mostre que ρ xy 1 em que ρ xy é o coeficiente de correlação Eq 879 das VAs x e y Sugestão Mostre que para qualquer número real a O discriminante desse quadrático em a é não positivo Mostre que se duas VAs x e y forem relacionadas por 853 861 862 863 864 865 em que k 1 e k 2 são constantes arbitrárias o coeficiente de correlação ρ xy 1 se k 1 é positivo e ρ xy 1 se k 1 é negativo Dado x cos Θ e y sen Θ em que Θ é uma VA uniformemente distribuída no intervalo 0 2π mostre que x e y são descorrelacionadas mas não são independentes O sinal binário aleatório xt mostrado na Fig E861a pode assumir somente dois valores 3 e 0 com igual probabilidade Um ruído de canal exponencial nt mostrado na Fig E861b é adicionado a esse sinal produzindo um sinal recebido yt A PDF da amplitude de ruído n é exponencial com média zero e variância 2 Determine a PDF da amplitude y e esboce seu gráfico Sugestão A Eq 892 fornece p y y p x x p n n Figura E861 Repita o Exercício 861 para o caso de as amplitudes 3 e 0 de xt não serem equiprováveis mas com P x 3 06 e P x 0 04 Se xt e yt forem dois sinais binários independentes cada um assumindo somente os valores 1 e 1 com determine P zz i em que z x y Se z x y em que x e y são VAs gaussianas independentes com mostre que z também é gaussiana com Sugestão Convolva p x x e p y y Veja o par 22 na Tabela 31 No Exemplo 824 projete o processador preditor de terceira ordem ótimo para sinais de voz e determine a melhora na SNR Valores de vários coeficientes de correlação para sinais de voz são dados no Exemplo 824 Repetições conduzidas em condições discerníveis semelhantes Vale observar que não definimos probabilidade pela frequência relativa Para um dado evento a frequência relativa é uma estimativa próxima da probabilidade do evento quando o experimento é repetido muitas vezes A teoria moderna da probabilidade por ser um ramo da matemática se inicia com certos axiomas a respeito da probabilidade Eqs 86 88 e 811 e supõe que de alguma forma essas probabilidades sejam alocadas pela natureza Por ser razoável no sentido de representar uma aproximação muito boa de experiência e expectativas de probabilidade usamos a frequência relativa para estimar a probabilidade Aqui usamos implicitamente o fato de que n 1 quando N Isto é verdadeiro desde que o limite da razão lim N n 1 N 0 ou seja PA 0 O número m não é necessariamente igual a n Mais de um ponto de amostra pode ser mapeado em um valor de x A função Qx tem uma relação próxima com as funções erf x e erfc x Logo Vale a pena ressaltar que P xyxy é condicionada a um evento y y que tem probabilidade zero Como o intervalo de quantização em geral é muito pequeno variações na PDF das amplitudes do sinal no intervalo são pequenas de modo que essa hipótese é razoável Aqui admitimos que o erro pode ocorrer somente em um dos n dígitos Contudo o erro pode ocorrer em mais de um dígito No entanto como a probabilidade do erro de dígito P e 1 da ordem de 10 5 a probabilidade de mais de um dígito em erro é extremamente pequena Exemplo 86 e sua contribuição i 2 P i é desprezível Pode ser mostrado que 5 o valor estimado ótimo ŷ é a média condicional de y quando x x ou seja Geralmente essa é uma função não linear de x Em toda a discussão admitiremos que a cada uma das variáveis x y terá média zero Isto pode ser feito sem perda de generalidade Se as variáveis tiverem médias não zero podemos formar novas variáveis x x x y y y e assim por diante As novas variáveis têm obviamente médias nulas Ao longo desta seção como antes admitimos que todas as variáveis aleatórias têm média zero Isso pode ser feito sem perda de generalidade Se as variáveis forem gaussianas isso é verdade mesmo que as variáveis não sejam independentes Na verdade um grupo de teoremas coletivamente denominado teorema do limite central A 91 noção de processo aleatório é uma extensão natural do conceito de variável aleatória VA Consideremos por exemplo a temperatura x em certa cidade ao meiodia A temperatura x é uma VA e assume diferentes valores a cada dia Para obter uma completa estatística de x devemos registrar valores de x ao meiodia ao longo de muitos dias um grande número de ensaios A partir desses dados podemos determinar p xx a PDF da VA x temperatura ao meiodia A temperatura contudo é também uma função do tempo À uma da tarde por exemplo a temperatura pode ter uma distribuição totalmente distinta da temperatura ao meiodia No entanto as duas temperaturas podem estar relacionadas por meio de uma função densidade de probabilidade conjunta Assim essa temperatura aleatória x é uma função do tempo e pode ser expressa como xt Se a variável aleatória for definida em um intervalo de tempo t t a t b então xt será uma função do tempo e aleatória para cada instante t t a t b Uma VA que é função do tempo é denominada processo aleatório ou estocástico Assim um processo aleatório é uma coleção de um número infinito de VAs Sinais de comunicação e ruídos que em geral são aleatórios e variam com o tempo são bem caracterizados por processos aleatórios Por essa razão processos aleatórios são o tema deste capítulo para que possamos posteriormente analisar o desempenho de diferentes sistemas de comunicação DE VARIÁVEL ALEATÓRIA A PROCESSO ALEATÓRIO Para especificar uma VA efetuamos numerosos ensaios de um experimento e dos resultados estimamos p xx Do mesmo modo para especificar um processo aleatório fazemos isso a cada instante de tempo t Para dar prosseguimento ao exemplo do processo aleatório xt a temperatura na cidade precisamos registrar temperaturas diárias para cada valor de t para cada hora do dia Isso pode ser feito registrando temperaturas em cada instante do dia o que produz uma forma de onda xt ζ i em que ζ i indica o dia em que o registro foi feito Precisamos repetir esse procedimento todos os dias por um grande número de dias A coleção de todas as possíveis formas de onda é conhecida como ensemble conjunto ou família do processo aleatório xt e corresponde ao espaço de amostras Uma forma de onda nessa coleção é uma função de amostra ou função amostral em vez de ponto de amostra do processo aleatório Fig 91 Em um dado instante de tempo t t 1 amplitudes de funções de amostras são os valores assumidos pela VA xt 1 nos diferentes ensaios Figura 91 Processo aleatório para representar a temperatura em uma cidade Figura 92 Ensemble com um número finito de funções de amostras Podemos ver um processo aleatório de outra forma No caso de uma VA o resultado de cada ensaio do experimento é um número Também podemos ver um processo aleatório como o resultado de um experimento em que o resultado de cada ensaio é uma forma de onda uma função de amostra que é uma função de t O número de formas de onda em um ensemble pode ser finito ou infinito No caso do processo aleatório xt temperatura em uma cidade o ensemble tem infinitas formas de onda Contudo se considerarmos a saída de um gerador de sinal binário no intervalo de 0 a 10T haverá no máximo 2 10 formas de onda no ensemble Fig 92 Um ponto importante que requer esclarecimento é que as formas de onda ou funções de amostras no ensemble não são aleatórias Como ocorreram são determinísticas Nessa situação aleatoriedade não está associada à forma de onda mas à incerteza da ocorrência da forma de onda em um dado ensaio Isso é completamente análogo ao caso de uma VA Por exemplo no experimento do lançamento de uma moeda quatro vezes seguidas Exemplo 84 existem 16 resultados possíveis todos conhecidos A aleatoriedade não está associada aos resultados mas à incerteza quanto a qual dos 16 resultados ocorrerá em um dado ensaio Na verdade o processo aleatório é basicamente um vetor de comprimento infinito de variáveis aleatórias Uma vez que um experimento tenha sido completado o vetor amostrado é determinístico Contudo como cada elemento no vetor é aleatório o resultado do experimento também é aleatório originando incerteza com relação a que vetor ou função será produzido em cada experimento Caracterização de um Processo Aleatório A próxima questão importante é como caracterizar descrever um processo aleatório Em alguns casos pode ser possível descrever o processo aleatório analiticamente Consideremos por exemplo um processo aleatório descrito por xt A cos ω c t Θ em que Θ é uma VA uniformemente distribuída no intervalo 0 2π Essa expressão analítica descreve completamente o processo aleatório e seu ensemble Cada função de amostra é uma senoide de amplitude A e frequência ω c Contudo a fase é aleatória Fig 95 mais adiante e pode assumir qualquer valor no intervalo 0 2π com igual probabilidade Uma descrição analítica como essa requer modelos bem definidos de modo que o processo aleatório possa ser caracterizado por parâmetros específicos que são variáveis aleatórias Lamentavelmente nem sempre a descrição analítica de um processo aleatório é possível Sem um modelo específico tudo o que nos resta pode ser apenas um ensemble obtido de experimentos O ensemble contém toda a informação sobre o processo aleatório Do ensemble podemos determinar alguma medida quantitativa que especificará ou caracterizará o processo aleatório Nesse caso consideramos o processo aleatório como uma VA que é função do tempo Assim um processo aleatório é uma coleção de um número infinito de VAs em geral dependentes Sabemos que informação completa sobre VAs dependentes é fornecida pela PDF conjunta das variáveis Seja x i a VA xt i gerada pelas amplitudes do processo aleatório no instante t t i Assim x 1 é a VA gerada pelas amplitudes em t t 1 x 2 é a VA gerada pelas amplitudes em t t 2 e assim por diante como mostrado na Fig 91 As n VAs x 1 x 2 x 3 x n geradas pelas amplitudes em t t 1 t 2 t 3 t n respectivamente são em geral dependentes Para as n amostras as VAs são completamente caracterizadas pela função densidade de probabilidade conjunta de nésima ordem ou função de distribuição cumulativa conjunta de nésima ordem CDF Cumulative Distribution Function A definição da CDF conjunta de n amostras aleatórias leva à PDF conjunta Essa discussão ajuda na compreensão Pode ser mostrado que o processo aleatório é completamente descrito pela PDF conjunta de nésima ordem 91 para todo n até e qualquer escolha de t 1 t 2 t n A determinação dessa PDF de ordem infinita é uma tarefa colossal Por sorte veremos mais adiante que na análise de sinais e ruídos aleatórios associados a sistemas lineares muitas vezes nos basta a especificação das estatísticas de primeira e segunda ordens Uma PDF de ordem superior é a PDF conjunta do processo aleatório em diferentes instantes de tempo Portanto por uma simples integração sempre podemos deduzir uma PDF de ordem inferior a partir de uma PDF de ordem mais elevada Por exemplo Portanto quando a PDF de nésima ordem for disponível não é necessária a especificação de PDFs de ordens inferiores a n A média xt de um processo aleatório xt pode ser determinada da PDF de primeira ordem que tipicamente é uma função determinística do tempo t Figura 93 Processo aleatório representando um ruído de canal Por que Precisamos de Estatística de Ensemble A discussão anterior mostra que para a especificação de um processo aleatório precisamos de estatística de ensemble Por exemplo para determinar a PDF p x1x 1 precisamos calcular os valores de todas as funções de amostras em t t 1 Isso é estatística de ensemble Da mesma forma a inclusão de todas as estatísticas possíveis na especificação de um processo aleatório requer algum tipo de estatística de ensemble No caso de sinais determinísticos estamos acostumados a estudar os dados de uma forma de onda ou formas de onda como uma função do tempo Assim a ideia de investigar a estatística de ensemble pode a princípio nos parecer um pouco desconfortável Podemos aceitála como uma teoria mas será que tem alguma significância prática Qual é a utilidade prática desse conceito A seguir responderemos a essa pergunta Para entender a necessidade da estatística de ensemble consideremos o problema de detecção de limiar do Exemplo 816 Um 1 é transmitido por pt e um 0 por pt sinalização polar A amplitude de pico do pulso é A p Quando 1 é transmitido o valor da amostra recebida é A p n em que n é o ruído Cometeremos um erro de decisão se o valor do ruído no instante de amostragem t s for menor que A p fazendo com que a soma do sinal e ruído fique abaixo do limiar Para calcular essa probabilidade de erro repetimos o experimento N vezes N e verificamos quantas vezes o ruído em t t s é menor que A p Fig 93 Essa informação é precisamente uma das estatísticas de ensemble do processo de ruído nt no instante t s Esse exemplo deixa clara a importância da estatística de ensemble Quando tratamos com processo ou processos aleatórios não sabemos que função amostral ocorrerá em um dado ensaio Portanto para qualquer caracterização e especificação estatística de um processo aleatório precisamos calcular a média em todo o ensemble Essa é a razão física básica para o uso de estatística de ensemble em processos aleatórios Função de Autocorrelação de um Processo Aleatório Para fins de análise de sinais uma das mais importantes características estatísticas de um processo aleatório é a função de autocorrelação que leva à informação espectral do processo aleatório O conteúdo espectral de um processo aleatório depende da rapidez da variação de amplitude com o tempo Isso pode ser medido com a correlação de amplitudes em t 1 e t 1 τ Em média o processo aleatório xt na Fig 94a é um processo aleatório de variação lenta em comparação com o processo yt na Fig 94b Para xt as amplitudes em t 1 e t 1 τ são similares Fig 94a ou seja têm correlação mais forte Para yt por sua vez as amplitudes em t 1 e t 1 τ guardam pouca semelhança Fig 94b isto é têm correlação mais fraca Vale recordar que correlação é uma medida da similaridade de duas VAs Por conseguinte podemos usar correlação para medir a similaridade das amplitudes em t 1 e t 2 92 Figura 94 Funções de autocorrelação para processos aleatórios de variações a lenta e b rápida t 1 τ Se as VAs xt 1 e xt 2 forem denotadas por x 1 e x 2 respectivamente para um processo aleatório real a função de autocorrelação R xt 1 t 2 é definida como Essa é a correlação das VAs xt 1 e xt 2 indicando a similaridade entre as VAs xt 1 e xt 2 Essa função é calculada com a multiplicação das amplitudes de uma função amostral em t 1 e t 2 e com o cálculo da média desse produto em todo o ensemble Podemos observar que para um pequeno valor de τ o produto x 1x 2 será positivo para a maioria das funções amostrais de xt enquanto o produto y 1y 2 tem igual possibilidade de ser positivo ou negativo Portanto x 1x 2 será maior que y 1y 2 Além disso x 1 e x 2 exibirão correlação para valores consideravelmente maiores de τ enquanto y 1 e y 2 perderão correlação rapidamente mesmo para pequenos valores de τ como mostrado na Fig 94c Assim R x t 1 t 2 a função de autocorrelação de xt fornece informação valiosa a respeito do conteúdo espectral do processo Na verdade mostraremos que a PSD de xt é a transformada de Fourier de sua função de autocorrelação dada por para processos reais Logo R x t 1 t 2 pode ser obtida de PDF conjunta de x 1 e x 2 que é a PDF de segunda ordem CLASSIFICAÇÃO DE PROCESSOS ALEATÓRIOS Processos aleatórios podem ser classificados nas seguintes grandes categorias Processos Aleatórios Estacionários e Não Estacionários Um processo aleatório cujas características estatísticas não se alteram com o tempo é classificado como um processo aleatório estacionário Para um processo estacionário podemos dizer que é impossível detectar qualquer deslocamento da origem do tempo o processo será sempre o mesmo Suponhamos que p xx t 1 tenha sido calculada se a origem for deslocada por t 0 p xx t 1 será obtida novamente O instante t 1 no novo sistema de referência corresponde a t 2 t 1 t 0 no sistema de referência original Portanto as PDFs de x em t 1 e t 2 t 1 t 0 devem ser iguais ou seja no caso de um processo estacionário p xx t 1 e p xx t 2 devem ser idênticas Isso é possível somente se p xx t independer de t Assim a densidade de primeira ordem de um processo aleatório estacionário pode ser expressa como Do mesmo modo para um processo aleatório a função de autocorrelação R xt 1 t 2 deve depender de t 1 e t 2 somente pela diferença t 2 t 1 Caso contrário poderíamos determinar uma única origem do tempo Portanto para um processo estacionário real Por conseguinte Para um processo estacionário a PDF conjunta para x 1 e x 2 também deve depender somente de t 2 t 1 Da mesma forma PDFs de ordens superiores devem independer da escolha da origem ou seja O processo aleatório xt que representa a temperatura em uma cidade é um exemplo de um processo aleatório não estacionário pois as estatísticas da temperatura valor médio por exemplo dependem da hora do dia Contudo podemos dizer que o processo de ruído na Fig 93 é estacionário pois suas estatísticas valor médio e valor quadrático médio por exemplo não variam com o tempo Em geral não é fácil determinar se um processo é estacionário ou não pois para isso a estatística de ordem n n 1 2 deve ser investigada Na prática podemos assegurar estacionariedade se não houver alteração no mecanismo de geração do sinal Esse é o caso do processo de ruído na Fig 93 Processos Estacionários no Sentido Amplo ou Fracamente Estacionários É possível que um processo que não seja estacionário no sentido estrito como discutido na subseção anterior tenha valor médio e função de autocorrelação que independam do deslocamento da origem do tempo Isso significa que e Um processo desse tipo é conhecido como processo estacionário no sentido amplo ou processo fracamente estacionário Reparemos que estacionariedade é uma condição mais forte que estacionariedade no sentido amplo Processos estacionários com funções de autocorrelação bem definidas são estacionários no sentido amplo contudo excetuando processos gaussianos a recíproca não é necessariamente verdadeira Assim como na prática não existe um sinal senoidal nenhum processo verdadeiramente estacionário ocorre na vida real Na prática todos os processos são não estacionários pois devem ter início em algum tempo finito e devem terminar em algum tempo finito Um processo verdadeiramente estacionário deve iniciar em t e durar eternamente Todavia muitos processos podem ser considerados estacionários para o intervalo de tempo de interesse e a hipótese de estacionariedade possibilita um modelo matemático maneável O uso de um modelo estacionário é análogo ao uso de um modelo senoidal na análise determinística Exemplo 91 Mostremos que o processo aleatório em que Θ é uma VA uniformemente distribuída no intervalo 0 2π é um processo estacionário no sentido amplo O ensemble Fig 95 consiste em senoides de amplitude constante A frequência constante ω c e fase aleatória Θ Para qualquer função de amostra é igualmente possível que a fase tenha qualquer valor no intervalo 0 2π Como Θ é uma VA uniformemente distribuída no intervalo 0 2π podemos determinar 1 p xx t e por conseguinte xt como na Eq 92 Contudo nesse caso particular xt pode ser determinada diretamente como uma função da variável aleatória Θ Como cos ω c t Θ é uma função de uma VA Θ temos Eq 861b Como p Θ θ 12π no intervalo 0 2π e 0 fora desse intervalo Figura 95 Ensemble para o processo aleatório A cos ω c t Θ Logo Portanto a média de ensemble de amplitudes de funções de amostra em qualquer instante t é zero A função de autocorrelação R xt 1 t 2 para esse processo também pode ser calculada diretamente da Eq 93a O primeiro termo no lado direito não contém qualquer VA Assim cos ω c t 2 t 1 é cos ω c t 2 t 1 O segundo termo é função da VA uniforme Θ e sua média é Logo ou Das Eqs 97a e 97b fica claro que xt é um processo estacionário no sentido amplo Processos Estacionários no Sentido Amplo Ergódigos Estudamos a média e a função de autocorrelação de um processo aleatório Essas são médias de ensemble Por exemplo xt é a média de ensemble de amplitudes de funções de amostra em t e R xt 1 t 2 x 1x 2 é a média de ensemble do produto de amplitudes de funções de amostra xt 1 e xt 2 Podemos também definir médias temporais para cada função de amostra Por exemplo uma média temporal xt de uma função de amostra xt é Do mesmo modo a função de autocorrelação temporal definida na Eq 382b é Para processos estacionários no sentido amplo ergódigos médias de ensemble são iguais às médias temporais de qualquer função de amostra Assim para um processo ergódigo xt 93 Figura 96 Classificação de processos aleatórios Essas são as duas médias para processos estacionários no sentido amplo ergódigos Para a definição mais geral de um processo ergódigo todas as possíveis médias de ensemble são iguais às correspondentes médias temporais de uma de suas funções de amostra A Fig 96 ilustra a relação entre diferentes classes de processos ergódigos Neste livro o foco reside na classe de processos estacionários no sentido amplo ergódigos A determinação se um processo é ergódigo ou não é difícil pois devemos testar todas as possíveis ordens de médias temporais e de ensemble Todavia na prática muitos dos processos estacionários são ergódigos com relação às estatísticas de mais baixas ordens como a média e a função de autocorrelação Para o processo no Exemplo 91 Fig 95 podemos mostrar que xt 0 e R x τ A 22 cos ω c τ Exercício 381 Portanto esse processo é ergódigo pelo menos com relação às médias de primeira e segunda ordens O conceito de ergodicidade pode ser explicado por um simples exemplo de sinais de trânsito em uma cidade Suponhamos que uma cidade seja bem planejada com ruas apenas nas direções lesteoeste LO e nortesul NS e com semáforos em cada cruzamento Suponhamos que cada semáforo fique verde por 075 segundo na direção LO e 025 segundo na direção NS e que a mudança de cor da luz de qualquer semáforo independa de todos os outros semáforos Para simplificar ignoremos a luz amarela Se considerarmos que uma pessoa dirigindo um carro se aproxime de qualquer semáforo aleatoriamente na direção LO a probabilidade de que essa pessoa veja a luz verde é 075 ou seja em média a pessoa observará a luz verde em 75 do tempo Se considerarmos que um grande número de motoristas se aproxime de um semáforo na direção LO em algum instante de tempo t então 75 dos motoristas verão a luz verde e os outros 25 uma luz vermelha Assim a experiência de um motorista que se aproxime aleatoriamente de um semáforo muitas vezes conterá a mesma informação estatística estatística de função de amostra que no caso em que um grande número de motoristas se aproxima simultaneamente de vários semáforos estatística de ensemble em um dado instante de tempo A noção de ergodicidade é de extrema importância pois na prática não dispomos de um grande número de funções de amostra para o cálculo de médias de ensemble Caso saibamos que um processo seja ergódigo precisamos apenas de uma função de amostra para o cálculo de médias de ensemble Como mencionado muitos dos processos estacionários encontrados na prática são ergódigos com relação pelo menos às médias de segunda ordem Como veremos no estudo de processos estacionários associados a sistemas lineares precisamos somente de médias de primeira e segunda ordens Isso significa que na maioria dos casos práticos nos basta uma função de amostra DENSIDADE ESPECTRAL DE POTÊNCIA Um engenheiro eletricista pensa de modo intuitivo em sinais e sistemas lineares em termos de suas descrições no domínio da frequência Sistemas lineares são caracterizados por suas respostas de frequência função de transferência sinais são expressos em termos das amplitudes e fases relativas de suas componentes de frequência transformada de Fourier Conhecidos o espectro de entrada e a função de transferência a resposta de um sistema linear a um dado sinal pode ser obtida em termos do conteúdo espectral do sinal Esse é um importante procedimento analítico para sinais determinísticos Será que métodos similares podem ser encontrados para processos aleatórios Idealmente admitimos que todas as funções de amostra de um processo aleatório existam em todo o intervalo de tempo e portanto sejam sinais de potência Devemos portanto investigar a existência de uma densidade espectral de potência PSD Power Spectral Density À primeira vista o conceito de um processo aleatório ter uma PSD pode parecer ridículo pelas seguintes razões primeira a descrição analítica de uma função de amostra pode não ser possível segunda para um dado processo cada função de amostra pode ser diferente de outra Portanto mesmo que uma PSD exista para cada função de amostra pode ser diferente para distintas funções de amostra Afortunadamente os dois problemas podem ser resolvidos com destreza permitindo a definição de uma PSD que faça sentido para um processo aleatório estacionário pelo menos no sentido amplo Para processos não estacionários a PSD pode não existir Sempre que aleatoriedade estiver envolvida nossas buscas podem na melhor das hipóteses fornecer respostas em termos de médias No lançamento de uma moeda por exemplo o máximo que podemos dizer sobre o resultado é que em média obteremos cara na metade dos ensaios e coroa nos ensaios restantes No caso de sinais aleatórios ou VAs não dispomos de informação suficiente para predizer o resultado com certeza de modo que devemos aceitar respostas em termos de médias Não é possível transcender esse limite de conhecimento devido à nossa fundamental ignorância do processo Parece razoável definir a PSD de um processo aleatório como uma média ponderada das PSDs de todas as funções de amostras Essa é a única solução sensata pois não sabemos exatamente que função de amostra pode ocorrer em um dado ensaio Devemos estar preparados para qualquer função de amostra Consideremos por exemplo o problema de filtrar certo processo aleatório Não devemos projetar um filtro tendo em vista uma particular função de amostra pois qualquer uma das funções de amostra do ensemble pode estar presente na entrada Uma abordagem sensata consiste em projetar o filtro com base nos parâmetros médios do processo de entrada No projeto de um sistema para efetuar dadas operações devemos projetálo tendo em mente todo o ensemble Temos portanto justificativas para definir a PSD S xf de um processo aleatório xt como a média de ensemble das PSDs de todas as funções de amostra Assim Eq 380 em que X T f é a transformada de Fourier do processo aleatório truncado no tempo e a barra significa média de ensemble Reparemos que a média de ensemble é tomada antes da operação de limite Mostraremos a seguir que a PSD definida na Eq 910a é a transformada de Fourier da função de autocorrelação R xτ do processo xt ou seja Isso pode ser provado da seguinte forma Figura 97 Dedução do teorema de WienerKhintchine Assim para xt real Trocando a ordem das operações de integração e de média de ensemble obtemos Aqui admitimos que o processo xt seja estacionário pelo menos no sentido amplo de modo que xt 1xt 2 R xt 2 t 1 Por conveniência seja Logo A integral no lado direito é uma integral dupla no intervalo T2 T2 para cada uma das variáveis t 1 e t 2 A região quadrada de integração no plano t 1 t 2 é mostrada na Fig 97 A integral na Eq 914 é um volume sob a superfície φt 1 t 2 na região quadrada na Fig 97 A integral dupla na Eq 914 pode ser convertida em integral simples observando que φt 2 t 1 é constante ao longo da reta t 2 t 1 τ uma constante no plano t 1t 2 Fig 97 Consideremos duas dessas retas t 2 t 1 τ e t 2 t 1 τ τ Se τ 0 φt 2 t 1 φτ na região sombreada cuja área é T ττ Assim o volume sob a superfície φt 2 t 1 é φτT ττ Se τ for negativo o volume será φτT ττ Portanto em geral o volume sobre a região sombreada é φτT ττ O desejado volume sobre a região quadrada na Fig 97 é a soma dos volumes sobre as fitas sombreadas e é obtido integrando φτT τ no intervalo de variação de τ que é T T Fig 97 Logo desde que seja limitada A substituição da Eq 913 nessa equação leva a desde que seja limitada Portanto a PSD de um processo aleatório estacionário no sentido amplo é a transformada de Fourier de sua função de autocorrelação Esse é o famoso teorema de WienerKhintchine introduzido inicialmente no Capítulo 3 A função de autocorrelação emerge dessa discussão como uma das entidades mais significativas na análise espectral de um processo aleatório Anteriormente havíamos mostrado de forma heurística a conexão entre a função de autocorrelação e o conteúdo espectral de um processo aleatório A função de autocorrelação R xτ para um processo real é uma função par de τ Isso pode ser provado de duas maneiras Primeira como X T f 2 X T fX T f é uma função par de f S xf também é uma função par de f e R xτ sua transformada inversa também é uma função par de τ Exercício 311 Alternativamente temos Fazendo t τ σ obtemos A PSD S xf também é uma função real e par de f O valor quadrático médio x 2t do processo aleatório xt é R x0 O valor quadrático médio x 2 não é o valor quadrático médio temporal de uma função de amostra mas a média de ensemble dos quadrados de todas as amplitudes de funções de amostra em qualquer instante t Potência de um Processo Aleatório A potência P x potência média de um processo aleatório estacionário no sentido amplo xt é seu valor quadrático médio x 2 Da Eq 916 Assim da Eq 918 Como S xf é uma função par de f temos em que f é a frequência em hertz Essa é a mesma relação deduzida para sinais determinísticos no Capítulo 3 Eq 381 A potência P x é a área sob a PSD Adicionalmente P x x 2 é a média de ensemble dos quadrados das amplitudes de funções de amostra em qualquer instante Vale repetir que a PSD pode não existir para processos que não sejam estacionários no sentido amplo Portanto em nossa discussão futura consideraremos que processos aleatórios sejam pelo menos estacionários no sentido amplo exceto quando especificado de outro modo Exemplo 92 Determinemos a função de autocorrelação R xτ e a potência P x de um processo aleatório passabaixas com uma PSD de ruído branco S xf N2 Fig 98a Figura 98 PSD de ruído branco passafaixa e sua função de autocorrelação Temos Portanto da Tabela 31 par 18 Isso é mostrado na Fig 98b Temos ainda Ou Exemplo 93 Determinemos a PSD e o valor quadrático médio de um processo aleatório em que Θ é uma VA uniformemente distribuída em 0 2π Para esse caso R xτ já foi determinada Eq 97c Logo Assim a potência ou valor quadrático médio do processo xt A cos ω c t Θ é A 22 A potência P x também pode ser obtida integrando S xf com relação a f Exemplo 94 Modulação em Amplitude Determinemos a função de autocorrelação e a PSD do processo modulado DSBSC mt cos ω c t Θ em que mt é um processo aleatório estacionário no sentido amplo e Θ é uma VA uniformemente distribuída em 0 2π e independente de mt Seja Então Como mt e Θ são independentes podemos escrever Eq 864b e 97c Por conseguinte Da Eq 922a temos Portanto a potência do sinal modulado DSBSC é a metade da potência do sinal modulante Esse resultado havia sido deduzido anteriormente Eq 393 para sinais determinísticos Reparemos que sem a fase aleatória Θ um sinal modulado em amplitude DSBSC mt cos ω c t não é na verdade estacionário no sentido amplo Para determinar sua PSD podemos recorrer ao conceito de autocorrelação temporal do Capítulo 3 Exemplo 95 Processo Binário Aleatório Neste exemplo consideremos um processo binário aleatório para o qual uma típica função de amostra é ilustrada na Fig 99a O sinal pode assumir apenas dois estados valores 1 ou 1 com igual probabilidade A transição de um estado a outro pode se dar somente em pontos de nó que ocorrem a cada T b segundos A probabilidade de uma transição de um estado a outro é 05 O primeiro nó tem igual probabilidade de ocorrência em qualquer instante no intervalo de tempo de 0 a T b Analiticamente podemos representar xt como Figura 99 Dedução da função de autocorrelação e da PSD de um processo binário aleatório em que α é uma VA uniformemente distribuída no intervalo 0 T b e pt é o pulso básico nesse caso Πt T b2T b Reparemos que α é a distância entre a origem e o primeiro nó e varia aleatoriamente de função de amostra para função de amostra Além disso a n é aleatório e assume os valores 1 ou 1 com igual probabilidade As amplitudes em t representam a VA x 1 enquanto as amplitudes em t τ representam x 2 Notemos que x 1 e x 2 são discretas e cada uma assume somente dois valores 1 e 1 Logo Por simetria os dois primeiros termos e os últimos dois termos no lado direito são iguais Portanto Da regra de Bayes temos Além do mais Logo É conveniente que primeiro calculemos R xτ para pequenos valores de τ Consideremos o caso τ T b em que no máximo um nó está no intervalo t a t τ Nesse caso o evento x 2 1 dado x 1 1 é um evento conjunto A B em que o evento A é um nó no intervalo t t τ e o evento B mudança de estado nesse nó Como A e B são eventos independentes A Fig 99b mostra nós adjacentes n 1 e n 2 entre os quais está t Marquemos o intervalo τ a partir do nó n 2 Se t estiver em qualquer ponto nesse intervalo linha serrilhada o nó n 2 está entre t e t τ Contudo por ser escolhido arbitrariamente entre os nós n 1 e n 2 o instante t tem igual probabilidade de ocorrer em qualquer ponto no intervalo de T b segundos entre n 1 e n 2 de modo que a probabilidade de t ocorrer na região sombreada é τT b Portanto e Como R xτ é uma função par de τ temos A seguir consideremos o intervalo τ T b Nesse caso pelo menos um nó está no intervalo entre t e t τ Com isso x 1 e x 2 se tornam independentes e em que por inspeção observamos que x 1 x 2 0 Fig 99a Esse resultado também pode ser obtido observando que para τ T b x 1 e x 2 são independentes e é igualmente possível que x 2 1 ou 1 dado que x 1 1 ou 1 Portanto as quatro probabilidades na Eq 923a são iguais a 14 e Portanto e A função de autocorrelação e a PSD desse processo são mostradas nas Figs 99c e d Observemos que x 2 R x0 1 como esperado O processo binário aleatório descrito no Exemplo 95 às vezes é referido como sinal telegráfico Esse processo também coincide com a sinalização polar da Seção 722 quando o pulso for um pulso NRZ retangular Fig 72 Para estacionariedade no sentido amplo o ponto de partida α do sinal é aleatoriamente distribuído Consideremos agora o caso mais geral do trem de pulsos yt discutido na Seção 72 Fig 74 Conhecida a PSD do trem de pulsos podemos deduzir a PSD de sinais onoff polar bipolar duobinário bifásico e outros formatos digitais importantes Exemplo 96 Trem de Pulsos PAM Aleatório Dados digitais são transmitidos com o uso de um pulso básico pt como mostrado na Fig 910a Pulsos sucessivos são separados por T b segundos e o késimo pulso é a k pt em que a k é uma VA A distância α do primeiro pulso correspondente a k 0 a partir da origem tem igual probabilidade de ser um valor qualquer no intervalo 0 T b Determinemos a função de autocorrelação e a PSD de um desses trens de pulsos aleatórios yt cuja função de amostra é representada na Fig 910b O processo aleatório yt pode ser descrito como Figura 910 Processo PAM aleatório em que α é uma VA uniformemente distribuída no intervalo 0 T b Assim α é diferente para cada função de amostra Reparemos que pα 1T b no intervalo 0 T b e zero em qualquer outro ponto Pode ser mostrado que dt é uma constante Temos a expressão Como a k e a m independem de α k e m são inteiros Fazendo m k n essa expressão pode ser escrita como O primeiro termo do duplo somatório é a correlação das VAs a k e a kn e será denotado por R n O segundo termo por ser uma média com relação à VA α pode ser expresso como uma integral Assim Recordemos que α é uniformemente distribuída no intervalo 0 T b Portanto pα 1T b nesse intervalo 0 T b e zero em qualquer outro ponto Com isso A integral no lado direito é a função de autocorrelação do pulso pt com argumento τ nT b Logo em que e Como visto na Eq 374 se pt Pf então ψ pτ Pf 2 Portanto a PSD de yt que é a transformada de Fourier de R yτ é dada por Esse resultado é semelhante ao encontrado na Eq 711b A única diferença é o uso da média de ensemble na definição de neste capítulo no Capítulo 7 R n é a média temporal Exemplo 97 Determinemos a PSD para um sinal aleatório bipolar em que 1 é transmitido por um pulso pt Fig 911 cuja transformada de Fourier é Pf e 0 é transmitido por pt Os dígitos 1 e 0 têm igual probabilidade de ocorrência e um dígito é transmitido a cada T b segundos Cada dígito independe de todos os outros Figura 911 Pulso básico para um sinal polar binário aleatório Nesse caso a k pode assumir valores 1 e 1 com igual probabilidade de 12 Logo e como cada dígito independe de todos os outros Portanto da Eq 931 Já havíamos calculado esse resultado na Eq 713 na qual usamos a média temporal em vez da média de ensemble Quando um processo é ergódigo de segunda ordem ou de ordem superior as médias de ensemble e temporal fornecem o mesmo resultado Vale notar que o Exemplo 95 é um caso especial desse resultado em que pt é um pulso retangular de largura completa ΠtT b com Pf T b sinc π fT b e Exemplo 98 Determinemos a PSD S yf para sinais aleatórios onoff e bipolares que usam um pulso básico para pt como ilustrado na Fig 911 Os dígitos 1 e 0 têm igual probabilidade de ocorrência e são transmitidos a cada T b segundos Cada dígito independe de todos os outros Todos esses códigos de linha são descritos na Seção 72 Em cada caso primeiro determinemos R 0 R 1 R 2 R n a Sinalização onoff Neste caso a k pode assumir valores 1 e 0 cada um com probabilidade 12 Logo e como cada dígito independe dos dígitos remanescentes Assim da Eq 931 A Eq 932b é obtida da Eq 932a separando o termo 12 que corresponde a 0 em dois 14 fora do somatório e 14 no interior do somatório correspondente a n 0 Esse resultado é idêntico à Eq 718b obtida anteriormente com o uso de médias temporais Agora podemos lançar mão de uma fórmula de soma de Poisson A substituição desse resultado na Eq 932b fornece Reparemos que o espectro S yf consiste em partes discreta e contínua Uma componente discreta da frequência do relógio R b 1T b está presente no espectro A componente contínua do espectro é Pf 24T b e é idêntica a menos do fator multiplicativo 14 ao espectro do sinal polar no Exemplo 97 Esse é um resultado lógico pois como mostra a Fig 73 um sinal onoff pode ser expresso como a soma de uma componente polar com uma componente periódica A componente polar é exatamente a metade do sinal polar discutido anteriormente Portanto a PSD desse componente é um quarto da PSD do sinal polar A componente periódica é a frequência do relógio R b e consiste em componentes discretas de frequências R b e seus harmônicos b Sinalização polar Neste caso a k pode assumir os valores 0 1 e 1 com probabilidades 12 14 e 14 respectivamente Logo Além disso Como a k pode assumir três valores assim como a k 1 a soma no lado direito tem nove termos dos quais apenas quatro que correspondem aos valores 1 para a k e a k 1 são diferentes de zero Assim Devido à regra bipolar Da mesma forma calculamos P a k a k 1 1 1 18 A substituição desses valores em R 1 fornece 94 Para n 2 as intensidades de pulso a k e a k1 se tornam independentes Portanto Substituindo esses valores na Eq 931 e observando que R n é uma função par de n obtemos Esse resultado é idêntico à Eq 721b encontrado anteriormente com o uso de médias temporais PROCESSOS ALEATÓRIOS MÚLTIPLOS Para dois processos aleatórios reais xt e yt definimos a função de correlação cruzada R xyt 1 t 2 como Os dois processos são conjuntamente estacionários no sentido amplo se cada um for individualmente estacionário no sentido amplo e se Processos Descorrelacionados Ortogonais Incoerentes e Independentes Dois processos xt e yt são descorrelacionados se sua função de correlação cruzada for igual ao produto de suas médias ou seja Isso implica que as VAs xt e yt τ são descorrelacionadas para todos t e τ Os processos xt e yt são incoerentes ou ortogonais se Processos incoerentes ou ortogonais são processos descorrelatados com x eou y 0 Os processos xt e yt são processos aleatórios independentes se as variáveis aleatórias xt 1 e yt 2 forem independentes para todas as escolhas possíveis de t 1 e t 2 Densidade Espectral de Potência Cruzada Definimos a densidade espectral de potência cruzada S xyf para dois processos xt e yt como em que X T f e Y T f são as transformadas de Fourier dos processos truncados xtΠtT e ytΠtT respectivamente Seguindo as mesmas linhas da dedução da Eq 916 podemos mostrar que Podemos ver da Eq 933 que para processos reais xt e yt 95 Portanto TRANSMISSÃO DE PROCESSOS ALEATÓRIOS POR MEIO DE SISTEMAS LINEARES Se um processo aleatório xt for aplicado à entrada de um sistema linear invariante no tempo e estável Fig 912 com função de transferência Hf podemos determinar a função de autocorrelação e a PSD do processo de saída yt A seguir mostremos que e Para provar isso observemos que Figura 912 Transmissão de um processo aleatório por meio de um sistema linear invariante no tempo Logo Essa integral dupla é justamente a convolução dupla hτhτR xτ Com isso as Eqs 938 e 939 resultam Exemplo 99 Ruído Térmico O movimento térmico aleatório de elétrons em um resistor R causa uma tensão aleatória nos terminais do mesmo Essa tensão nt é conhecida como ruído térmico Sua PSD S nf é praticamente plana em uma larga banda de frequências até 1000 GHZ em temperatura ambiente e é dada por 1 Figura 913 Representação de ruído térmico em um resistor em que k é a constante de Boltzmann 138 10 23 e T é a temperatura ambiente em graus kelvins Um resistor R a uma temperatura ambiente de T graus kelvins pode ser representado por um resistor R sem ruído em série com uma fonte de tensão de ruído branco aleatório ruído térmico com PSD de 2kTR Fig 913a Observemos que a potência de ruído térmico em uma banda f é 2kTR2f 4kTRf Calculemos a tensão de ruído térmico valor rms no simples circuito RC na Fig 913b O resistor R é substituído por um resistor equivalente sem ruído em série com a fonte de tensão de ruído térmico A função de transferência Hf que relaciona a tensão v o nos terminais ab à tensão de ruído térmico é dada por Seja S 0f a PSD da tensão v o da Eq 939 então temos O valor quadrático médio v 0 2 é dado por Portanto a tensão rms de ruído térmico pelo capacitor é Soma de Processos Aleatórios Se dois processos estacionários pelo mesmo no sentido amplo xt e yt forem somados para formar um processo zt as estatísticas de zt podem ser determinadas em termos das estatísticas de xt e yt Se então Se xt e yt forem descorrelacionados da Eq 934 temos e A maioria dos processos de interesse em problemas de comunicações tem média zero Se os processos xt e yt forem descorrelacionados com x ou y 0 isto é se xt e yt forem incoerentes então e Das Eqs 944a e 919 temos Portanto o valor quadrático médio da soma de processos incoerentes ou ortogonais é igual à soma dos valores quadráticos médios dos processos Exemplo 910 Dois processos aleatórios de tensão x 1t e x 2t são aplicados a um circuito RC como mostrado na Fig 914 Dado que Figura 914 Cálculo de ruído em um circuito resistivo Determinemos a PSD e a potência P y do processo aleatório de saída yt Suponhamos que a contribuição de ruído térmico dos resistores no circuito seja desprezível isto é que os resistores sejam sem ruído Como o circuito é linear a tensão de saída yt pode ser expressa como 96 em que y 1t é a saída para a entrada x 1t admitindo x 2t 0 e y 2t é a saída para a entrada x 2t admitindo x 1t 0 As funções de transferência que relacionam yt a x 1t e x 2t são respectivamente H 1f e H 2f e dadas por Logo e Como os processos de entrada x 1t e x 2t são independentes as saídas y 1t e y 2t geradas por eles também são independentes Além disso as PSDs de y 1t e y 2t não têm impulsos em f 0 implicando que não têm componente dc isto é y 1t y 2t 0 Por conseguinte y 1t e y 2t são incoerentes e A potência P y ou o valor quadrático médio y 2 pode ser calculada de duas maneiras Podemos determinar R yτ calculando as transformadas inversas e S y1 f e S y2 f como De modo alternativo podemos determinar y 2 integrando S yf com relação a f Eq 919 APLICAÇÃO FILTRAGEM ÓTIMA FILTRO DE WIENERHOPF Quando um sinal desejado é misturado com ruído a SNR pode ser melhorada com a aplicação do sinal a um filtro que suprima as componentes de frequência em que o sinal seja fraco e o ruído forte A melhora na SNR pode nesse caso ser explicada de forma qualitativa se considerarmos a questão de ruído branco misturado com um sinal mt cuja PSD cai nas frequências altas Se o filtro atenuar mais as frequências altas o sinal será reduzido na verdade distorcido A componente de distorção m t pode ser considerada tão perniciosa como ruído adicionado Assim a atenuação das frequências altas causará ruído adicional por distorção do sinal mas em compensação reduzirá o ruído do canal que é forte nas frequências altas Como nas frequências altas o sinal tem pouco conteúdo de potência a componente de distorção será pequena em comparação com a redução no ruído do canal de modo que a distorção total pode ser menor que antes Seja H otf o filtro ótimo Fig 915a Esse filtro não sendo ideal causará distorção do sinal O sinal de distorção m t pode ser determinado da Fig 915b A potência do sinal de distorção N D que aparece na saída é dada por em que S mf é a PSD do sinal na entrada do filtro receptor A potência do ruído do canal N ch que aparece na saída do filtro é dada por em que S nf é a PSD de ruído que aparece na entrada do filtro receptor A componente de distorção atua como um ruído Como o sinal e o ruído do canal são incoerentes o ruído total N o na saída do filtro é a soma do ruído do canal N ch com o ruído de distorção N D Usando o fato de que A B 2 A B A B e observando que S mf e S nf são reais podemos reescrever a Eq 945a como Figura 915 Cálculo com filtro de WienerHopf em que S r f S mf S nf O integrando no lado direito da Eq 945b é não negativo Além disso é a soma de dois termos Portanto para minimizar N o devemos minimizar cada termo Como o segundo termo S mf S nf S r f independe de H otf somente o primeiro termo pode ser minimizado Da Eq 945b fica claro que o valor mínimo desse termo é zero e ocorre quando Para essa escolha ótima a potência de ruído de saída N o é dada por O filtro ótimo é conhecido na literatura como filtro de WienerHopf A Eq 946a mostra que H otf 1 nenhuma atenuação quando S mf S nf Contudo quando S mf S nf o filtro tem alta atenuação Em outras palavras o filtro ótimo atenua fortemente a banda em que o ruído é relativamente mais intenso Isso causa alguma distorção do sinal mas ao mesmo tempo atenua mais fortemente o ruído melhorando a SNR total Comentários Sobre o Filtro Ótimo Caso a SNR na entrada do filtro seja razoavelmente alta por exemplo S mf 100S nf SNR de 20 dB o filtro ótimo Eq 946a é praticamente um filtro ideal e N o Eq 946b é dada por Por conseguinte para uma alta SNR de entrada a otimização produz melhora insignificante O filtro de WienerHopf portanto é prático somente quando a SNR de entrada for baixa caso de ruído intenso Outra questão é a possibilidade de realizar o filtro ótimo na Eq 946a Como S mf e S nf são funções pares de f o filtro ótimo H otf é uma função par de f Logo a resposta ao impulso unitário h ott é uma função par de t Exercício 311 Isso torna h ott não causal e o filtro irrealizável Como já mencionado um filtro desse tipo pode ser realizado aproximadamente se pudermos tolerar algum atraso na saída Se um atraso não puder ser tolerado a dedução de H otf deve ser refeita com a condição de que o filtro seja realizável Reparemos que o filtro ótimo realizável jamais pode ser superior ao filtro ótimo irrealizável Eq 946a Assim o filtro na Eq 946a representa um limite superior para o desempenho SNR de saída Uma discussão sobre filtros ótimos realizáveis pode ser encontrada na literatura 1 2 Exemplo 911 Um processo aleatório mt o sinal é misturado com um ruído branco de canal nt Dados determinemos o filtro de WienerHopf para maximizar a SNR Determinemos ainda a potência de ruído de saída N o Da Eq 946a Logo A Fig 916a mostra h ott Fica evidente que esse é um filtro irrealizável Todavia uma versão atrasada Fig 916b desse filtro ou seja h ott t 0 é aproximadamente realizável se escolhermos t 0 3β e eliminarmos a cauda para t 0 Fig 916c 97 Figura 916 Realização aproximada de um filtro irrealizável usando atraso temporal A potência de ruído de saída N o é Eq 946b APLICAÇÃO ANÁLISE DE DESEMPENHO DE SISTEMAS ANALÓGICOS EM BANDA BASE Apliquemos agora o conceito de densidade espectral de potência PSD para analisar o desempenho de sistemas de comunicação em bandabase No caso de sinais analógicos a SNR é básica para a especificação da qualidade de sinal Para sinais de voz uma SNR de 5 a 10 dB no receptor implica um sinal que praticamente não é inteligível Sinais com qualidade telefônica têm SNR de 25 a 35 dB televisão exige SNR de 45 a 55 dB Figura 917 Modelo de sistema de comunicação A Fig 917 mostra um simples sistema de comunicação em que um sinal analógico mt é transmitido com potência S T por meio de um canal que representa o meio de transmissão O sinal é corrompido por ruído aditivo de canal durante a transmissão O canal também atenua e pode distorcer o sinal Na entrada do receptor temos um sinal misturado com ruído As potências de sinal e de ruído na entrada do receptor são S i e N i respectivamente O receptor processa filtra o sinal para produzir a saída s ot n ot A componente de ruído n ot advém do processamento de nt pelo receptor enquanto a componente de sinal s ot advém da mensagem mt As potências de sinal e de ruído na saída são S o e N o respectivamente No caso de sistemas analógicos a qualidade do sinal recebido é determinada pela razão S oN o a SNR de saída Portanto foquemos a atenção nessa figura de mérito tanto para uma potência de transmissão fixa S T como para uma dada S i Em sistemas de bandabase o sinal é transmitido diretamente sem qualquer modulação Esse modo de comunicação é adequado para transmissão por par trancado ou cabo coaxial e é utilizado principalmente para enlaces de curta distância Para um sistema de bandabase o transmissor e o receptor são filtros ideais de bandabase O transmissor ideal passabaixas limita o espectro do sinal de entrada a uma dada largura de banda enquanto o receptor passabaixas elimina o ruído e outras interferências de canal fora da banda Filtros transmissor e receptor mais elaborados podem como será mostrado na próxima seção Admitimos que o sinal em bandabase mt seja um processo estacionário no sentido amplo com média zero e largura de banda limitada a B Hz Consideremos o caso de filtros ideais passabaixas ou passafaixa com largura de banda B no transmissor e no receptor Fig 917 Suponhamos que o canal seja sem distorção A potência ou valor quadrático médio de mt é m 2 dada por Para este caso e em que S nf é a PSD do ruído do canal Para o caso de ruído branco S nf 2 e e Definamos um parâmetro γ como Das Eqs 950d e 951 temos 98 O parâmetro γ é diretamente proporcional a S i e portanto diretamente proporcional a S T Assim uma dada S T implica em um dado γ A Eq 952 é precisamente o resultado que buscamos e fornece a SNR de saída do receptor para uma dada S T ou S i O valor da SNR na Eq 952 muitas vezes funciona como uma referência na medida de SNRs de saída de outros sistemas de modulação APLICAÇÃO SISTEMAS ÓTIMOS DE PRÉÊNFASEDEÊNFASE É possível aumentar a SNR de saída por meio de distorção deliberada do sinal transmitido préênfase e correspondente compensação deênfase no receptor Para um entendimento intuitivo desse processo consideremos o caso de ruído branco de canal e um sinal mt cuja PSD decai com a frequência Nesse caso podemos amplificar as componentes de alta frequência de mt no transmissor préênfase Como o sinal tem relativamente menos potência nas frequências altas essa préênfase requererá apenas um pequeno aumento na potência transmitida No receptor as componentes de alta frequência são atenuadas ou deenfatizadas para desfazer a préênfase no transmissor Isso restaurará o sinal útil à forma original O ruído de canal recebe um tratamento completamente distinto Como o ruído é adicionado após o transmissor não passa pela préênfase Contudo no receptor o ruído de canal passa pela deênfase isto é atenuação das componentes de frequência alta Assim na saída do receptor a potência de sinal é restaurada e a potência de ruído reduzida A SNR de saída portanto é aumentada Nesta seção consideramos um sistema em bandabase A extensão de préênfase e deênfase a sistemas modulados é simples A Fig 918 mostra um sistema em bandabase com filtro de préênfase H pf no transmissor e correspondente filtro de deênfase complementar H df no receptor A função de transferência do canal é H c f e a PSD do sinal de entrada mt S mf Determinemos os filtros ótimos de préênfase e deênfase filtros PDE H pf e H df respectivamente necessários à transmissão sem distorção do sinal mt Para transmissão sem distorção e Figura 918 Filtros de préênfase e deênfase em sistemas de bandabase Desejamos maximizar a SNR de saída S oN o para uma dada potência transmitida S T Com referência à Fig 918 temos Como H pfH c fH df Gexpj2πft d a potência de sinal S o na saída do receptor é A potência de ruído N o na saída do receptor é Logo Desejamos maximizar essa razão sujeita à condição na Eq 954a tendo S T como uma constante conhecida A aplicação dessa limitação de potência torna o projeto de H pf um problema bem colocado pois de outra forma filtros com ganhos maiores sempre serão melhores Podemos incluir essa restrição multiplicando o numerador e o denominador do lado direito da Eq 955 pelos lados esquerdo e direito respectivamente da Eq 954a Isso resulta em O numerador do lado direito da Eq 956 é fixo e inalterado pelos filtros PDE Assim para maximizar S oN o basta que minimizemos o denominador do lado direito da Eq 956 Para isso usamos a desigualdade de CauchySchwarz Apêndice B A igualdade vale se e somente se em que K é uma constante arbitrária Dessa forma para maximizar S oN o a Eq 958 deve ser satisfeita Substituindo a Eq 953a na Eq 958 obtemos A constante K é determinada com a substituição da Eq 959a na restrição de potência na Eq 954a como Substituindo esse valor de K nas Eqs 959a e 959b obtemos A SNR de saída sob condições ótimas é dada pela Eq 956 com o denominador substituído pelo lado direito da Eq 957 Por fim substituindo H pfH df G H c f obtemos As Eqs 960a e 960b fornecem as magnitudes dos filtros ótimos H pf e H df As funções de fase devem ser escolhidas de modo a satisfazerem a condição de transmissão sem distorção Eq 953b Observemos que o filtro de préênfase na Eq 959a amplifica componentes de frequência em que o sinal é fraco e suprime componentes de frequência em que o sinal é forte O filtro de deênfase na Eq 959b faz exatamente o oposto Assim o sinal é inalterado mas o ruído é reduzido Exemplo 912 Consideremos o caso de α 1400π O ruído de canal é branco com PSD Suponhamos que o canal seja ideal H c f 1 e G 1 na banda de interesse 0 4000 Hz Sem préênfase e deênfase teríamos Como G 1 a potência transmitida S T S o e a potência de ruído sem préênfase e deênfase é Portanto Os filtros ótimos de transmissão e de recepção são dados por Eq 960a e 960b 99 A SNR de saída com uso de préênfase e deênfase ótimas é obtida da Eq 960c como Uma comparação entre a Eq 962 e a Eq 964 mostra que o uso de préênfase e deênfase aumentou a SNR de saída por um fator de 132 PROCESSOS ALEATÓRIOS PASSAFAIXA Caso a PSD de um processo aleatório seja confinada a certa banda passante Fig 919 o processo é aleatório passafaixa Processos aleatórios passafaixa podem ser usados na modelagem de sinais de comunicação modulados e ruídos passafaixa Assim como um sinal passafaixa pode ser representado em termos de componentes de quadratura Eq 339 podemos expressar um processo aleatório passafaixa xt em termos de componentes de quadratura da seguinte forma Nessa representação x c t é conhecido como a componente em fase e x st como a componente em quadratura do processo aleatório passafaixa Para provar isso consideremos o sistema na Fig 920a em que H 0f é um filtro passabaixas ideal Fig 920b com resposta ao impulso unitário h 0t Primeiro mostremos que o sistema na Fig 920a é um filtro passabaixas ideal com a função de transferência Hf representada na Fig 920c Podemos mostrar isso de modo conveniente calculando a resposta ht ao impulso unitário δt Como o sistema contém multiplicadores invariantes no tempo devemos testar se o sistema é invariante ou variante no tempo Portanto podemos considerar a resposta do sistema a uma entrada δt α ou seja um impulso em t α Usando Eq 210b ft δt α fα δt α podemos expressar os sinais em vários pontos Figura 919 PSD de um processo aleatório passafaixa Portanto a resposta do sistema à entrada δt α é 2h 0t α cosω c t α Obviamente isso significa que o sistema em questão é linear e invariante no tempo com resposta ao impulso e função de transferência A função de transferência Hf Fig 920c representa um filtro passafaixa ideal Se aplicarmos o processo passafaixa xt Fig 919 à entrada desse sistema a saída yt em d será igual a xt Assim a PSD de saída será igual à de entrada Figura 920 a Circuito equivalente de um filtro passafaixa ideal b Resposta de frequência de um filtro passabaixas ideal c Resposta de frequência de um filtro passafaixa ideal Se os processos nos pontos b 1 e b 2 saídas dos filtros passabaixas forem denotados por x c t e x st respectivamente a saída xt poderá ser escrita como em que x c t e x st são processos aleatórios passabaixas limitados em banda a B Hz pois são as saídas de filtros passabaixas de largura de banda B Como a Eq 966 é válida para qualquer valor de θ substituindo θ 0 obtemos a desejada representação na Eq 965 Para caracterizar x c t e x st consideremos mais uma vez a Fig 920a com entrada xt Seja θ uma VA uniformemente distribuída no intervalo 0 2π ou seja para uma função de amostra θ tem igual probabilidade de assumir qualquer valor no intervalo 0 2π Nesse caso xt é representado como na Eq 966 Observemos que x c t é obtido multiplicando xt por 2 cos ω c t θ e aplicando o resultado a um filtro passabaixas A PSD de 2xt cos ω c t θ é Eq 922b Esta PSD é S xf deslocada para a esquerda e para a direita por f c como mostrado na Fig 921a Quando aplicada a um filtro passabaixas a resultante PSD de x c t é como mostrado na Fig 921b Fica claro que Podemos obter f da mesma forma No que diz respeito à PSD não faz diferença se multiplicarmos por cos ω c t θ ou por sen ω c t θ ver nota de rodapé após a Eq 922a de modo que obtemos Das Figs 919 e 921b fazemos a interessante observação de que áreas sob as PSDs S xf S xc f e S xs fsão iguais Portanto Assim os valores quadráticos médios ou potências de x c t e x st são idênticos ao de xt Figura 921 Dedução das PSDs das componentes em quadratura de um processo aleatório passafaixa Esses resultados foram deduzidos admitindo que Θ seja uma VA Para a representação na Eq 965 Θ 0 de modo que as Eqs 967b e 967c podem não ser válidas Por sorte essas equações permanecem válidas mesmo para o caso Θ 0 A prova é um tanto longa e trabalhosa e não será dada aqui 1 3 Também pode ser mostrado 1 3 que Ou seja as amplitudes x c e x s em qualquer dado instante são descorrelacionadas Além disso caso S xf seja simétrica com relação a ω c e também com relação a ω c então Exemplo 913 A PSD de um ruído branco passafaixa nt é 2 Fig 922a Representemos esse processo em termos de componentes em quadratura Deduzamos f e f e comprovemos que n c 2 n s 2 n 2 Figura 922 a PSD de um processo de ruído branco passafaixa b PSD de suas componentes em quadratura Temos a expressão em que Dessa última equação e da Fig 922 segue que E ainda Da Fig 922b temos Logo Não Unicidade da Representação em Quadratura Não existe uma única frequência central para um sinal passafaixa Para o espectro na Fig 923a por exemplo podemos considerar que o espectro tenha largura de banda 2B centrada em ω c Podemos igualmente considerar que esse mesmo espectro tenha largura de banda 2B centrada em ω 1 como mostrado na Fig 923a A representação por componentes em quadratura Eq 965 também é possível para a frequência central ω 1 em que Isso é mostrado na Fig 923b Assim a representação de um processo passafaixa por componentes em quadratura não é única Existe um número infinito de escolhas possíveis para a frequência central e a cada frequência central corresponde uma diferente representação por componentes em quadratura Figura 923 Natureza não única da representação de um processo passafaixa por componentes em quadratura Exemplo 914 A PSD de ruído branco passafaixa de um canal SSB banda lateral inferior é mostrada na Fig 924a Representemos esse sinal em termos de componentes em quadratura com a frequência central ω c A verdadeira frequência central desta PSD não é ω c todavia ainda podemos usar ω c como frequência central como discutido anteriormente Figura 924 Possível forma de representação de ruído em SSB por componentes em quadratura A PSD S nc f ou S ns f obtida com o deslocamento de S nf para a esquerda e para a direita por f c ver Eq 973 é mostrada na Fig 924b Da Fig 924a temos Do mesmo modo da Fig 924b temos Logo Processo Aleatório Gaussiano Branco PassaFaixa Até aqui evitamos a definição de um processo aleatório gaussiano O processo aleatório gaussiano talvez seja o processo aleatório mais importante na área de comunicação Contudo uma discussão cuidadosa e sem pressa está além do escopo deste livro Tudo o que precisamos saber é que uma VA xt formada por amplitudes de função de amostra no instante t de um processo gaussiano é gaussiana com PSD da forma da Eq 839 Um processo gaussiano com PSD uniforme é denominado processo aleatório gaussiano branco O termo processo gaussiano branco passafaixa é na verdade errôneo Todavia é uma noção popular para representar um processo aleatório nt com PSD uniforme N2 centrada em ω c e com largura de banda 2B Fig 922a Utilizando a representação por componentes em quadratura nt pode ser expresso como em que da Eq 971 temos E da Eq 972c O sinal passafaixa também pode ser expresso na forma polar Eq 340 em que o envelope aleatório e a fase aleatória são definidos por As VAs n c t e n st são VAs gaussianas descorrelacionadas Eq 968 com médias zero e variância 2NB Eq 978 Logo suas PSDs são idênticas em que Foi mostrado no Exercício 8210 que se duas VAs gaussianas forem descorrelacionadas também são independentes Nesse caso como mostrado no Exemplo 817 Et tem uma densidade de Rayleigh e Θ na Eq 979a é uniformemente distribuída em 0 2π Ruído em Sinal Senoidal Outro caso de interesse é o de uma senoide somada a um ruído gaussiano de banda estreita Se a senoide A cos ω c t φ for misturada com nt um ruído gaussiano passafaixa centrado em ω c a soma yt é dada por Usando a Eq 966 para representar o ruído passafaixa temos em que Et é o envelope Et 0 e Θt é o ângulo mostrado na Fig 925 Figura 925 Representação fasorial de uma senoide e de um ruído gaussiano de banda estreita n c t e n st são ambos gaussianos com variância σ 2 Para ruído gaussiano branco σ 2 2NB Eq 980b Raciocinando de forma análoga à usada na dedução da Eq 857 e observando que em que σ 2 é a variância de n c ou n s e para o ruído branco é igual a 2NB Da Eq 984 temos O termo entre colchetes no lado direito da Eq 985 define I 0AEσ 2 em que I 0 é a função de Bessel modificada de ordem zero de primeira espécie Assim Esta é conhecida como densidade de Rice ou densidade riceana Para um sinal senoidal intenso A σ pode ser mostrado que 4 1 2 3 4 Como A σ E A e p EE na Eq 986b é aproximadamente uma densidade gaussiana com média A e variância σ A Fig 926 mostra a PDF da VA normalizada Eσ Notemos que para Aσ 0 obtemos a densidade de Rayleigh Figura 926 PDF riceana Da PDF conjunta p EΘ E θ também podemos obter p Θ θ a PDF da fase Θ integrando a PDF conjunta com relação a E Embora a integração seja simples há numerosos passos e por esse motivo não será repetida aqui O resultado final é REFERÊNCIAS B P Lathi An Introduction to Random Signals and Communication Theory International Textbook Co Scranton PA 1968 J M Wozencraft and I M Jacobs Principles of Communication Engineering Wiley New York 1965 A Papoulis Probability Random Variables and Stochastic Processes 2nd ed McGrawHill New York 1984 S O Rice Mathematical Analysis of Random Noise Bell Syst Tech J vol 23 pp 282332 July 1944 vol 24 pp 46 156 Jan 1945 EXERCÍCIOS a b 912 a b 914 915 916 917 a b c d e f 918 921 Esboce gráficos para o ensemble do processo aleatório em que ω c e Θ são constantes e a é uma VA uniformemente distribuída no intervalo A A Apenas por observação do ensemble determine se esse é um processo estacionário ou não estacionário Justifique sua resposta Refaça a parte a do Exercício 911 para o caso em que a e Θ são constantes e ω c é uma VA uniformemente distribuída no intervalo 0 100 Esboce gráficos para o ensemble do processo aleatório em que b é uma constante e a é uma VA uniformemente distribuída no intervalo 2 2 Apenas por observação do ensemble determine se esse é um processo estacionário ou não estacionário Determine e para o processo aleatório no Exercício 911 e determine se esse processo é estacionário no sentido amplo Refaça o Exercício 914 para o processo xt no Exercício 912 Refaça o Exercício 914 para o processo xt no Exercício 913 Dado um processo aleatório xt kt em que k é uma VA uniformemente distribuída no intervalo 1 1 Esboce gráficos para o ensemble desse processo Calcule Calcule R x t 1 t 2 O processo é estacionário no sentido amplo O processo é ergódigo Caso o processo seja estacionário no sentido amplo qual é sua potência P s ou seja o valor quadrático médio Refaça o Exercício 917 para o processo aleatório em que ω c é uma constante a e Θ são VAs independentes uniformemente distribuídas nos intervalos 1 1 e 0 2π respectivamente Determine se cada uma funções dadas a seguir pode ser uma PSD válida de um processo aleatório real 922 923 924 925 926 927 928 929 Mostre que para um processo aleatório estacionário no sentido amplo xt Mostre que se a PSD de um processo aleatório xt for limitado em banda e se então o processo de mínima largura de banda xt que pode exibir essa função de autocorrelação é um processo branco limitado em banda ou seja S x f k Π f2W Sugestão Use o teorema da amostragem para reconstruir R x τ Para o processo binário aleatório no Exemplo 95 Fig 99a determine R x τ e S x f caso a probabilidade de transição de 1 a 1 ou viceversa em cada nó seja p em vez de 05 Um processo branco estacionário no sentido amplo mt limitado em banda a B Hz é amostrado à taxa de Nyquist Cada amostra é transmitida por um pulso básico pt multiplicado pelo valor da amostra Esse é um sinal PAM Mostre que a PSD do sinal PAM é 2BR m0Pf 2 Sugestão Use a Eq 931 Mostre que as amostras de Nyquist a k e a kn n 1 são descorrelacionadas Um código de linha duobinário proposto por Lender é um esquema terciário similar ao bipolar que requer somente a metade da largura de banda deste Nesse código 0 é transmitido por ausência de pulso e 1 é transmitido pelo pulso pt ou pt segundo a regra um 1 é codificado pelo mesmo pulso usado para codificar o 1 anterior caso esses dois 1s sejam separados por um número par de 0s um 1 é codificado pelo negativo do pulso usado para codificar o 1 anterior caso esses dois 1s sejam separados por um número ímpar de 0s Dígitos binários aleatórios são transmitidos a cada T b segundos Admitindo P0 P1 05 mostre que Determine S y f caso pt o pulso básico usado seja um pulso retangular de meia largura Π2tT b Determine S y f para a sinalização polar caso P1 Q e P0 1 Q Um ruído impulsional xt pode ser modelado por uma sequência de impulsos unitários localizados em instantes aleatórios Fig E928 Há uma média de α impulsos por segundo e a localização de um impulso independe da localização de qualquer outro impulso Mostre que R x τ α δ τ α 2 Figura E928 Refaça o Exercício 928 para o caso em que os impulsos tenham igual probabilidade de serem positivos ou negativos 9210 931 932 933 934 a b Uma função de amostra de um processo aleatório xt é representada na Fig E9210 O sinal xt sofre alterações bruscas de amplitude em instantes aleatórios Há uma média de β mudanças de amplitude ou chaveamentos por segundo A probabilidade de que não haja chaveamento de amplitude em τ segundos é dada por P 0 τ e βτ Após um chaveamento a amplitude independe da amplitude anterior As amplitudes são aleatoriamente distribuídas com uma PDF p x x Mostre que Esse processo representa um modelo para ruído térmico 1 Figura E9210 Mostre que para processos aleatórios reais conjuntamente estacionários no sentido amplo xt e yt Sugestão Para qualquer número real Se xt e yt forem dois processos aleatórios independentes e dois novos processos ut e vt forem formados da seguinte maneira Determine R u τ R v τ R uv τ e R vu τ em termos de R x τ e R y τ Dois processos aleatórios xt e yt são em que n inteiro 0 e A B ψ e ω 0 são constantes e φ é uma VA uniformemente distribuída no intervalo 0 2π Mostre que os dois processos são incoerentes Um sinal de amostra é um processo aleatório periódico xt representado na Fig E934 O atraso inicial b em que o primeiro pulso tem início é uma VA uniformemente distribuída no intervalo 0 T b Mostre que o sinal de amostra pode ser escrito como determinando primeiro sua série de Fourier trigonométrica quando b 0 Mostre que 941 a b 942 943 a b Figura E934 Um simples circuito RC tem dois resistores R 1 e R 2 em paralelo Fig E941a Calcule o valor rms da tensão de ruído térmico v o nos terminais do capacitor de duas maneiras Considere os resistores R 1 e R 2 como resistores separados com respectivas tensões de ruído térmico com PSD 2kTR 1 e 2kTR 2 Fig E941b Note que as duas fontes são independentes Considere a combinação de R 1 e R 2 em paralelo como um único resistor de valor R 1 R 2 R 1 R 2 com sua fonte de tensão de ruído térmico de PSD 2kTR 1 R 2 R 1 R 2 Fig E941c Comente Figura E941 Mostre que R xy τ a função de correlação cruzada dos processos de entrada xt e de saída yt na Fig 912 é A seguir mostre que para o ruído térmico nt e a saída v o t na Fig 913 Exemplo 99 Um ruído de disparo ou ruído balístico é similar ao ruído impulsional descrito no Exercício 928 exceto que em vez de impulsos aleatórios temos pulsos de largura finita Se substituirmos cada impulso na Fig E928 por um pulso ht cuja largura seja grande em comparação com 1α de modo que haja considerável sobreposição de pulso obtemos ruído de disparo O resultado da sobreposição de pulsos é que o sinal tem a aparência de um sinal aleatório contínuo como mostrado na Fig E943 Calcule a função de autocorrelação e a PSD desse processo aleatório Sugestão Ruído de disparo resulta da passagem de ruído impulsional por um filtro adequado Primeiro calcule a PSD do ruído de disparo e depois obtenha a função de autocorrelação da PSD As respostas serão em termos de α ht ou Hf O ruído de disparo em transistores pode ser modelado por em que q é a carga em um elétron e T o tempo de trânsito do elétron Determine a função de autocorrelação e a PSD do transistor e esboce seus gráficos 961 a b c d 962 971 a b c 972 973 981 Figura E943 Um processo de sinal mt é misturado a um ruído de canal nt As respectivas PSD são Determine o filtro ótimo de WienerHopf Esboce o gráfico da resposta ao impulso unitário Estime o valor do atraso necessário para que o filtro seja aproximadamente realizável causal Calcule a potência de ruído na entrada e na saída do filtro Refaça o Exercício 961 se Um sinal de mensagem mt com é usado no esquema DSBSC para modular uma portadora de 100 kHz Admita um canal ideal com H cf 10 3 e PSD de ruído de canal S n f 2 10 9 A potência transmitida deve ser 1 kW e G 10 2 Determine as funções de transferência de filtros ótimos de préênfase e deênfase Determine a potência do sinal de saída a potência de ruído e a SNR de saída Determine γ na saída do demodulador Refaça o Exercício 971 para o caso SSB USB Foi mostrado no texto que para um sinal em bandabase mt limitado em banda com PSD uniforme PM e FM têm desempenhos idênticos no que diz respeito à SNR Para mt desse tipo mostre que em modulação em ângulo os filtros PDE ótimos podem melhorar a SNR de saída por um fator de apenas 43 ou 13 dB Determine as funções de transferência dos filtros PDE ótimos Um processo branco de PSD N2 é transmitido por um filtro passafaixa Hf Fig E981 Represente a saída do filtro nt em termos de componentes em quadratura e determine e n 2 quando a frequência central usada nessa representação for 100 kHz isto é f c 100 10 3 Figura E981 982 983 Refaça o Exercício 981 quando a frequência central f c usada na representação não for a verdadeira frequência central Considere três casos a f c 105 kHz b f c 95 kHz c f c 120 kHz Um processo aleatório xt com a PSD mostrada na Fig E983a é aplicado a um filtro passafaixa Fig E983b Determine a PSD e os valores quadráticos médios das componentes em quadratura do processo de saída Admita que a frequência central na representação seja 05 MHz Figura E983 Na verdade para ser qualificada como processo aleatório x poderia ser função de uma variável prática qualquer como a distância Um processo aleatório também pode ser função de mais de uma variável Para um processo aleatório complexo xt a função de autocorrelação é definida como Aqui uma função de amostra x t ζ i é representada por xt por conveniência Como veremos em breve para que a PSD exista o processo deve ser estacionário pelo menos no sentido amplo Processos estacionários são sinais de potência pois suas estatísticas não variam com o tempo A operação de média de ensemble também é uma operação de integração Assim a permuta de integração e média de ensemble é equivalente à troca da ordem de integração Pode ser mostrado que a Eq 915 também vale para processos aleatórios complexos para os quais definimos R xτ x txt τ Obteríamos o mesmo resultado com φt mt sen ω ct Θ Se α 0 o processo pode ser representado como Nesse caso não é constante mas periódico com período T b Do mesmo modo podemos mostrar que a função de autocorrelação é periódica com o mesmo período T b Esse é um exemplo de um processo cicloestacionário ou periodicamente estacionário um processo cujas estatísticas são invariantes sob uma translação da origem do tempo por múltiplos inteiros de uma constante T b Processos cicloestacionários como visto aqui claramente não são estacionários no sentido amplo Todavia podem ser feitos estacionários no sentido amplo com uma pequena modificação a adição da VA α à expressão de yt como nesse exemplo Usando exatamente a mesma abordagem empregada na dedução da Eq 928 podemos mostrar que O trem de impulsos na Fig 323a é e pode ser expresso como E ainda Logo a transformada de Fourier desse trem de impulsos é Contudo calculamos uma forma alternativa para a transformada de Fourier desse trem na Eq 311 Assim Para processos complexos a função de correlação cruzada é definida como A Eq 937a também é válida para processos complexos Neste desenvolvimento intercambiamos as operações de cálculo da média e integração Como o cálculo da média é no fundo uma operação de integração o que fazemos é trocar a ordem das integrações assumindo que tal mudança seja permitida Na verdade a potência transmitida é mantida constante com uma pequena atenuação do sinal préenfatizado E 101 m comunicação analógica o objetivo do usuário consiste em alcançar alta fidelidade na reprodução da forma de onda Assim o critério apropriado de avaliação de desempenho é a relação sinalruído de saída A escolha desse critério indica que a razão sinalruído reflete a qualidade da mensagem e está relacionada à capacidade de um ouvinte interpretar uma mensagem Em sistemas de comunicação digital a entrada do transmissor é escolhida de um conjunto finito de símbolos possíveis O objetivo no receptor não é a reprodução fiel da forma de onda que transporta o símbolo o receptor visa à identificação precisa dentre o conjunto de símbolos possíveis do símbolo específico que foi transmitido Como no transmissor cada símbolo é representado por uma dada forma de onda o objetivo é a partir do sinal ruidoso recebido decidir que particular forma de onda foi transmitida originalmente Assim para um sistema de comunicação digital a apropriada figura de mérito é a probabilidade de erro nessa decisão no receptor Em especial a probabilidade de erro de bit também conhecida como taxa de erro de bit BER bit error rate é uma medida direta da qualidade do sistema de comunicação A BER não é apenas importante para fontes de sinais digitais mas também é diretamente relacionada à qualidade de reprodução de sinais para fontes de sinais analógicos Neste capítulo apresentamos dois importantes aspectos na análise de desempenho de sistemas de comunicação digital O primeiro foca a análise de erro de vários receptores de decisão binária Aqui o objetivo é que estudantes aprendam como aplicar as ferramentas básicas da teoria de probabilidade e de processos aleatórios para a análise de desempenho da BER Nosso segundo foco é a ilustração detalhada da dedução de receptores de detecção ótima para sistemas de comunicação digital genéricos de modo que a BER no receptor possa ser minimizada DETECTOR LINEAR ÓTIMO PARA SINALIZAÇÃO POLAR BINÁRIA Em sistemas de comunicação digital a informação é transmitida como 0 ou 1 a cada intervalo de tempo T o Consideremos inicialmente o sistema de sinalização polar da Fig 101a em que os bits 1 e 0 do sinalfonte são representados por pt respectivamente Após passagem por um canal sem distorção mas ruidoso a forma de onda do sinal recebido é em que nt é um ruído de canal gaussiano 1011 Figura 101 Sinalização polar típica e receptor linear Limiar de Detecção Binária Dada a forma de onda recebida da Eq 101 o receptor binário deve decidir se a transmissão original representava um 1 ou um 0 Assim o sinal recebido yt deve ser processado para produzir uma variável de decisão para cada símbolo O receptor linear para sinalização binária como ilustrado na Fig 101a tem uma arquitetura genérica que pode ser ótima a ser mostrada posteriormente na Seção 106 Dado o filtro receptor Hf ou ht seu sinal de saída para 0 t T o é simplesmente A variável de decisão para esse receptor binário linear é a amostra da saída do filtro receptor em t t m Com base nas propriedades de variáveis gaussianas discutidas na Seção 86 é gaussiana com média zero desde que nt seja um ruído gaussiano de média zero Se definirmos esse problema de decisão binária se torna exatamente igual ao problema de decisão de limiar do Exemplo 816 Mostramos no Exemplo 816 que se os dados binários tiverem igual probabilidade de serem 0 ou 1 a decisão de limiar ótima é enquanto a probabilidade de erro de bit é com 1012 Para minimizar P e devemos maximizar ρ pois Qρ decai monotonamente com ρ Filtro Receptor Ótimo Filtro Casado Consideremos que o pulso recebido pt seja limitado no tempo a T o Fig 101 Aqui manteremos a discussão tão geral quanto possível Para minimizar a BER ou P e devemos determinar o melhor filtro receptor Hf e o correspondente instante de amostragem t m de modo que Qρ seja minimizado Em outras palavras devemos buscar um filtro com uma função Hf de transferência que maximize que coincidentemente também é a relação sinalruído no instante de tempo t t m Primeiro denotemos a transformada de Fourier de pt por Pf e a PSD do ruído de canal nt por S nf Determinemos então o filtro receptor ótimo no domínio da frequência Iniciando com temos o valor da amostra em t t m O ruído filtrado tem média zero e sua variância é dada por Portanto no domínio da frequência a relação sinalruído é dada por A desigualdade de CauchySchwarz Apêndice B é uma ferramenta muito poderosa para a determinação do filtro ótimo Hf Definindo podemos aplicar a desigualdade de CauchySchwarz ao numerador da Eq 109 obtendo A igualdade ocorre se e somente se Xf kYf ou Com isso a SNR é maximizada se e somente se em que k é uma constante arbitrária Esse filtro receptor ótimo é conhecido como filtro casado Esse resultado ótimo afirma que o melhor filtro no receptor linear binário depende de vários fatores importantes 1 a PSD de ruído S nf 2 o instante de amostragem t m e 3 a forma do pulso Pf O resultado independe do ganho k no receptor pois o mesmo ganho será aplicado ao sinal e ao ruído sem afetar a SNR Para ruído de canal branco S nf N2 e a Eq 1010a passa a Figura 102 Escolha ótima do instante de amostragem em que E p é a energia de pt o filtro casado é simplesmente em que k 2kN é uma constante arbitrária A resposta ao impulso unitário ht do filtro ótimo é obtida da transformada de Fourier inversa Notemos que e representa o atraso temporal de t m segundos Assim A resposta pt m t é o pulso de sinal pt atrasado por t m Três casos t m T o t m T o e t m T o são mostrados na Fig 102 O primeiro caso t m T o produz uma resposta impulsional não causal que é irrealizável Embora os outros dois casos produzam filtros fisicamente realizáveis o último t m T o atrasa o instante de tomada de decisão t m desnecessariamente O caso t m T o produz o mínimo atraso para a tomada de decisão com um filtro realizável Em nossa discussão admitiremos t m T o a menos que especifiquemos de outra forma Observemos que pt e ht têm largura de T o segundos Portanto p ot que é uma convolução de pt e ht tem largura de 2T o segundos e pico que ocorre em t T o em que a amostra de decisão é colhida Como é simétrica em relação a t T o Como o ganho k não afeta a SNR ρ escolhemos k 1 Isso resulta no seguinte filtro casado sob ruído branco ou para o qual a relação sinalruído é máxima no instante de tomada de decisão t T o O filtro casado é ótimo no sentido de maximizar a relação sinalruído no instante de tomada de decisão Embora seja razoável supor que a maximização dessa particular relação sinalruído minimizará a probabilidade de erro de detecção não provamos que a estrutura original do receptor linear com detecção de limiar amostrar e decidir é a estrutura ótima Mais adiante Seção 106 mostraremos a otimalidade do receptor de filtro casado sob ruído gaussiano branco Dado o filtro casado sob ruído gaussiano branco o receptor de filtro casado leva a ρ máx da Eq 1011a assim como à mínima BER Figura 103 Detector de correlação A Eq 1013 é notável Essa equação mostra que no que diz respeito ao desempenho do sistema quando é usado o receptor de filtro casado várias formas de onda utilizadas para pt são equivalentes desde que tenham a mesma energia O filtro casado também pode ser implementado pelo arranjo alternativo mostrado na Fig 103 Se a entrada do filtro casado for yt a saída rt será dada por em que ht p T o t e Logo 102 1021 No instante de tomada de decisão t T o temos Como admitimos que a entrada yx tem início em x 0 e px 0 para x T o temos a variável de decisão Podemos implementar as Eq 1016 como mostrado na Fig 103 Esse tipo de arranjo conhecido como receptor de correlação é equivalente ao receptor de filtro casado O lado direito da Eq 1016c é a correlação cruzada do pulso recebido com pt Recordemos que a correlação basicamente mede a similaridade entre sinais Seção 27 Assim o detector ótimo mede a similaridade entre o sinal recebido e o pulso pt Como base nesta medida de similaridade o sinal da correlação decide se pt ou pt foi transmitido Até aqui discutimos a sinalização polar que usa pulsos básicos pt de sinais opostos Em geral em comunicação binária usamos dois pulsos distintos pt e qt para representar os dois símbolos O receptor ótimo para esse caso será discutido a seguir SINALIZAÇÃO BINÁRIA GENÉRICA Análise de Receptor Linear Ótimo No esquema binário em que símbolos são transmitidos a cada T b segundos o esquema de transmissão mais geral pode usar dois pulsos pt e qt para transmitir 1 e 0 A estrutura do receptor linear ótimo em consideração é mostrada na Fig 104a O sinal recebido é O sinal que chega yt é transmitido por um filtro Hf e a saída rt é amostrada em T b A decisão se 0 ou 1 estava presente na entrada depende se rT b é ou não menor do que a o em que a o é o limiar ótimo Sejam p ot e q ot as respostas de Hf às entradas pt e qt respectivamente Da Eq 107 temos e σ n 2 a variância ou potência do ruído na saída do filtro é Sem perda de generalidade consideremos P oT b P oT b Denotemos o ruído de saída em T b por n Assim a saída do amostrador será rT b q oT b n ou p oT b n dependendo se m 0 ou m 1 for recebido Portanto r é uma VA gaussiana de variância com média q oT b ou p oT b dependendo se m 0 ou 1 Logo as PDFs condicionais da saída amostrada rT b são Figura 104 Detecção de limiar binária ótima Limiar Ótimo As duas PDFs são ilustradas na Fig 104b Se a o for o limiar ótimo para detecção a regra de decisão será A probabilidade de erro condicional Pm 0 é a probabilidade de tomar decisão errada quando m 0 Isso é simplesmente a área A 0 sob p rmr0 de a o a Do mesmo modo Pm 1 é a área A 1 sob p rmr1 de a a o Fig 104b e admitindo P m0 P m1 05 Da Fig 104b podemos ver que a soma A 0 A 1 das áreas sombreadas é minimizada com a escolha de a o na interseção das duas PDFs Esse limiar ótimo também pode ser determinado diretamente forçando na Eq 1018 que derivada de P e em relação a a o seja zero de modo que e o valor correspondente de P e é em que definimos Substituindo a Eq 10 17 na Eq 1020 obtemos Essa equação tem a mesma forma das Eq 109 com Pf substituído por Pf Qf Portanto a desigualdade de Cauchy Schwarz pode ser aplicada novamente para mostrar e o filtro ótimo H f é dado por em que k é uma constante arbitrária Caso Especial de Ruído Gaussiano Branco Para ruído branco S nf N2 de modo que o filtro ótimo é dado por Esse é um filtro casado ao pulso pt qt O correspondente β é Eq 1021a em que E p e E q são as energias de pt e qt respectivamente e Até aqui usamos a notação P e para denotar a probabilidade de erro No caso binário essa probabilidade de erro é a probabilidade de erro de bit ou taxa de erro de bit BER e a denotaremos por P b em vez de P e Assim das Eqs 1019c e 1023c O limiar ótimo a o é obtido com a substituição das Eqs 1017a b e 1022a na Eq 1019a e o cálculo de via substituição de variável Isso resulta em Na dedução do receptor binário ótimo admitimos certa estrutura de receptor o receptor de detecção por limiar na Fig 104 Ainda não está claro se existe outra estrutura que possa ter desempenho melhor que o da estrutura na Fig 104 Mostraremos mais adiante Seção 106 que para ruído gaussiano o receptor deduzido aqui é de fato o ótimo A Eq 1025b fornece P b para o receptor ótimo quando o ruído do canal é gaussiano branco Para o caso de ruído não branco P b é obtida com a substituição de β máx da Eq 1021a na Eq 1025a Receptores Binários Ótimos Equivalentes 1022 Para o receptor ótimo na Fig 104a Esse filtro pode ser realizado como uma combinação paralela de dois filtros casados a pt e qt respectivamente como mostrado na Fig 105a Outra forma equivalente é mostrada na Fig 105b Como o limiar é E p E q2 subtraímos E p2 e E q2 respectivamente das saídas dos dois filtros casados Isso equivale a deslocar o limiar para 0 No caso E p E q não é preciso subtrair E p2 e E q2 das duas saídas e o receptor fica simplificado ao mostrado na Fig 105c Análise de Desempenho de Sistemas Binários Genéricos Nesta seção aplicando as técnicas desenvolvidas na seção anterior para receptores binários genéricos analisaremos o desempenho de vários sistemas de comunicação digital binária Sinalização Polar Para o caso de sinalização polar qt pt Logo A substituição desses resultados na Eq 1025b fornece E da Eq 1022b Recordemos que a multiplicação de ht por qualquer constante amplifica o sinal e o ruído pelo mesmo fator de modo que não afeta o desempenho Por conveniência multipliquemos ht por 05 para obter Da Eq 1027 o limiar a o é Figura 105 Realização do detector de limiar binário ótimo Portanto para o caso polar o receptor na Fig 105a fica reduzido ao mostrado na Fig 106a com limiar 0 Esse filtro é equivalente ao da Fig 103 A probabilidade de erro pode ser expressa em termos de um parâmetro mais básico E b a energia por bit No caso polar E p E q e a energia do bit E b é e da Eq 1029 O parâmetro E bN é a energia por bit normalizada veremos que em comunicações digitais esse é um parâmetro fundamental e funciona como uma figura de mérito Como a potência de sinal é igual a E b vezes a taxa de bits uma dada E b equivale a uma dada potência para uma dada taxa de bit Logo a comparação entre sistemas para um dado valor de E b equivale à comparação para uma dada potência de sinal Figura 106 a Limiar de decisão ótimo e b sua probabilidade de erro para sinalização polar A Fig 106b mostra o gráfico de P b em função de E bN em decibéis A Eq 1033 indica que para detecção de limiar ótima o desempenho do sistema polar não depende da forma de onda do pulso mas da energia do pulso Sinalização OnOff No caso da sinalização onoff qt 0 e o receptor da Fig 105a pode remover o filtro do ramo inferior de qT b t Com base na Eq 1027 o limiar ótimo para o receptor de sinalização onoff é A substituição de qt 0 nas Eq 1024 e 1025 leva a Se os dois símbolos m 0 e m 1 tiverem igual probabilidade de ocorrência 05 a energia média do bit é dada por Portanto a BER pode ser escrita como 103 Uma comparação entre as Eqs 1035 e 1033 mostra que a sinalização onoff requer exatamente duas vezes mais potência por bit mais 3 dB de potência para alcançar o mesmo desempenho isto é a mesma P e do que a sinalização polar Figura 107 Exemplos de sinais ortogonais Sinalização Ortogonal Na sinalização ortogonal pt e qt são selecionados para serem ortogonais no intervalo 0 T b Isso fornece A sinalização onoff na verdade é um caso especial da sinalização ortogonal Dois exemplos adicionais de pulsos ortogonais binários são mostrados na Fig 107 Da Eq 1025 Supondo que 1 e 0 são equiprováveis Isso mostra que o desempenho de qualquer sinalização binária ortogonal é 3 dB inferior ao da sinalização polar Isso naturalmente inclui a sinalização onoff RECEPTORES COERENTES PARA MODULAÇÕES DIGITAIS COM PORTADORA As modulações por chaveamento por deslocamento de amplitude ASK chaveamento por deslocamento de frequência FSK e chaveamento por deslocamento de fase PSK foram introduzidas na Seção 79 A Fig 108 usa um pulso em bandabase retangular para ilustrar os três esquemas binários O pulso em bandabase pode ser formatado especialmente por exemplo um cosseno levantado para eliminar interferência intersimbólica e permanecer em uma largura de banda finita BPSK Em particular a modulação PSK binária BPSK transmite símbolos binários via Figura 108 Formas de onda moduladas digitais Aqui pt denota a forma do pulso em bandabase Quando a forma de sinalização é exatamente a mesma da sinalização polar em bandabase Assim o receptor binário ótimo também toma a forma da Fig 105a Em consequência para dados binários equiprováveis o limiar ótimo é a o 0 e a mínima probabilidade de erro de detecção em que a energia do pulso é simplesmente Esse resultado requer uma frequência portadora suficientemente alta de modo que f c T b 1 ASK Binária Do mesmo modo para modulação ASK binária a transmissão é Isso coincide com a sinalização onoff analisada anteriormente de modo que o limiar ótimo deve ser a 0 E p2 e a mínima BER para ASK binária é em que Uma comparação da Eq 1039 com a Eq 1040 mostra que para o mesmo desempenho a energia do pulso em ASK deve ser o dobro da energia em PSK Portanto ASK requer 3 dB a mais de potência do que PSK Assim na detecção coerente ótima PSK sempre é preferível a ASK Por essa razão ASK não tem importância prática em detecção ótima Todavia AKS pode ser útil em sistemas não coerentes por exemplo comunicações ópticas A detecção de envelope por exemplo pode ser aplicada a ASK Em PSK a informação reside na fase e portanto não pode ser detectada de modo não coerente Os pulsos em bandabase pt usado em sistemas com portadora devem ser formatados para minimizar a ISI A largura de banda dos sinais PSK ou ASK é o dobro da largura de banda dos correspondentes sinais em bandabase devido à modulação Filtro Casado PassaFaixa como Receptor Coerente Para as modulações PSK e ASK o receptor de filtro casado ótimo da Fig 105a pode ser implementado Como mostrado na Fig 109a o pulso de RF recebido pode ser detectado por um filtro casado ao pulso de RF pt seguido por um amostrador antes de um detector de limiar O mesmo receptor de filtro casado pode ser modificado como na Fig 109b sem alterar as amostras de sinal para decisão A implementação alternativa primeiro demodula coerentemente o sinal de RF que chega para isto o sinal é multiplicado por cos ω c t O produto é o pulso em bandabase pt mais um ruído em bandabase com PSD N2 Exemplo 913 esse produto é aplicado a um filtro casado ao pulso em bandabase pt Os dois esquemas de receptor são equivalentes e também podem ser implementados como receptores de correlação Figura 109 Detecção coerente de sinais modulados digitais Figura 1010 Detecção coerente ótima de sinais FSK binários Chaveamento por Deslocamento de Frequência Em FSK sinais binários de RF são transmitidos como Essas formas de onda podem ser consideradas duas ondas ASK entrelaçadas Portanto a PSD consistirá em duas PSDs centradas em f c Δf2 e f c Δf2 Para grande valor de Δff c a PSD consistirá em duas PSDs que não se sobrepõem Para pequenos valores de Δff c os dois espectros se fundirão e a largura de banda diminuirá Contudo em nenhum dos casos a largura de banda será menor que a de ASK ou PSK O receptor de correlação ótimo para FSK binária é dado na Fig 1010 Como os pulsos têm mesma energia o limiar ótimo quando os símbolos são equiprováveis é a o 0 Consideremos o caso comum de pulso retangular pt A ou seja nenhuma formatação de pulso em FSK Para o cálculo de P b da Eq 1025b precisamos de E pq Na prática ω c T b 1 de modo que o segundo termo no lado direito pode ser ignorado Com isso Da mesma forma A análise da BER na Eq 1025b para símbolos binários equiprováveis 1 e 0 se torna Portanto fica claro que para minimizar P b devemos selecionar Δω para FSK binário tal que sinc ΔωT b seja mínimo A Fig 1011a mostra sinc ΔωT b em função de ΔT b O valor mínimo de E pq é 0217A 2T b em Δω T b 143π ou quando Figura 1011 a Mínimo da função sinc e b espectro MSK Isso leva à mínima BER para FSK binária Quando E pq 0 temos o caso de sinalização ortogonal Da Eq 1011a fica claro que E pq 0 para Δf n2T b em que n é um inteiro qualquer Embora pareça que FSK binária possa usar qualquer inteiro n na seleção de Δf maior valor para Δf significa maior separação entre frequências de sinalização ω c Δω2 e ω c Δω2 e consequentemente maior largura de banda de 104 transmissão Para minimizar a largura de banda Δf deve ser o menor possível Com base na Fig 1011a o mínimo valor de Δf que pode ser usado para sinalização ortogonal é 12T b FSK que use esse valor de Δf é conhecida como chaveamento por deslocamento mínimo MSK minimum shift keying Chaveamento por Deslocamento Mínimo No MSK não apenas selecionamos duas frequências separadas por 12T b mas devemos também cuidar para preservar a continuidade de fase no chaveamento entre f Δf no transmissor pois mudanças abruptas de fase nos instantes de transição de bits quando se dá o chaveamento de frequências aumentariam significativamente a largura de banda do sinal Esquemas FSK que mantêm continuidade de fase são conhecidos como FSK de fase contínua CPFSK continuous phase FSK dos quais MSK é um caso especial Esses esquemas têm decaimento espectral rápido e melhor eficiência espectral Para manter continuidade de fase em CPFSK ou MSK a fase em cada transição de bit é forçada a depender da sequência anterior de dados Consideremos por exemplo a sequência 1001 com início em t 0 O primeiro pulso corresponde ao primeiro bit 1 é cos ω c Δω2t no intervalo de 0 a T b segundos Em t T b esse pulso termina com uma fase ω c Δω2T b O próximo pulso correspondente ao segundo bit de dado 0 é cos ω c Δω2t Para manter continuidade de fase no instante de transição a esse pulso é dada a fase adicional ω c Δω2T b Essa continuidade é forçada em cada instante de transição kT b Como o MSK é um esquema ortogonal sua probabilidade de erro é dada por Embora esse desempenho pareça inferior ao do caso ótimo na Eq 1041a um exame mais detalhado mostra uma história diferente Na verdade esse resultado vale somente se o MSK for detectado coerentemente como FSK comum usando um intervalo de observação T b Contudo recordemos que MSK é CPFSK em que a fase de cada pulso depende da sequência de dados anterior Logo melhor desempenho pode ser obtido observando a forma de onda recebida em um intervalo de tempo maior que T b De fato pode ser mostrado que se um sinal MSK for detectado com observação em um intervalo de 2T b o desempenho do MSK é idêntico ao da PSK ótimo ou seja O MSK também tem outras propriedades úteis Esse esquema tem capacidades de autossincronismo e sua largura de banda é de apenas 15R b como mostrado na Fig 1011b Isso é somente 50 maior que a largura de banda da sinalização duobinária Além disso o espectro de MSK decai mais rapidamente com 1f 4 em contraste com o espectro de PSK ou bipolar que decai com 1f 2 Eq 715 e 722 Devido a essas propriedades o MSK tem recebido muita atenção prática As Refs 1 e 2 apresentam discussão mais detalhada sobre esse tema ANÁLISE DE DETECÇÃO ÓTIMA NO ESPAÇO DE SINAIS Até aqui nossa discussão sobre otimização de receptores digitais ficou limitada ao caso simples de detecção de limiar linear para transmissão binária sob ruído de canal gaussiano Tais receptores são restringidos por sua estrutura linear Para determinar os receptores verdadeiramente ótimos precisamos responder à pergunta dada uma transmissão Mária com ruído de canal nt e saída de canal qual receptor é ótimo no sentido de levar à minimização da probabilidade de erro Para responder a essa pergunta devemos analisar o problema de detecção de sinal digital sob um ponto de vista mais fundamental Notemos que a saída do canal é um processo aleatório yt 0 t T o Assim para tomar uma decisão o receptor deve transformar yt em um espaço de decisão de dimensionalidade finita A análise é muito simplificada se usarmos uma representação geométrica de sinais e ruídos Comentário sobre Notação Para evitar confusão esclareçamos as notações usadas aqui Como antes usaremos tipos romanos para denotar uma VA ou um processo aleatório por exemplo x ou xt Um valor particular assumido pela VA em certo ensaio é denotado por tipo itálico Assim x representa o valor assumido por x Do mesmo modo xt representa uma particular função de amostra do processo aleatório xt Para vetores aleatórios seguiremos a mesma convenção um vetor aleatório será 1041 representado por tipo romano em negrito e um particular valor assumido pelo vetor em dado ensaio por tipo itálico em negrito Assim r denota um vetor aleatório e r um valor particular de r Espaço Geométrico de Sinais A seguir mostremos formalmente que um sinal em um sistema de transmissão Mário é na verdade um vetor de n dimensões e pode ser representado por um ponto em um hiperespaço de n dimensões n M Os fundamentos desse ponto de vista foram estabelecidos na Seção 26 quando introduzimos o espaço de sinais Uma nupla ordenada x 1 x 2 x n é um vetor x de n dimensões O espaço vetorial de sinais de n dimensões é varrido por n vetores unitários φ 1 φ 2 φ n Qualquer vetor x x 1 x 2 x n pode ser expresso como uma combinação linear de n vetores unitários Esse espaço vetorial é caracterizado pelas definições de produto interno entre dois vetores e de norma de vetor A norma x é o comprimento do vetor Vetores x e y são ortogonais se o produto interno dos mesmos for zero Um conjunto de vetores de n dimensões é independente se nenhum dos vetores no conjunto puder ser representado por uma combinação linear dos vetores remanescentes do conjunto Assim se y 1 y 2 y m for um conjunto independente a igualdade requer a i 0 i 1 m Um subconjunto de vetores em um dado espaço de n dimensões pode ter dimensionalidade menor que n Por exemplo em um espaço tridimensional todos os vetores em um plano podem ser especificados por duas dimensões e todos os vetores em uma linha podem ser especificados por uma dimensão Um espaço de n dimensões pode ter no máximo n vetores independentes Se um espaço tiver um máximo de n vetores independentes todo vetor x nesse espaço pode ser expresso como uma combinação linear desses n vetores independentes Assim qualquer vetor nesse espaço pode ser especificado por nuplas Por essa razão um conjunto de n vetores independentes em um espaço de n dimensões pode ser visto como os vetores de base ou base vetorial do espaço Os membros de um conjunto de vetores de base formam eixos coordenados e não são únicos Os n vetores na Eq 1042 são independentes e servem como vetores de base Esses vetores têm a propriedade adicional de serem mutuamente ortogonais e terem comprimento normalizado ou seja 1042 Um conjunto de vetores desse tipo é um conjunto ortonormal de vetores e representa um espaço vetorial ortogonal Qualquer vetor x x 1 x 2 x n pode ser representado como em que x k é a projeção de x sobre o vetor de base φ k e representa a késima coordenada de x Com uso da Eq 1048 a késima coordenada pode ser obtida de Como qualquer vetor em um espaço de n dimensões pode ser representado por esse conjunto de n vetores de base esse conjunto forma um conjunto ortonormal completo CON Espaço de Sinais e Base de Sinais Os conceitos de espaço vetorial e de vetores de base podem ser generalizados para caracterizar sinais em tempo contínuo definidos em um intervalo de tempo Θ Como descrito na Seção 26 um conjunto ortonormal de sinais φ it pode ser definido para se Se φ it formar um conjunto completo de funções de base ortonormais de um espaço de sinais definidos em Θ todo sinal xt nesse espaço de sinais pode ser expresso como em que a componente de sinal na direção de φ k t é Um exemplo é Θ Com base no teorema da amostragem todos os sinais passabaixos com largura de banda de B Hz podem ser representados por com Assim como há um número infinito de possíveis conjuntos de vetores de base para um espaço vetorial há um número infinito de possíveis conjuntos de sinais de base para um dado espaço de sinais Para um espaço de sinais limitado em banda é um dos possíveis conjuntos de sinais de base Notemos que xk2B são amostras do sinal original limitado em banda tomadas à taxa de Nyquist Como um sinal limitado em banda não pode ser limitado no tempo o número total de amostras de Nyquist será infinito Contudo amostras correspondentes a grandes valores de k podem ser ignoradas pois a contribuição das mesmas é insignificante Um desenvolvimento rigoroso desse resultado assim como uma estimação do erro ao ignorar dimensões superiores pode ser encontrado em Landau e Pollak 3 Produto Escalar e Energia de Sinal Em um dado espaço de sinais sejam xt e yt dois sinais Se φ k t for uma base ortonormal de sinais então Logo Como a base de sinais é ortonormal temos O lado direito da Eq 1054a no entanto é o produto interno dos vetores x e y Portanto chegamos novamente no teorema de Parseval A energia de sinal para um sinal xt é um caso especial A energia E x é dada por Assim a energia do sinal é igual ao quadrado do comprimento do vetor correspondente Exemplo 101 Um espaço de sinais consiste em quatro sinais s 1t s 2t s 3t e s 4t como mostrado na Fig 1012 Determinemos um adequado conjunto de vetores de base e a dimensionalidade dos sinais Representemos esses sinais geometricamente no espaço vetorial Os dois pulsos retangulares φ 1t e φ 2t na Fig 1012b são um adequado conjunto de sinais de base Em termos desse conjunto os vetores s 1 s 2 s 3 e s 4 correspondentes aos sinais s 1t s 2t s 3t e s 4t são s 1 1 05 s 2 05 1 s 3 0 1 e s 4 05 1 Esses pontos são marcados na Fig 1012c Observemos que o produto interno de s 1 e s 4 é 105 Figura 1012 Sinais e sua representação no espaço de sinais Portanto s 1 e s 4 são ortogonais Esse resultado pode ser comprovado de Reparemos que cada ponto no espaço de sinais na Fig 1012c corresponde a alguma forma de onda Determinação de um Conjunto de Base Ortonormal Se houver um número finito de sinais x it em um dado conjunto de sinais de interesse a base ortonormal de sinais pode ser selecionada de modo heurístico ou sistemático Uma abordagem heurística requer um bom entendimento da relação entre os diferentes sinais assim como uma certa dose de sorte A ortogonalização de GramSchmidt em contraste é uma abordagem sistemática para a extração de sinais de base a partir de um conjunto de sinais conhecido Os detalhes dessa abordagem são apresentados no Apêndice C DECOMPOSIÇÃO VETORIAL DE PROCESSOS ALEATÓRIOS DE RUÍDO BRANCO Em comunicação digital um sinal de mensagem sempre é uma dentre M possíveis formas de onda Assim não é difícil representar todas as M formas de onda em termos de um CON de funções de base O verdadeiro desafio na verdade reside na decomposição vetorial do ruído aleatório nt no receptor Um sinal determinístico pode ser representado por um vetor um ponto no espaço de sinais Será possível representar um processo aleatório como um vetor de variáveis aleatórias Caso a resposta seja positiva o problema de detecção poderá ser grandemente simplificado Consideremos um conjunto completo ortonormal CON de funções de base φ k t para um espaço de sinais definido em 0 T o Qualquer sinal determinístico st nesse espaço de sinais satisfará a seguinte condição 1051 1052 Isso implica que para t 0 T o temos a igualdade Contudo para processos aleatórios definidos em 0 T o essa asserção em geral não é verdadeira Certas modificações se fazem necessárias Determinação de Funções de Base para um Processo Aleatório Antes de qualquer coisa um processo aleatório genérico xt não pode a rigor satisfazer a Eq 1056a Assim um requisito de convergência é aplicado no sentido quadrático médio ou seja Esta igualdade pode ser denotada como Se xt e yt forem iguais no sentido quadrático médio fisicamente a diferença entre esses dois processos aleatórios tem energia zero No que diz respeito a comunicações sinais ou diferenças entre sinais com energia zero não têm efeito físico e podem ser vistos como 0 No caso de um conjunto de sinais determinísticos os sinais de base podem ser determinados com o procedimento de ortogonalização de GramSchmidt Todavia a ortogonalização de GramSchmidt não vale para processos aleatórios Um processo aleatório xt é de fato um ensemble de sinais Assim os sinais de base φ k t também devem depender das características do processo aleatório A descrição completa e rigorosa da decomposição de um processo aleatório pode ser encontrada em algumas referências clássicas 4 Aqui basta afirmar que as funções de base ortonormais devem ser solução da seguinte equação integral A solução da Eq 1057 é conhecida como expansão de KarhunenLöeve A função de autocorrelação R xt t 1 é conhecida como funçãonúcleo ou funçãokernel dessa expansão De fato a Eq 1057 lembra a equação de álgebra linear que relaciona um autovalor λ ao autovetor φ em que φ é um vetorcoluna e R x uma matriz positiva semidefinida λ i são conhecidos como autovalores e as funções de base φ it são as correspondentes autofunções A expansão de KarhunenLöeve estabelece de forma clara que as funções de base de um processo aleatório xt depende de sua função de autocorrelação R xt t 1 Não podemos selecionar arbitrariamente um conjunto CON de funções Na verdade a solução da expansão de KarhunenLöeve pode se revelar uma tarefa nada trivial Representação Geométrica de Processos de Ruído Branco Para um processo de ruído branco estacionário xt a função de autocorrelação é Para esse núcleo kernel especial a equação integral Eq 1057 se reduz à forma simples Esse resultado implica que qualquer conjunto CON de funções de base pode ser usado para representar processos de ruído branco estacionário Além disso os autovalores são todos iguais λ i N2 Esse resultado particular é da maior importância para nós Na maioria das aplicações de comunicação digital focamos o projeto do receptor ótimo e análise de desempenho tendo em mente canais de ruído branco No caso de transmissões Márias temos um conjunto ortonormal de funções de base φ k t para representar as M formas de onda s it de modo que Com base na Eq 1058 essas funções de base também são adequadas à representação do ruído branco do canal n w t Em consequência quando o transmissor envia s it o sinal recebido pode ser decomposto em com Em consequência quando o ruído do canal for branco o sinal de saída recebido do canal pode ser representado por uma sequência de variáveis aleatórias y k da Eq 1059d Em outras palavras o receptor ótimo para canais de ruído branco pode ser deduzido da informação contida em 1053 Figura 1013 Representação geométrica de um processo aleatório gaussiano Reparemos que o ruído branco xt consiste em um ensemble de funções de amostra Os coeficientes na decomposição da Eq 1059b serão diferentes para cada função de amostra Por conseguinte os coeficientes são VAs Cada função de amostra terá um vetor específico x 1 x 2 x n e será mapeada em um ponto no espaço de sinais Isso significa que o ensemble de funções de amostra para o processo aleatório xt será mapeado em um ensemble de pontos no espaço de sinais como mostrado na Fig 1013 Embora mostre apenas um gráfico tridimensional pois não é possível mostrar um gráfico de dimensão maior essa figura basta para ilustrar a ideia Para cada ensaio do experimento o resultado função de amostra é certo ponto x O ensemble de pontos no espaço de sinais tem a aparência de uma bola de pó com densidade de pontos diretamente proporcional à probabilidade de observar x na região em consideração Se denotarmos a PDF conjunta de x 1 x 2 x n por p xx temos Assim p xx tem certo valor em cada ponto no espaço de sinais e representa a probabilidade relativa densidade de pó de observar x x Ruído Gaussiano Branco Se o ruído do canal n w t for branco e gaussiano a discussão na Seção 86 mostra que os coeficientes de expansão também serão gaussianos De fato n 1 n 2 n k são conjuntamente gaussianos A seguir provaremos algumas propriedades básicas de variáveis aleatórias gaussianas Primeiro definimos um vetorcoluna de n variáveis aleatórias como Notemos que x T denota o transposto de x e o valor médio de x Variáveis aleatórias VAs x 1 x 2 x n são conjuntamente gaussianas se sua PDF conjunta for dada por P1 P2 P3 P4 1054 em que K x é a matriz de covariância n n sendo a covariância de x i e x j dada por Aqui usamos a notação convencional det K x K x 1 e para denotar o determinante e a inversa da matriz K x respectivamente Variáveis gaussianas são importantes não apenas por serem observadas com frequência mas também por terem certas propriedades que simplificam muitas operações matemáticas que de outra forma seriam muito difíceis ou impossíveis A seguir resumimos estas propriedades A densidade gaussiana é completamente especificada pelas estatísticas de primeira e segunda ordens e K x Isso segue da Eq 1062 Se n variáveis conjuntamente gaussianas x 1 x 2 x n forem descorrelacionadas serão independentes Se as n variáveis forem descorrelacionadas σ ij 0 i j e K x se reduz a uma matriz diagonal Assim A Eq 1062 se torna Como já observado variáveis independentes sempre são descorrelacionadas mas variáveis descorrelacionadas não são necessariamente independentes Contudo no caso de VAs conjuntamente gaussianas descorrelação implica independência Quando x 1 x 2 x n são conjuntamente gaussianas todas as densidades marginais como e todas as densidades condicionais como são gaussianas Essa propriedade pode ser prontamente comprovada Exercício 829 Combinações lineares de variáveis conjuntamente gaussianas também são conjuntamente gaussianas Assim se formarmos m variáveis y 1 y 2 y m m n a partir de então y 1 y 2 y m também serão variáveis conjuntamente gaussianas Propriedades de Processos Aleatórios Gaussianos 1 2 3 Um processo aleatório xt é gaussiano se as VAs xt 1 xt 2 xt n forem conjuntamente gaussianas Eq 1062 para todo n e para todo conjunto t 1 t 2 t n Logo a PDF conjunta das VAs xt 1 xt 2 xt n de um processo aleatório gaussiano é dada pela Eq 1062 na qual o valor médio e a matriz de covariância K x são especificadas por Isso mostra que um processo aleatório gaussiano é completamente especificado por sua função de autocorrelação R xt i t j e seu valor médio por Como discutido no Capítulo 9 se o processo aleatório gaussiano satisfizer as duas condições adicionais e então será um processo estacionário no sentido amplo Além disso as Eqs 1067 significam que a PDF conjunta das VAs gaussianas xt 1 xt 2 xt n também é invariante sob uma translação da origem do tempo Portanto podemos concluir que um processo aleatório gaussiano estacionário no sentido amplo também é estacionário no sentido estrito Outra propriedade relevante de processos gaussianos é que a resposta de um sistema linear a um processo gaussiano também é um processo gaussiano Isso advém da propriedade P4 das VAs gaussianas Seja xt um processo gaussiano aplicado à entrada de um sistema linear cuja resposta ao impulso unitário é ht Seja yt o processo de saída resposta então é uma soma ponderada de VAs gaussianas Como xt é um processo gaussiano todas as variáveis xt kΔτ são conjuntamente gaussianas por definição Portanto as variáveis yt 1 yt 2 yt n devem ser conjuntamente gaussianas como discutido anteriormente Isso implica que o processo yt é um processo gaussiano Resumindo o processo gaussiano tem as seguintes propriedades Um processo aleatório gaussiano é completamente especificado por suas funções de autocorrelação e valor médio Se um processo aleatório gaussiano for estacionário no sentido amplo também é estacionário no sentido estrito A resposta de um sistema linear a um processo aleatório gaussiano também é um processo aleatório gaussiano Consideremos o processo de ruído branco n w t com PSD N2 Qualquer conjunto completo de sinais de base ortonormais φ 1t φ 2t pode decompor n w t em Ruído branco tem largura de banda infinita Em consequência a dimensionalidade do espaço de sinais é infinita A seguir mostraremos que as VAs n 1 n 2 são independentes cada uma com variância N2 Primeiro temos 106 1061 Aqui n j e n k são VAs gaussianas descorrelatadas cada uma com variância N2 Como são gaussianas descorrelação implica independência Isso prova o resultado Por ora consideremos um caso de N dimensões A PDF conjunta das VAs conjuntamente gaussianas independentes n 1 n 2 n N cada uma com média zero e variância N2 é Eq 1064 Isso mostra que a PDF p n n depende apenas da norma n que é o comprimento amostrado do vetor de ruído n no hiperespaço e portanto esfericamente simétrico se representado no hiperespaço de N dimensões RECEPTOR ÓTIMO PARA CANAIS COM RUÍDO GAUSSIANO BRANCO Representações Geométricas A seguir consideremos sob um ponto de vista mais fundamental o problema de comunicação Mária na presença de ruído gaussiano branco aditivo AWGN additive white Gaussian noise Esse tipo de canal é conhecido como canal AWGN Aqui diferentemente dos receptores lineares estudados nas Seções 101 a 103 nenhuma restrição é imposta à estrutura ótima Devemos responder à pergunta básica Que receptor produzirá a mínima probabilidade de erro Figura 1014 Sistema de comunicação Mário Figura 1015 Efeito de ruído de canal gaussiano sobre o sinal recebido A compreensão do problema de detecção de sinal é grandemente simplificada com a representação geométrica de sinais Em um espaço de sinais podemos representar um sinal por um ponto fixo ou um vetor Um processo aleatório pode ser representado por um ponto aleatório ou vetor aleatório Na representação a região na qual o ponto aleatório pode cair será sombreada e a intensidade de sombreamento proporcional à probabilidade de observar o sinal na dada região No esquema Mário usamos M símbolos ou mensagens m 1 m 2 m M Cada um desses símbolos é representado por uma forma de onda específica Sejam s 1t s 2t s M t as correspondentes formas de onda Assim o símbolo ou mensagem m k é enviado com a transmissão de s k t Essas formas de onda são corrompidas por AWGN n w t Fig 1014 com PSD No receptor o sinal recebido rt consiste em uma das M formas de onda de mensagens s k t mais o ruído de canal Como o ruído n w t é branco podemos usar as mesmas funções de base para decompor s k t e n w t Assim podemos representar rt em um espaço de sinais se usarmos r s k e n w para denotar os vetores correspondentes a rt s k t e n w t respectivamente Com isso é evidente que O vetor de sinal s k é um vetor fixo pois a forma de onda s k t é não aleatória enquanto o vetor de ruído n w é aleatório Portanto o vetor r também é aleatório Como n w t é um ruído gaussiano branco a distribuição de probabilidade de n w tem simetria esférica no espaço de sinais como mostrado na seção anterior Assim a distribuição de r é uma distribuição esférica centrada e um ponto fixo s k como mostrado na Fig 1015 Sempre que a mensagem m k é transmitida a probabilidade de observar o sinal recebido rt em uma dada região é indicada pela intensidade do sombreamento na Fig 1015 Na verdade como o ruído é branco o espaço tem um número infinito de dimensões No entanto por simplicidade mostramos o espaço como tridimensional Isso basta para indicar nossa linha de raciocínio Podemos desenhar regiões de espalhamento similares para vários pontos s 1 s 2 s M A Fig 1016a mostra as regiões de espalhamento para duas mensagens m j e m k quando s j e s k guardam grande separação no espaço de sinais Nesse caso praticamente não há sobreposição entre as duas regiões de espalhamento Se m j ou m k for transmitido o sinal recebido residirá em uma das duas regiões de espalhamento A partir da posição do sinal recebido é possível decidir com pequena probabilidade de erro se m j ou m k foi transmitido Na Fig 1016a o sinal recebido r é muito mais próximo de s k do que de s j Portanto é mais provável que m k tenha sido transmitido Reparemos que teoricamente cada região de espalhamento se estende ao infinito embora a probabilidade de observar o sinal recebido diminua rapidamente à medida que o 1062 ponto é espalhado para longe do centro Portanto sempre haverá alguma sobreposição entre dois conjuntos de espalhamento resultando em probabilidade de erro não nula Assim mesmo que na Fig 1016a o sinal recebido r seja mais próximo de s k pode ter sido gerado por s j mais o ruído de canal Figura 1016 Comunicação binária na presença de ruído A Fig 1016b ilustra o caso de ruído mais intenso em que há considerável sobreposição entre as duas regiões de espalhamento Como o sinal recebido r é mais próximo de s j que de s k é mais provável que m j tenha sido transmitido Contudo nesse caso também há considerável probabilidade de que m k tenha sido transmitido Portanto nessa situação haverá maior probabilidade de erro em qualquer esquema de detecção O receptor ótimo deve decidir a partir do conhecimento de r que mensagem foi transmitida O espaço de sinais deve ser dividido em M regiões de decisão que não se sobrepõem ou regiões disjuntas R 1 R 2 R M correspondendo às M mensagens m 1 m 2 m M Se r cair na região R k a decisão é m k O problema do projeto do receptor se reduz então à escolha de fronteiras para estas regiões de decisão R 1 R 2 R M de modo a minimizar a probabilidade de erro na tomada de decisão Recapitulando Um transmissor envia uma sequência de mensagens a partir de um conjunto de M mensagens m 1 m 2 m M Essas mensagens são representadas por formas de onda de energia finita s 1t s 2t s M t Uma forma de onda é transmitida a cada T o T M segundos Admitimos que o receptor guarda sincronismo temporal com o transmissor As formas de onda são corrompidas durante a transmissão por AWGN de PSD N2 Conhecida a forma de onda recebida o receptor deve decidir que forma de onda foi transmitida O critério de mérito do receptor é a mínima probabilidade de erro na tomada desta decisão Dimensionalidade do Espaço de Sinais de Detecção Discutamos agora a dimensionalidade do espaço de sinais no problema de detecção Se não houvesse ruído trataríamos apenas das M formas de onda s 1t s 2t s M t Nesse caso um espaço de sinais de no máximo N dimensões bastaria Isso porque a dimensionalidade do espaço de sinais sempre é igual ou menor que o número de sinais independentes no espaço Seção 104 Por questão de generalidade admitiremos que o espaço tem N dimensões N M Considere φ 1t φ 2t φ N t o conjunto de base ortonormal para esse espaço Esse conjunto pode ser construído com aplicação do procedimento de GramSchmidt discutido no Apêndice C Podemos então representar a forma de onda de sinal s k t como em que Agora consideremos o ruído de canal gaussiano branco n w t Esse sinal tem largura de banda infinita B um número infinito de dimensões e obviamente não pode ser totalmente representado em um espaço de sinais de N dimensões Podemos contudo dividir n w t em duas componentes 1 a porção de n w t no interior do espaço de sinais de N dimensões e 2 a restante componente ortogonal ao espaço de sinais de N dimensões Denotemos as duas componentes por nt e n 0t respectivamente Assim em que e em que Por ser ortogonal ao espaço de sinais de N dimensões n 0t é ortogonal a cada sinal neste espaço Logo Das Eqs 1073a e 1074 fica evidente que podemos filtrar a componente n 0t de n w t Isso pode ser visto do fato de o sinal recebido rt poder ser expresso como Figura 1017 Eliminação do ruído ortogonal ao espaço de sinais em que qt é a projeção de rt no espaço de N dimensões Podemos obter a projeção qt de rt observando que Eqs 1071b e 1073a Das Eqs 1071c 1074 e 1077 segue que se alimentarmos o sinal recebido rt ao sistema mostrado na Fig 1017 a saída correspondente será qt Dessa forma a componente ortogonal de ruído pode ser eliminada na filtragem sem distorcer o sinal de mensagem A questão aqui é essa filtragem ajuda a tomada de decisão Podemos mostrar prontamente que a mesma não nos prejudica O ruído n w t independe da forma de onda de sinal s k t Portanto sua componente n 0t também independe de s k t Assim n 0t não contém informação sobre o sinal transmitido e o descarte dessa componente do sinal recebido rt não causará qualquer perda de informação a respeito da forma de onda de sinal s k t Isso no entanto não basta Devemos ainda assegurar que o ruído descartado n 0t não seja de alguma forma relacionado à componente remanescente de ruído nt Se n 0t e nt forem relacionadas de alguma forma será possível obter alguma informação sobre nt de n 0t o que nos permitirá detectar esse sinal com menor probabilidade de erro Se as componentes n 0t e nt forem processos aleatórios independentes a componente n 0t não transportará qualquer informação sobre nt e poderá ser descartada Nessas condições n 0t será irrelevante à tomada de decisão no receptor O processo nt é representado pelas componentes n 1 n 2 n N ao longo de φ 1t φ 2t φ N t e n 0t é representado pelas componentes remanescentes número infinito ao longo dos sinais de base remanescentes no conjunto completo φ k t Como o ruído de canal é gaussiano branco da Eq 1068 observamos que todas as componentes são independentes Portanto as componentes que representam n 0t independem das componentes que representam nt Por conseguinte n 0t independe de nt e contém somente dados irrelevantes O sinal recebido rt é agora reduzido ao sinal qt que contém a forma de onda de sinal desejada e a projeção do ruído de canal no espaço de sinais de N dimensões Assim o sinal qt pode ser completamente representado no espaço de sinais Denotemos os vetores que representam nt e qt por n e q respectivamente Logo em que s pode ser qualquer um dos vetores s 1 s 2 s M O vetor aleatório n n 1 n 2 n N é representado por N variáveis gaussianas independentes cada um com média zero e variância N2 Nesse caso a PDF conjunta do vetor n tem simetria esférica como mostrado na Eq 1069b 1063 Reparemos que esta é na verdade uma notação compacta para Espaço de Sinais e Procedimento de Decisão Simplificados Agora nosso problema é consideravelmente mais simples A componente irrelevante de ruído foi suprimida por filtragem O sinal residual qt pode ser representado em um espaço de sinais de N dimensões A seguir determinemos nesse espaço as M regiões de decisão R 1 R 2 R M As regiões devem ser escolhidas de modo a minimizar a probabilidade de erro na tomada de decisão Suponhamos que o vetor recebido q q Se o receptor decidir m k a probabilidade condicional de cometer um erro de decisão dado que q q é em que PC q q é a probabilidade condicional de cometer um erro de decisão dado q q e Pm k q q é a probabilidade condicional de m k haver sido transmitido dado q q A probabilidade incondicional PC é dada por em que a integração é efetuada em toda a região ocupada por q Reparemos que essa é uma integral de ordem N em relação às variáveis q 1 q 2 q N na duração da forma de onda de sinal Como p q q 0 esta integral será máxima quando PCq q for máxima Da Eq 1079 temos que se for feita uma decisão m k a probabilidade de erro será minimizada se a probabilidade for maximizada A probabilidade Pm k q q é chamada de probabilidade a posteriori de m k pois representa a probabilidade de m k ter sido transmitido quando q foi recebido O procedimento de decisão para maximizar a probabilidade de decisão correta PC e portanto minimizar a probabilidade de erro fica claro Uma vez que recebamos q q calculamos todas as M as funções de probabilidade a posteriori Pm jq q e tomamos uma decisão a favor da mensagem para a qual a probabilidade a posterior for a maior ou seja o receptor decidirá que m k se Assim o detector que minimiza a probabilidade de erro é o detector de máxima probabilidade a posteriori MAP Podemos usar a regra de Bayes Capítulo 8 para determinar as probabilidades a posteriori Temos Logo o receptor decidirá m k se a função de decisão for máxima para i k Reparemos que o denominador p q q é comum a todas as funções de decisão e não é afetado pela decisão Portanto pode ser ignorado durante a decisão Assim o receptor decidirá m k se a função de decisão for máxima para i k Portanto uma vez que q tenha sido obtido calculamos a função de decisão Eq 1083 para todas as mensagens m 1 m 2 m M e decidimos que a mensagem para a qual a função é máxima é aquela com maior possibilidade de ter sido transmitida Agora voltemos a nossa atenção à determinação das funções de decisão A probabilidade a priori Pm i representa a probabilidade de a mensagem m i ser transmitida Essas probabilidades devem ser conhecidas para que o critério discutido possa ser usado O termo p q qm i representa a PDF de q quando o transmissor envia st s it Sob essa condição e O ponto s i é constante e n é um ponto aleatório Obviamente q é um ponto aleatório com a mesma distribuição de n mas centrado no ponto s i Alternativamente a densidade de probabilidade em q q dado m m i é a mesma da probabilidade n q s i Logo Eq 1078a A função de decisão na Eq 1083 passa a Notemos que a função de decisão é sempre não negativa para todos os valores de i Portanto comparar essas funções equivale a comparar seus logaritmos pois o logaritmo é uma função monótona para argumentos positivos Assim por conveniência a função de decisão será escolhida como o logaritmo da Eq 1085 Além disso o fator πN N2 é comum para todo i e pode ser deixado de lado Com isto a função de decisão a ser maximizada é Reparemos que q s i 2 é o quadrado do comprimento do vetor q s i Logo A função de decisão na Eq 1086 então passa a após multiplicação por N2 O termo s i 2 é o quadrado do comprimento de s i e representa E i a energia do sinal s it Os termos ln Pm i e E i são constantes na função de decisão Seja Com isso a função de decisão na Eq 1088 se torna O termo q 22 é comum a todas as M funções de decisão e pode ser omitido na comparação Assim a nova função de decisão b i é Calculamos essa função b i para i 1 2 N e o receptor decidirá que m k se a mesma for a maior para i k Se o sinal qt for aplicado aos terminais de entrada de um sistema cuja resposta ao impulso seja ht a saída em t T M será dada por Se escolhermos um filtro casado a s it ou seja ht s iT M t e com base no teorema de Parseval a saída será Aqui q s i é a saída em t T M de um filtro casado a s it quando qt é aplicado às entradas do mesmo Na verdade não temos qt O sinal que chega ao receptor rt é dado por em que n 0t é a componente irrelevante de n w t ortogonal ao espaço de sinais de N dimensões Por ser ortogonal a esse espaço n 0t é ortogonal a cada sinal no espaço Logo é ortogonal ao sinal s it e Portanto não faz diferença se usarmos qt ou rt na entrada Aplicamos então o sinal que chega rt a um banco de filtros casados em paralelo e a saída do filtro é amostrada em t T M Uma constante a i é então adicionada à amostra da saída do i ésimo filtro e as saídas resultantes são comparadas Uma decisão é tomada a favor do sinal para o qual esta saída for a maior A implementação do receptor para esse procedimento de decisão é mostrada na Fig 1018a Na Seção 101 foi estabelecido que um filtro casado equivale a um correlator Podemos portanto usar correlatores no lugar de filtros casados Essa solução é mostrada na Fig 1018b Mostramos que na presença de AWGN o receptor de filtro casado é o receptor ótimo quando o critério de mérito for a mínima probabilidade de erro Reparemos que o sistema ótimo é linear embora essa condição não tenha sido forçada Portanto para ruído gaussiano branco o receptor ótimo é linear O filtro casado e o procedimento de decisão discutidos nas Seções 101 e 102 são idênticos aos que acabamos de deduzir O receptor ótimo pode ser implementado de outra forma Da Eq 1091 temos Da Eq 1044 podemos escrever Figura 1018 Receptor Mário ótimo a detector de filtro casado b detector de correlação Para calcular o termo q s i por essa equação primeiro r j é gerado e depois é calculada a soma dos termos r js ij recordemos que os s ij são conhecidos como mostrado na Fig 1019a Os M detectores correlatores na Fig 1018b podem ser substituídos por filtros casados φ 1t φ 2t φ N t como indicado na Fig 1019b Estes receptores ótimos Figs 1018 e 1019 têm 1064 desempenhos idênticos A escolha de um ou do outro tipo dependerá do custo Por exemplo se N M e a geração dos sinais φ jt for mais fácil do que a dos sinais s jt a configuração da Fig 1019 deve ser escolhida Regiões de Decisão e Probabilidade de Erro Para calcular a probabilidade de erro do receptor ótimo primeiro devemos determinar as regiões de decisão no espaço de sinais Como já mencionado o espaço de sinais é dividido em M regiões de decisões que não se sobrepõem ou regiões disjuntas R 1 R 2 R M correspondentes às M mensagens Se q cair na região R k a decisão é que m k foi transmitido As regiões de decisão são escolhidas para minimizar a probabilidade de erro no receptor Com essa representação geométrica em mente analisemos como o receptor ótimo estabelece tais regiões de decisões Figura 1019 Outra forma de receptor Mário ótimo a correlator b filtro casado A função de decisão é dada pela Eq 1086 O receptor ótimo estabelece se a função de decisão for máxima para i k Essa equação define as regiões de decisão Interpretação Geométrica no Espaço de Sinais Por simplicidade consideremos primeiro o caso de mensagens equiprováveis ou seja Pm i 1M para todo i Nesse caso o primeiro termo na função de decisão é o mesmo para todo i e portanto pode ser ignorado Assim o receptor decide m k se o termo q s i 2 for máximo numericamente o menor para i k Alternativamente isso pode ser colocado da seguinte forma o receptor decide m k se a função de decisão q s i 2 for mínima para i k Reparemos que q s i 2 é a distância entre os pontos q e s i Logo o procedimento de decisão tem uma interpretação simples no espaço geométrico A decisão é tomada a favor do sinal mais próximo de q que é a projeção de r componente de rt no espaço de sinais Qualitativamente esse resultado era esperado para ruído gaussiano pois ruído gaussiano tem simetria esférica Contudo se as mensagens não forem equiprováveis não podemos ir tão longe somente em bases qualitativas Todavia podemos tirar certas conclusões gerais Se uma particular mensagem m i for mais provável que outras será mais seguro decidir a favor de m i com mais frequência que a favor de outras mensagens Em situações como essa as regiões de decisão serão polarizadas ou ponderadas a favor de m i Isso é mostrado pela presença do termo ln Pm i na função de decisão Para um melhor entendimento desse ponto consideremos um espaço de sinais bidimensional e dois sinais s 1 e s 2 como ilustrado na Fig 1020a Nessa figura as regiões de decisão R 1 e R 2 são mostradas para mensagens equiprováveis Pm 1 Pm 2 05 A fronteira das regiões de decisão é o bissetor perpendicular da reta que une os pontos s 1 e s 2 Notemos que qualquer ponto na fronteira equidista de s 1 e de s 2 Caso q caia na fronteira lançamos uma moeda para decidir se selecionamos m 1 ou m 2 A Fig 1020b mostra a situação em que duas mensagens não são equiprováveis Para delinear a fronteira das regiões de decisão usamos a Eq 1086 A decisão é m 1 se Caso contrário a decisão é m 2 Figura 1020 Determinação das regiões de decisão ótimas em um caso binário Reparemos que q s 1 e q s 2 representam as distâncias d 1 e d 2 entre q e s 1 e entre q e s 2 respectivamente Assim a decisão é m 1 se O lado direito dessa desigualdade é uma constante c Assim a regra de decisão é A fronteira das regiões de decisão é dada por d 2 1 d 2 2 c Agora mostremos que essa fronteira é uma reta perpendicular à reta s 1 s 2 e passa por essa a uma distância μ de s 1 em que e d é a distância entre s 1 e s 2 Para provar isso redesenhamos a parte de interesse da Fig 1020b como na Fig 1020c da qual fica evidente que Esse é o resultado desejado Assim ao longo da fronteira de decisão d 2 1 d 2 2 é constante e igual a c Para M 2 as fronteiras das regiões de decisão podem ser determinadas com uso de argumento similar Para o caso de três sinais bidimensionais equiprováveis as regiões de decisão são mostradas na Fig 1021 As fronteiras das regiões de decisão são bissetores perpendiculares das retas que unem os sinais originalmente transmitidos Se os sinais não forem equiprováveis as fronteiras serão afastadas dos sinais com maiores probabilidades de ocorrência Para sinais em um espaço de N dimensões as regiões de decisão serão hipercones de N dimensões Caso haja M mensagens m 1 m 2 m M com regiões de decisão R 1 R 2 R M respectivamente então PCm i a probabilidade de uma decisão correta quando m i tiver sido transmitido é dada por PC a probabilidade de uma decisão correta é dada por e P eM a probabilidade de erro por Figura 1021 Determinação de regiões de decisão ótimas Exemplo 102 Dados binários são transmitidos por sinalização polar em um canal AWGN com PSD de ruído N2 Dois sinais são usados As probabilidades dos símbolos Pm 1 e Pm 2 não são iguais Projetemos o receptor ótimo e determinemos a correspondente probabilidade de erro Figura 1022 Regiões de decisão para o caso binário no Exemplo 102 Os dois sinais são representados graficamente na Fig 1022a Se a energia de cada sinal for E a distância entre cada sinal e a origem será e a distância d entre os dois sinais As regiões de decisão R 1 e R 2 são mostradas na Fig 1022a A distância μ é dada pela Eq 1092 A probabilidade condicional de decisão correta é Do mesmo modo Com isso a probabilidade de decisão correta é em que e Nesse problema como N 1 e M 2 o receptor na Fig 1019 é preferível ao da Fig 1018 Para esse caso o receptor da forma na Fig 1019b se reduz ao na Fig 1022b O limiar de decisão d como visto na Fig 1022a é 1065 Notemos que d é o limiar de decisão Assim na Fig 1022b se a saída do receptor for r d a decisão será m 1 Caso contrário a decisão será m 2 Quando Pm 1 Pm 2 05 o limiar de decisão é zero Este é precisamente o resultado deduzido na Seção 101 para sinalização polar Sinalização Multiamplitude PAM Consideremos agora a generalização da sinalização polar para o caso Mário muitas vezes referido como modulação em amplitude de pulso PAM No caso binário transmitimos dois símbolos que consistem nos pulsos pt e pt em que pt pode ser um pulso em bandabase ou uma portadora modulada por um pulso em bandabase No caso de múltiplas amplitudes PAM os M símbolos são transmitidos por M pulsos pt 3pt 5pt M 1pt Assim para transmitir R M dígitos Mários por segundo devemos transmitir R M pulsos da forma kpt por segundo Pulsos são transmitidos a cada T M segundos com T M 1R M Se E p for a energia do pulso pt e supondo que os pulsos pt 3pt 5pt M 1pt sejam equiprováveis a energia de pulso média E pM será dada por Figura 1023 a PDFs condicionais em PAM b Probabilidade de erro em PAM Recordemos que símbolos Mários transportam uma informação de log 2 M bits Assim a energia de bit será Como a largura de banda de transmissão independe da amplitude do pulso a largura de banda Mária é igual à do caso binário para a dada taxa de pulsos embora transporte mais informação Isso significa que para uma dada taxa de transmissão a largura de banda PAM é menor que a do caso binário por um fator log 2 M Para calcular a probabilidade de erro observemos que como temos o mesmo pulso básico pt o receptor ótimo Mário é um filtro casado a pt Se o pulso de entrada for kpt a saída no instante de amostragem será Notemos que A p E p energia de pt e que a variância de n ot é igual a N E p2 Assim o receptor ótimo para o caso de sinalização Mária de múltiplas amplitudes é idêntico ao do caso polar binário Fig 103 ou Fig 106a O amostrador tem M saídas possíveis que desejamos detectar As PDFs condicionais prm i são gaussianas com média kA p e variância como mostrado na Fig 1023a Seja P eM a probabilidade de detectar um símbolo e Pm a probabilidade de erro dado que o símbolo m foi transmitido Para calcular P eM observemos que o caso dos dois símbolos extremos representados por M 1pt é similar ao do caso binário pois é necessário tomar cuidado apenas com um vizinho Para os outros símbolos é necessário tomar cuidado com vizinhos nos dois lados em consequência para esses símbolos Pm i é o dobro do correspondente aos símbolos extremos Da Fig 1023a fica evidente que Pm i é QA pσ n para os símbolos extremos e 2QA pσ n para os M 2 símbolos remanescentes Logo Para um receptor de filtro casado A pσ n 2 2E pN e Taxa de Erro de Bit BER É um tanto quanto injusto avaliar a sinalização Mária com base em P eM a probabilidade de erro de um símbolo Mário que transporta a informação de k log 2 M bits Quando um símbolo Mário está errado nem todos os bits estão errados de modo que há uma ponderação injusta para maiores valores de M Para uma avaliação justa devemos comparar vários esquemas em termos da probabilidade de erro de bit P b e não de P eM a probabilidade de erro de símbolo taxa de erro de símbolo A seguir mostraremos que para a sinalização de múltiplas amplitudes P b P eM log 2 M Como o tipo de erro que predomina é aquele em que um símbolo é confundido com seus vizinhos imediatos Fig 1023a seria lógico alocar a símbolos Mários vizinhos palavras de código binário que difiram no menor número possível de dígitos O código Gray é adequado para esse fim pois nesse código combinações binárias adjacentes diferem apenas por um dígito Assim um erro na detecção de um símbolo Mário causará no máximo um erro em um grupo de log 2 M dígitos binários transmitidos pelo símbolo Mário Portanto a taxa de erro de bit P b P eM log 2 M A Fig 1023b mostra P eM em função de E b para diversos 1066 valores de M Notemos que a relação P b P eM log 2 M válida para PAM não é necessariamente válida para outros esquemas para a específica estrutura de código Devemos então recalcular a relação entre P b e P eM para cada esquema Barganha entre Potência e Largura de Banda Para manter uma dada taxa de informação no caso Mário a taxa de transmissão de pulsos é reduzida por um fator k log 2 M Isso significa que no caso Mário a largura de banda é reduzida pelo mesmo fator k log 2 M Contudo para manter a mesma P eM as Eq 1099 mostram que a potência transmitida por bit que é proporcional a E b aumenta aproximadamente com Se no entanto mantivermos uma dada largura de banda a taxa de informação no caso Mário aumenta pelo fator k log 2 M A potência transmitida é igual a E b vezes a taxa de bit Logo um aumento na taxa de dados também aumenta a potência transmitida por um fator Assim a potência aumenta exponencialmente com o aumento da taxa de informação por um fator k Em sistema de rádio de alta potência tal aumento de potência pode não ser tolerável Sistemas multiamplitude são atraentes quando a largura de banda for muito cara Portanto vemos como trocar potência por largura de banda Como os canais de voz de uma rede de telefonia têm largura de banda fixa sinalização multiamplitude ou multifase ou uma combinação dos dois é um método mais atraente de aumentar a taxa de informação Essa é a forma em que modems de computadores na banda de voz alcançam altas taxas de dados Todos os resultados deduzidos aqui se aplicam tanto a sistema em bandabase como a sistemas digitais modulados com detecção coerente Para detecção não coerente existem relações similares entre sistemas binário e Mário Análise QAM Mária Na QAM Mária o sinal transmitido é representado por em que Podemos observar com facilidade que o espaço de sinais QAM é bidimensional com funções de base φ 1t e φ 2t Em vez de determinarmos o receptor ótimo e a correspondente probabilidade de erro para uma constelação QAM arbitrária ilustremos a abordagem básica por meio da análise da configuração QAM de 16 pontos ilustrada na Fig 1024a Consideremos que todos os sinais sejam equiprováveis em um canal AWGN Primeiro calculemos a probabilidade de erro O primeiro quadrante do espaço de sinais é reproduzido na Fig 1024b Como todos os sinais são equiprováveis as fronteiras das regiões de decisão serão bissetores perpendiculares envolvendo vários sinais como indicado na Fig 1024b Figura 1024 QAM 16ária Da Fig 1024b temos PCm 1 Pvetor de ruído originado em s 1 estar em R 1 Por conveniência definamos Logo Usando argumentos semelhantes obtemos Devido à simetria dos sinais nos quatro quadrantes obtemos probabilidades semelhantes para os quatro sinais em cada quadrante Assim a probabilidade de decisão correta é e Na prática P eM 0 se a SNR for alta e portanto PC 1 Isso significa Eq 10102 e Para expressar esse termo da potência recebida S i devemos determinar a energia média do conjunto de sinais na Fig 1024 Como E k a energia de s k é o quadrado da distância entre s k e a origem De modo similar Logo e d 2 04 Além disso para M 16 cada símbolo transporta a informação de log 2 16 4 bits Portanto a energia por bit E b é Logo para grandes valores de E bN Uma comparação desse resultado com o obtido no caso PSK binária Eq 1033 mostra que QAM de 16 pontos requer quase 25 vezes mais potência do que PSK binária contudo a taxa de transmissão é aumentada por um fator log 2 M 4 Essa comparação não leva em conta o fato de P b a BER ser um pouco menor que P eM Em termos da implementação do receptor como N 2 e M 16 o receptor na Fig 1019 é preferível Esse receptor é mostrado na Fig 1024c Reparemos que como todos os sinais são equiprováveis A PSK é um caso especial da QAM em que todos os pontos de sinal residem em uma circunferência Portanto a mesma abordagem analítica pode ser aplicada No entanto a análise pode ser mais simples com o uso de coordenadas polares Usemos o próximo exemplo para ilustrar as duas abordagens Exemplo 103 MPSK Determinemos a probabilidade de erro do receptor ótimo para sinais MPSK equiprováveis cada um com energia E A Fig 1025a mostra a configuração de sinais MPSK para M 8 Como todos os sinais são equiprováveis as regiões de decisão são cônicas como mostrado A mensagem m 1 é transmitida por um sinal s 1t representado pelo vetor s 1 s 1 0 Sejam q q 1 q 2 a projeção do sinal recebido r no espaço de sinais e n n 1 n 2 o ruído então Figura 1025 Sinais MSK E que é o volume sob a região cônica da PDF conjunta de q 1 e q 2 Como n 1 e n 2 são VAs gaussianas independentes com variância N2 q 1 e q 2 são VAs gaussianas independentes com médias e 0 respectivamente cada uma com variância N2 Logo e Para calcular a integral em R 1 primeiro calculamos a integral na fita vertical sólida na Fig 1025b Ao longo da fronteira de R 1 Logo Mudando a variável para x 2N 12q 1 obtemos Como E b a energia por bit é Elog 2 M temos A integração também pode ser efetuada em coordenadas cilíndricas com uso da transformação q 1 ρN2 12 cos θ e q 2 ρN2 12 sen θ Os limites em ρ são 0 e os limites em θ πM e πM Assim Devido à simetria da configuração de sinais PCm i é a mesma para todo i Logo e Como no entanto o receptor ótimo é apenas um detector de fase similar ao mostrado na Fig 1024 Exercício 10610 Com base nessa observação podemos obter uma expressão alternativa para P eM Como p Θ θ da fase Θ de uma senoide acrescida de ruído gaussiano passafaixa é dada na Eq 986d A PDF p Θ θ na Eq 986d envolve A a amplitude da senoide e a variância do ruído Admitindo um filtro casado e ruído branco Eq 1011a Logo A Fig 1026 mostra um gráfico de P eM em função de E bN Para E bN 1 ruído fraco e M 2 a Eq 10108 pode ser aproximada por 107 Figura 1026 Probabilidade de erro do MSK EXPRESSÃO GERAL PARA A PROBABILIDADE DE ERRO DE RECEPTORES ÓTIMOS Até aqui consideramos esquemas simples nos quais as regiões de decisão podem ser encontradas com facilidade O método de cálculo de probabilidades de erro a partir do conhecimento das regiões de decisão também foi discutido Quando o número de dimensões do espaço de sinais aumenta fica mais difícil visualizar as regiões de decisão graficamente e em consequência o método perde poder Desenvolvamos agora uma expressão analítica para o cálculo da probabilidade de erro para um esquema geral Mário Da estrutura do receptor ótimo na Fig 1018 observamos que se m 1 for transmitido uma decisão correta será feita somente se Em outras palavras Se m 1 for transmitido então Fig 10l8 Seja em que os termos ρ ij são conhecidos com correlações cruzadas Assim se m 1 for transmitido em que n j é a componente de nt ao longo de φ jt Notemos que ρ 1k a k é uma constante e que as variáveis n j j 1 2 N são variáveis conjuntamente gaussianas cada uma com média zero e variância N2 Assim as variáveis b k são combinações lineares de variáveis conjuntamente gaussianas Por conseguinte as variáveis b 1 b 2 b M também são conjuntamente gaussianas A probabilidade de tomar uma decisão correta quando m 1 for transmitido pode ser calculada da Eq 10110 Reparemos que b 1 pode cair em qualquer lugar no intervalo Mais precisamente seja pb 1 b 2 b M m 1 a PDF conjunta de b 1 b 2 b M então a Eq 10110 pode ser expressa por em que os limites de integração de b 1 são e para as variáveis restantes os limites são b 1 Assim PCm 2 PCm M podem ser calculadas de modo similar e Exemplo 104 Conjunto Ortogonal de Sinais Nesse conjunto todos os M sinais s 1t s 2t s M t têm mesma energia e são mutuamente ortogonais Como exemplo a Fig 1027 mostra um conjunto de sinais ortogonais para M 3 Figura 1027 Sinais ortogonais O conjunto ortogonal s k t é caracterizado por Logo Devemos ainda supor que todos os sinais são equiprováveis o que leva a em que E k E é a energia de cada sinal Reparemos que a k tem o mesmo valor para todos os sinais Como as constantes a k entram na expressão apenas para fins de comparação Fig 1019b quanto são iguais podem ser desprezadas podemos fazer a k 0 Para um conjunto ortogonal temos ainda Portanto Assim das Eqs 10113b 10116 e 10118 temos quando m 1 for transmitido Reparemos que n 1 n 2 n M são variáveis gaussianas independentes com média zero e variância N2 As variáveis b k que são da forma αn k β também são variáveis gaussianas independentes A Eq 10119 mostra que as variáveis b 1 tem média E e variância N E2 Logo Como b 1 b 2 b M são independentes a densidade de probabilidade conjunta é o produto das densidades individuais e Mudando a variável de integração para e observando que obtemos Notemos que o conjunto de sinais é ortogonal e simétrico ou seja cada sinal tem a mesma relação com qualquer outro sinal no conjunto Assim Logo e A Fig 1028 mostra gráficos de P eM em função de E bN Essa figura mostra um comportamento interessante para o caso M À medida que M aumenta o desempenho melhora mas à custa de maior largura de banda Portanto esse é o caso típico da troca de largura de banda por desempenho Sinalização Multitom MFSK No caso da sinalização multitom M símbolos são transmitidos por M pulsos ortogonais de frequências ω 1 ω 2 ω M cada um com duração T M Assim os M pulsos transmitidos são da forma O receptor Fig 1029 é uma simples extensão do receptor binário O pulso de entrada é multiplicado pelas correspondentes referências cos ω it i 1 2 M O filtro Hfé casado ao pulso passafaixa pt de modo que Figura 1028 Probabilidade de erro de sinalização ortogonal e MFSK coerente Figura 1029 Receptor MFSK coerente O mesmo resultado é obtido se no iésimo banco em vez de usarmos um multiplicador e Hf usarmos um filtro casado ao pulso de RF t cos ω it As amostras das M saídas em t T M são b 1 b 2 b M Como os M pulsos de sinal são ortogonais a análise no Exemplo 104 é prontamente aplicável com probabilidade de erro Os resultados Mários são mostrados na Fig 1028 A integral que aparece no lado direito da Eq 10121 é calculada e o resultado é mostrado nos gráficos da Fig 1028 P eM em função de E b Essa figura mostra um interessante comportamento para o caso M Tomando o limite de P eM na Eq 10121 quando M pode ser mostrado que 5 Como a potência de sinal S i E bR b em que R b é a taxa de bits temos que para comunicação sem erro Logo Isso mostra que a sinalização Mária ortogonal pode transmitir dados sem erro a uma taxa de até 144S iN bitss à medida que M Fig 1028 Taxa de Erro de Bit BER de Sinalização Ortogonal Nos casos de PAM e MPSK mostramos que com aplicação do código de Gray P b P eM log 2 M Esse resultado não vale para MFSK pois os erros que predominam em PAM e MPSK são aqueles em que um símbolo é confundido com o vizinho imediato Podemos usar o código de Gray para alocar a símbolos vizinhos códigos que difiram somente por um dígito Em MFSK no entanto um símbolo tem igual probabilidade de ser confundido com qualquer dos M 1 símbolos remanescentes Portanto P a probabilidade de confundir um particular símbolo Mário por outro é dada por Caso um símbolo Mário difira por 1 bit de N 1 símbolos por 2 bit de N 2 símbolos e assim por diante então o número médio de bits em erro na recepção de um símbolo Mário é Esse é o número médio de bits em erro em uma sequência de k bits um símbolo Mário Em consequência a BER P b é igual a essa figura de mérito divida por k Dessa discussão emerge um fato muito interessante sempre que o receptor ótimo for usado a probabilidade de erro não depende de formas de onda específicas de sinal mas somente de suas configurações no espaço de sinais Barganha entre Largura de Banda e Potência em Sinais Mários Ortogonais Como ilustrado por Landau e Pollak 3 a dimensionalidade de um sinal é 2BT M 1 em que T M é a duração do sinal e B sua largura de banda essencial Para um espaço de sinais de N dimensões N M a largura de banda é B N 12T M Assim a redução da dimensionalidade N reduz a largura de banda Para comprovar que sinais de N dimensões podem ser transmitidos em N 12T M Hz construamos um conjunto específico de sinais Escolhamos os seguintes sinais ortogonais Esses k 1 pulsos ortogonais têm largura de banda total de k2ω o2π k2T M Hz Logo quando k 1 N a largura de banda é N 12T M Assim N 2T M B 1 Para alcançar uma dada probabilidade de erro existe um equilíbrio entre a energia média do conjunto de sinais e sua largura de banda Se reduzirmos a dimensionalidade do espaço de sinais a largura de banda de transmissão também será reduzida No entanto com isso as distâncias entre sinais se tornam menores devido à dimensionalidade reduzida Isso aumentará P eM Portanto para manter uma dada P eM baixa devemos separar os sinais ou seja devemos aumentar a energia Assim o custo de uma reduzida largura de banda é pago em termos de aumento na energia A barganha entre SNR e largura de banda também pode ser descrita de uma perspectiva da teoria da informação Seção 136 A sinalização Mária provê meios adicionais de barganha ou troca entre taxa de transmissão largura de banda de transmissão e potência de transmissão Isso nos permite mais flexibilidade no projeto de um sistema de comunicação adequado Assim para uma dada taxa de transmissão podemos barganhar largura de banda de transmissão por potência de transmissão Podemos também aumentar a taxa de informação por um fator k k log 2 M pagando um preço apropriado em termos de largura de banda de transmissão ou potência de transmissão A Fig 1028 mostrou que na sinalização multitom a potência transmitida decai com M No entanto a largura de banda de transmissão aumenta linearmente com M ou exponencialmente com o fator de aumento de taxa k M 2 k Assim sinalização multitom difere radicalmente das sinalizações com múltiplas amplitudes ou múltiplas fases No caso da última a largura de banda independe de M mas a potência transmitida aumenta com M 2log 2 M 2 2k k ou seja a potência aumenta exponencialmente com o fator de aumento de taxa k Portanto na sinalização multitom a largura de banda aumenta exponencialmente com k enquanto na sinalização multiamplitude ou multifase a potência aumenta exponencialmente com k A implicação prática disso é que devemos usar sinalização multiamplitude ou multiface se a largura de banda for limitada como em linhas telefônicas e sinalização multitom quando a potência de transmissão for limitada como em comunicação espacial Existe um equilíbrio entre esses dois extremos Investiguemos a possibilidade de aumentar a taxa de informação por um fator k simplesmente aumentando o número de pulsos binários transmitidos por um fator k Nesse caso a potência transmitida aumenta linearmente com k Além disso como a largura de banda é proporcional à taxa de pulso a largura de banda aumenta linearmente com k Portanto nesse caso podemos aumentar a taxa de informação por um fator k aumentando a largura de banda de transmissão e a potência de transmissão linearmente com k evitando assim o fantasma de aumento exponencial exigido em um sistema Mário No entanto agora devemos aumentar tanto a largura de banda como a potência enquanto anteriormente o aumento na taxa de informação poderia ser alcançado com o aumento da largura de banda ou da potência Isso mostra que temos grande flexibilidade na barganha entre vários parâmetros e portanto em nossa capacidade de casar recursos e requisitos Exemplo 105 Devemos transmitir 208 10 6 dígitos binários por segundo com P b 10 6 Três esquemas possíveis são considerados a Binário b ASK 16ário c PSK 16ário A PSD do ruído de canal é S nω 10 8 Determinemos em cada caso a largura de banda de transmissão e a potência de sinal necessária na entrada do receptor a Binário Consideremos a sinalização polar o esquema mais eficiente Isso fornece E bN 1135 A potência de sinal é S i E bR b Logo Admitindo pulsos passafaixa cosseno levantado com fator de decaimento 1 a largura de banda B T é b ASK 16ário Como cada símbolo 16ário transporta informação equivalente a log 2 16 4 dígitos binários precisamos transmitir apenas R M 208 10 64 052 10 6 pulsos 16ários por segundo Isso requer uma largura de banda B T de 520 kHz para pulsos em bandabase e 104 MHz para pulsos modulados admitindo pulsos cosseno levantado Temos ainda Portanto Para M 16 isso fornece E b 0499 10 5 Seja R M a taxa de pulsos Mários então c PSK 16ário Precisamos transmitir apenas R M 052 10 6 pulsos por segundo Para pulsos em bandabase isso requer uma largura de banda de 520 kHz Contudo PSK é um sinal modulado de modo que a necessária largura de banda é 2052 10 6 104 MHz E 108 CONJUNTOS EQUIVALENTES DE SINAIS O cálculo de probabilidades de erro é grandemente facilitado por meio de translação e rotação dos eixos coordenados A seguir mostraremos que tais operações são permitidas Consideremos um conjunto de sinais e suas correspondentes regiões de detecção como mostrado na Fig 1030a A probabilidade condicional PCm 1 é a probabilidade de que o vetor de ruído desenhado a partir de s 1 esteja em R 1 Reparemos que essa probabilidade não depende da origem do sistema de coordenadas Podemos trasladar o sistema de coordenadas de forma que desejarmos Isso equivale a trasladar o conjunto de sinais e as correspondentes regiões de decisão Assim PCm i para o sistema trasladado mostrado na Fig 1030b é idêntica à do sistema na Fig 1030a No caso de ruído gaussiano fazemos outra observação importante A rotação do sistema de coordenadas não afeta a probabilidade de erro pois a densidade de probabilidade do vetor de ruído tem simetria esférica Para mostrar isso consideremos a Fig 1030c que representa o conjunto de sinais na Fig 1030a após translação e rotação Reparemos que uma rotação do sistema de coordenadas equivale à rotação do conjunto de sinais no sentido oposto Aqui por conveniência aplicamos uma rotação ao conjunto de sinais e não ao sistema de coordenadas Pode ser visto que a probabilidade de que o vetor de ruído n desenhado a partir de s 1 esteja em R 1 é a mesma nas Figs 1030a e c pois essa probabilidade é dada pela integral da densidade de probabilidade de ruído p n n na região R 1 Como para ruído gaussiano p n n tem simetria esférica a probabilidade não será afetada por uma rotação da região R 1 Fica claro que para ruído de canal gaussiano aditivo translação e rotação do sistema de coordenadas ou translação e rotação do conjunto de sinais não afetam a probabilidade de erro Notemos que quando aplicamos rotação ou translação a um conjunto de sinais o conjunto resultante representa um conjunto de sinais totalmente diferente Mesmo assim os dois conjuntos têm idênticas probabilidades de erro Tais conjuntos são denominados conjuntos equivalentes Figura 1030 Translação e rotação dos eixos coordenados O exemplo a seguir ilustra a utilidade de translação e rotação de um conjunto de sinais no cálculo da probabilidade de erro Exemplo 106 Um conjunto de sinais PSK quaternários QAM é mostrado na Fig 1031a Admitindo que todos os símbolos sejam equiprováveis determinemos P eM para um canal AWGN com PSD de ruído N2 Esse problema já foi resolvido no Exemplo 104 para um valor genérico de M Aqui o resolveremos para M 4 para demonstrar o poder da rotação de eixos Como todos os símbolos são equiprováveis as fronteiras das regiões de decisão serão bissetores perpendiculares às retas que unem vários pontos de sinal Fig 1031a Agora Figura 1031 Análise de QPSK Isso pode ser calculado via integração da PDF conjunta das componentes n 1 e n 2 originadas em s 1 na região R 1 Essa integral dupla pode ser calculada com o emprego de limites adequados como na Eq 10106 Contudo o problema é grandemente simplificado se aplicarmos uma rotação de 45 ao conjunto de sinais como mostrado na Fig 1031b As regiões de decisão são retangulares representando as componentes de ruído ao longo de φ 1 e φ 2 por n 1 e n 2 respectivamente a Eq 10124 pode ser expressa como 1081 Conjunto de Sinais de Mínima Energia Como observado anteriormente existe um número infinito de conjuntos de sinais equivalentes Como a energia do sinal depende da distância entre o mesmo e a origem conjuntos equivalentes não têm necessariamente a mesma energia média Assim entre os infinitos conjuntos equivalentes possíveis aquele em que os sinais estão mais próximos da origem tem mínima energia média de sinal ou potência transmitida Sejam M mensagens m 1 m 2 m M com formas de onda s 1t s 2t s M t representadas pelos pontos s 1 s 2 s M respectivamente no espaço de sinais A energia média desses sinais é dada por Uma translação desse conjunto equivale à subtração de algum vetor a de cada sinal Agora usemos esta simples operação para produzir um conjunto de mínima energia Basicamente desejamos determinar o vetor a tal que a nova energia média seja mínima Podemos mostrar que a deve ser um centro de gravidade dos M pontos localizados em s 1 s 2 s M com massas Pm 1 Pm 2 Pm M respectivamente Para provar isso suponhamos que a energia seja mínima para alguma translação b Então Observemos que o segundo termo na expressão anterior se anula segundo a Eq 10127 pois Logo O valor dessa expressão é mínimo quando b a Notemos que a rotação das coordenadas não altera a energia e portanto não há necessidade de aplicar rotação ao conjunto de sinais para minimizar a energia após a translação Exemplo 107 Para o conjunto de sinais ortogonais binários na Fig 1032a determinemos o conjunto equivalente de sinais de mínima energia O conjunto de mínima energia para esse caso é mostrado na Fig 1032b A origem está no centro de gravidade dos sinais Por conveniência aplicamos uma rotação aos sinais As distâncias k 1 e k 2 devem ser tais que e Figura 1032 Conjuntos de sinais equivalentes A solução dessas duas equações fornece Os dois conjuntos de sinais Fig 1032a e b têm a mesma probabilidade de erro mas o último tem menor energia média Sejam as respectivas energias médias dos dois conjuntos então Reparemos que para Pm 1 Pm 2 1 o produto Pm 1Pm 2 é máximo quando Pm 1 Pm 2 12 neste caso e consequentemente Portanto e para o caso de sinais equiprováveis Nesse caso Quando k 1 k 2 os sinais na Fig 1032b são chamados sinais antipodais A probabilidade de erro do conjunto de sinais na Fig 1032a e Fig 1032b é igual à do conjunto na Fig 1022a e pode ser calculada da Eq 1097a Como um exemplo concreto escolhamos os sinais de base como senoides de frequência ω o 2πT M Logo 1082 Os sinais s 1t e s 2t são mostrados na Fig 1032c e a representação geométrica na Fig 2032a Os dois sinais se localizam a uma distância d da origem e a distância entre os sinais é d Para esse conjunto os sinais de energia mínima são dados por Gráficos desses sinais são mostrados na Fig 1032d Conjunto de Sinais Simplex Um conjunto de energia mínima equivalente a um conjunto equiprovável é denominado conjunto de sinais simplex ou transortogonais Um conjunto simplex pode ser deduzido como um conjunto equivalente ao conjunto ortogonal na Eq 10115 Para obter o conjunto de energia mínima a origem deve ser deslocada para o centro de gravidade do conjunto de sinais Para o caso bidimensional Fig 1033a o conjunto simplex é mostrado na Fig 1033c para o caso tridimensional Fig 1033b o conjunto simplex é mostrado na Fig1033d Notemos que a dimensionalidade do conjunto de sinais simplex é menor que a do conjunto ortogonal sendo a diferença igual a 1 Isso é verdadeiro para qualquer valor de M Pode ser mostrado que no caso em que energia é uma limitação o conjunto de sinais simplex é ótimo mínima probabilidade de erro para sinais equiprováveis envolvidos por ruído gaussiano branco 4 8 Figura 1033 Sinais simplex Podemos calcular a energia média de um conjunto simplex observando que o mesmo é obtido por translação do conjunto ortogonal por um vetor a dado na Eq 10127 Para sinais ortogonais Portanto em que E é a energia de cada sinal no conjunto ortogonal e φ i é o vetor unitário ao longo do iésimo eixo coordenado Os sinais no conjunto simplex são dados por Substituindo a Eq 10128 na Eq 10129 e observando que o conjunto φ i é ortogonal temos 109 1010 Portanto para o mesmo desempenho probabilidade de erro a energia média do conjunto de sinais simplex é 1 1M vezes a do conjunto de sinais ortogonais Para M 1 a diferença não é significativa Por isso e por conta da facilidade de geração sinais ortogonais e não sinais simplex são usados na prática sempre que M seja maior do que 4 ou 5 Na Seção 136 mostraremos que no limite M os sinais ortogonais assim como os simplex alcançam o limite superior de desempenho previsto pelo teorema de Shannon RUÍDO DE CANAL NÃO BRANCO COLORIDO Até aqui restringimos nossa análise ao ruído de canal gaussiano branco Essa análise pode ser estendida para o caso de ruído de canal não branco ou colorido gaussiano Para que possamos seguir adiante a expansão de KarhunenLöeve da Eq 1057 deve ser resolvida para ruído colorido com função de autocorrelação R x t t 1 Essa solução geral pode no entanto ser muito complexa para ser implementada 4 Por sorte para uma grande classe de ruídos gaussianos coloridos a densidade espectral de potência S nf é não zero na largura de banda B do sinal de mensagem Essa propriedade fornece uma alternativa eficaz de cálculo Usemos um filtro branqueador de ruído Hf na entrada do receptor em que O atraso t d introduzido para assegurar que o filtro branqueador seja causal realizável Consideremos um conjunto de sinais s it e um ruído de canal nt que não seja branco S nf não é constante Na entrada do receptor usemos um filtro branqueador de ruído Hf que transforme o ruído colorido em ruído branco Fig 1034 Contudo o filtro também altera o conjunto de sinais s it para s it com Agora temos um novo conjunto de sinais misturado com ruído gaussiano branco para o qual o receptor ótimo e correspondente probabilidade de erro podem ser determinados pelo método discutido anteriormente OUTROS CRITÉRIOS ÚTEIS DE DESEMPENHO O receptor ótimo usa a estratégia de decisão que faz melhor uso possível dos dados observados e de qualquer informação disponível a priori A estratégia também dependerá dos pesos alocados aos vários tipos de erro Neste capítulo até aqui admitimos que todos os erros tenham o mesmo peso ou mesmo custo Essa hipótese não se justifica em todos os casos e portanto podemos ser forçados a alterar a regra de decisão Figura 1034 Receptor Mário ótimo para ruído de canal não branco Receptor de Bayes Generalizado Caso conheçamos as probabilidades a priori e as funções de custo de erros de vários tipos o receptor que minimiza o custo médio de decisão recebe a denominação de receptor de Bayes e a regra de decisão regra de decisão de Bayes Reparemos que o receptor discutido até aqui é o receptor de Bayes sob a hipótese de que todos os erros têm custo igual pesos iguais Para generalizar essa regra consideremos e Pm iq probabilidade condicional de que m i tenha sido transmitido quando q foi recebido Se q foi recebido a probabilidade de que m j tenha sido transmitido é Pm jq para todo j 1 2 M Assim o custo médio de decidir m k é β k dado por Logo se q foi recebido o receptor ótimo decide m k se ou O uso da regra de Bayes mista na Eq 10133 leva a Reparemos que C kk é o custo de decidir m k quando m k foi transmitido Esse custo é em geral zero Se admitirmos pesos iguais a todos os outros erros e a regra de decisão na Eq 10134 se reduz à regra na Eq 1083 como esperado O receptor de Bayes generalizado para M 2 admitindo C 11 C 22 0 decide m 1 se Caso contrário o receptor decide m 2 Receptor de Máxima Verossimilhança A estratégia usada no receptor de Bayes discutido na subseção anterior é geral exceto que pode ser implementada somente quando as probabilidades a priori Pm 1 Pm 2 Pm M forem conhecidas Com frequência essa informação não é conhecida Se for esse o caso diversas possibilidades existem dependendo das hipóteses feitas Quando por exemplo não houver razão para esperar que qualquer um sinal seja mais provável que qualquer outro podemos admitir iguais probabilidades para todas as mensagens Para esse caso a regra de Bayes Eq 1083 se torna decidir m k se Observemos que p q qm k representa a probabilidade de observar q quando m k foi transmitido Assim o receptor escolhe o sinal que quando transmitido maximizará a possibilidade probabilidade de observar o q recebido Esse receptor é denominado receptor de máxima verossimilhança maximum likelihood receiver Notemos que o receptor de máxima verossimilhança é um receptor de Bayes para o custo na Eq 10135 sob a hipótese de que as probabilidades a priori das mensagens são iguais Em termos de conceitos geométricos o receptor de máxima verossimilhança decide a favor do sinal que for mais próximo do dado q recebido A implementação prática do receptor de máxima verossimilhança é a mesma do receptor de Bayes Fig 1018 e Fig 1019 sob a hipótese de que todas as probabilidades a priori sejam iguais a 1M Se o conjunto de sinais for geometricamente simétrico e se todas as probabilidades a priori forem iguais receptor de máxima verossimilhança as regiões de decisão para os vários sinais serão congruentes Nesse caso devido à simetria a probabilidade condicional de uma decisão correta é a mesma independentemente do sinal transmitido ou seja Como neste caso Assim no caso de conjuntos simétricos de sinais a probabilidade de erro do receptor de máxima verossimilhança independe da estatística da fonte Pm i Devemos no entanto perceber que se a estatística da fonte fosse conhecida a priori poderíamos usar a regra de decisão de Bayes para projetar um receptor melhor Fica claro que se a estatística da fonte não for conhecida o receptor de máxima verossimilhança se mostra muito atraente para um conjunto simétrico de sinais Nesse tipo de receptor podemos especificar a probabilidade de erro independentemente da estatística da fonte Receptor Minimax O projeto de um receptor com uma dada regra de decisão especifica completamente as probabilidades condicionais PCm i A probabilidade de erro é dada por Assim em geral para um dado receptor associado a uma regra de decisão a probabilidade de erro depende da estatística da fonte Pm i A probabilidade de erro é maior para certas estatísticas de fonte Seja P eM max a probabilidade de erro no pior caso possível esse valor representa um limite superior para a probabilidade de erro de um dado receptor Esse limite superior P eM max funciona como uma indicação da qualidade do receptor Cada receptor com uma dada regra de decisão terá certa P eM max O receptor que tiver menor limite superior para a probabilidade de erro ou seja P eM max mínima é denominado receptor minimax 1011 Figura 1035 Explicação do conceito minimax Ilustremos o conceito minimax para um receptor binário com sinalização onoff As PDFs condicionais da amostra da saída r do filtro receptor em t T b são pr1 e pr0 Essas são as PDFs de r para os pulsos on e off ou seja ausência de pulso respectivamente A Fig 1035a mostra essas PDFs com um dado limiar a Se recebermos r a escolhemos a hipótese sinal presente 1 e a área sombreada à direita de a é a probabilidade de falso alarme decidir sinal presente quando na verdade o sinal não está presente Se r a escolhemos a hipótese sinal ausente 0 e a área sombreada à esquerda de a é a probabilidade de falsa rejeição decidir sinal ausente quando na verdade o sinal está presente É óbvio que quanto maior o limiar a maior é o erro de falsa rejeição e menor o erro de falso alarme Fig 1035b A seguir determinemos a condição minimax para esse receptor Para o receptor minimax consideremos todos os possíveis receptores no caso em consideração todos os possíveis valores de a e determinemos a mínima probabilidade de erro ou custo que ocorre sob a pior distribuição de probabilidade a priori possível Escolhamos a a 1 como mostrado na Fig 1035b Com isso o pior caso possível ocorre quando P0 1 e P1 0 ou seja quando o sinal st estiver sempre ausente Nessa situação o tipo de erro é falso alarme Esses erros têm custo C 1 Se no entanto escolhermos a a 2 o pior caso possível ocorre quando P1 1 e P0 0 ou seja quando o sinal st estiver sempre presente causando apenas o erro de falsa rejeição Esses erros têm custo C 2 Fica evidente que com a escolha a α os custos de falso alarme e falsa rejeição são iguais com valor C α Portanto para todas as possíveis estatísticas de fonte o custo é C α Como C α C 1 e C 2 esse custo é o mínimo do máximo custo possível pois consideramos os piores casos que resultará para todos os valores de a Portanto a α representa a especificação minimax Dessa discussão segue que o receptor minimax é bastante conservativo Esse receptor é projetado sob a hipótese pessimista de que as estatísticas de fonte são as piores possíveis O receptor de máxima verossimilhança por sua vez é projetado sob a hipótese de que todas as mensagens são equiprováveis Pode ser mostrado que para um conjunto simétrico de sinais o receptor de máxima verossimilhança é na verdade o receptor minimax Isso pode ser provado com a observação de que para um conjunto simétrico a probabilidade de erro de um receptor de máxima verossimilhança iguais probabilidades a priori independe da estatística de fonte Eq 10137 Logo para um conjunto simétrico a probabilidade de erro P eM α de um receptor de máxima verossimilhança também é igual à P eM max do mesmo A seguir mostremos que não existe outro receptor cuja P eM max seja menor que α de um receptor de máxima verossimilhança para um conjunto simétrico Isso pode ser visto pelo fato de que para mensagens equiprováveis o receptor de máxima verossimilhança é ótimo por definição Para mensagens equiprováveis todos os outros receptores devem ter P eM α Portanto para esses receptores P eM max jamais pode ser menor que α Isso prova que o receptor de máxima verossimilhança é de fato o receptor minimax para um conjunto simétrico de sinais DETECÇÃO NÃO COERENTE Se a fase θ do pulso de RF recebido for desconhecida não podemos usar técnicas de detecção coerentes Nesse caso devemos lançar mão de técnicas de detecção não coerentes como a detecção de envelope Pode ser mostrado 9 10 que quando a fase θ do pulso recebido é aleatória e uniformemente distribuída em 0 2π o receptor ótimo é um filtro casado ao pulso de RF pt cos ω c t seguido por um detector de envelope um amostrador para colher amostras em t T b e um comparador para tomar a decisão Fig 1036 Chaveamento por Deslocamento de Amplitude O detector não coerente para ASK é mostrado na Fig 1036 O filtro Hf é um filtro casado ao pulso de RF ignorando a fase Isso significa que a amplitude A p da saída do filtro não será necessariamente máxima no instante de amostragem Contudo no instante de amostragem envelope será próximo do máximo Fig 1036 A saída do filtro casado é agora detectada por um detector de envelope O envelope é amostrado em t T b para a tomada de decisão Quando um 1 é transmitido a saída do detector de envelope em t T b é um envelope de uma onda senoidal de amplitude A p misturada a um ruído gaussiano de variância Nesse caso o envelope r tem densidade riceana dada por Eq 986a Quando A p σ n condição de pequeno ruído da Eq 986c temos Observemos que para pequeno ruído a PDF de r é praticamente gaussiana com media A p e variância Quando 0 é transmitido a saída do detector de envelope é um envelope de um ruído gaussiano de variância Nesse caso o envelope tem uma densidade de Rayleigh dada por Eq 981 A Fig 1037 mostra curvas para p r rm 1 e p r rm 0 Usando argumentos empregados anteriormente Fig 104 o limiar ótimo é determinado como o ponto em que as duas densidades se cruzam Assim o limiar ótimo a o é Figura 1036 Detecção não coerente de sinais digitais modulados para ASK Essa equação é satisfeita em boa aproximação por Como é usado filtro casado A p E p e NE p2 Além disso para ASK existem em média apenas R b2 pulsos não nulos por segundo Assim E b E p2 Logo Observemos que o limiar ótimo não é constante mas depende de E bN Esta é uma grande desvantagem em canais de desvanecimento Para um sinal forte E bN 1 O cálculo dessa integral é um tanto trabalhoso 4 Para um sinal forte ou seja E bN 1 a PDF riceana pode ser aproximada por uma PDF gaussiana Eq 986c e Em consequência Admitindo P m1 P m0 05 Figura 1037 PDFs condicionais na detecção não coerente de sinais ASK Usando a aproximação Qꞏ na Eq 883a temos Reparemos que em um receptor ótimo para E b 1 P m 1 é muito menor do que P m 0 Por exemplo em E b 10 P m 0 87 P m 1 Assim a interpretação de 0 como 1 é o tipo de erro predominante Na detecção não coerente a informação temporal é extraída do envelope do sinal recebido segundo os métodos discutidos na Seção 752 Para um detector coerente Isso parece similar à Eq 10142c caso não coerente Assim para grande valor de E b os desempenho de detectores coerente e de envelope são semelhantes Fig 1038 Figura 1038 Probabilidade de erro na detecção ASK não coerente Figura 1039 Detecção não coerente de FSK binária Chaveamento por Deslocamento de Frequência Um receptor não coerente para FSK é mostrado na Fig 1039 Os filtros H 0f e H 1f são casados aos dois pulsos de RF que correspondem a 0 e 1 respectivamente As saídas dos detectores de envelope em t T b são r 0 e r 1 respectivamente As componentes de ruído nas saídas dos filtros H 0f e H 1f são as VAs gaussianas n 0 e n 1 respectivamente com σ n0 σ n1 σ n Se 1 for transmitido m 1 no instante de amostragem o envelope r 1 tem a PDF riceana e r 0 é o envelope de ruído com densidade de Rayleigh A decisão é m 1 se r 1 r 0 e m 0 se r 1 r 0 Logo quando o binário 1 é transmitido um erro é cometido se r 0 r 1 P m 1 P r 0 r 1 O evento r 0 r 1 é o mesmo que o evento conjunto r 1 tem qualquer valor positivo e r 0 tem um valor maior que o de r 1 Isso é simplesmente o evento conjunto 0 r 1 r 0 r 1 Portanto Observemos que a integral é uma densidade riceana e portanto a integral é unitária Assim Para um filtro casado Para FSK E b E p e a Eq 10144a passa a De modo similar e Esse comportamento é similar ao da ASK não coerente Eq 10142c Novamente observemos que para E b 1 os desempenhos de FSK coerente e não coerente são semelhantes De um ponto de vista prático a FSK é preferível à ASK pois a FSK tem um limiar ótimo fixo enquanto o limiar ótimo da ASK depende de E b nível de sinal Portanto a ASK é particularmente suscetível ao desvanecimento de sinal A decisão da FSK envolve uma comparação entre r 0 e r 1 e as duas variáveis são igualmente afetadas pelo desvanecimento do sinal Assim o desvanecimento de sinal não degrada o desempenho da FSK não coerente como faz com a ASK não coerente Essa é uma vantagem notável da FSK não coerente em relação à ASK não coerente Além disso na FSK não coerente em contraste com a ASK não coerente as probabilidades P m 1 e P m 0 são iguais O preço pago por FSK para essa vantagem é a exigência de uma maior largura de banda MFSK Não Coerente Do ponto de vista prático é difícil manter a coerência de fase de M frequências Assim na prática a MFSK raramente é empregada A MFSK não coerente é muito mais comum O receptor para a MFSK não coerente é similar àquele para a FSK não coerente binária Fig 1039 mas com M bancos correspondentes às M frequências nos quais o filtro H if é casado ao pulso de RF pt cos ω it A análise é simples Se m 1 for transmitido r 1 é o envelope de uma senoide de amplitude A p misturada a ruído gaussiano passafaixa e r j j 1 2 M é o envelope do ruído gaussiano passafaixa Logo r 1 tem densidade de Rice enquanto r 2 r 3 r M têm densidade de Rayleigh Empregando os mesmos argumentos usados no caso coerente temos Usando o teorema binomial para expandir 1 e x M 1 temos Substituindo essa igualdade na Eq 10146a e identificando obtemos após trocarmos a ordem do somatório e da integral e A probabilidade de erro P eM é mostrada na Fig 1040 em função de E b Podemos observar que o desempenho da MFSK não coerente é apenas ligeiramente inferior ao da MFSK coerente especialmente para grandes valores de M PSK Diferencialmente Coerente Assim como é impossível demodular um sinal DSBSC com um detector de envelope também é impossível demodular a PSK que na verdade é DSBSC de forma não coerente Podemos no entanto demodular PSK sem a portadora local síncrona ou coerente usando o que é conhecido como PSK diferencial DPSK O receptor ótimo é mostrado na Fig 1041 O receptor é muito parecido com um detector de correlação Fig 103 que é equivalente a um detector de filtro casado Em um detector de correlação multiplicamos o pulso pt por um pulso pt gerado localmente No caso da DPSK tiramos proveito do fato de que os dois pulsos de RF usados na transmissão são idênticos a menos do sinal ou fase No detector na Fig 1041 multiplicamos o pulso que chega pelo pulso anterior Assim o pulso anterior funciona como um substituto para o pulso gerado localmente A única diferença é que o pulso anterior é ruidoso devido ao ruído de canal e isso tende a degradar o desempenho em comparação com a PSK coerente Quando a saída r é positiva o pulso atual é idêntico ao anterior quando r é negativa o pulso atual é o negativo do anterior Portanto a partir do conhecimento do primeiro dígito de referência é possível detectar todos os dígitos recebidos A detecção é simplificada com o uso da chamada codificação diferencial idêntica à discutida na Seção 736 no contexto de sinalização duobinária Para deduzir a probabilidade de erro da DPSK observemos que a DPSK por conta da codificação diferencial é essencialmente um esquema de sinalização ortogonal Um 1 binário é transmitido por uma sequência de dois pulsos p p ou p p ao longo de 2T b segundos sem transição Do mesmo modo um 0 binário é transmitido por uma sequência de dois pulsos p p ou p p ao longo de 2T b segundos com transição Qualquer das sequências de pulsos usadas para o binário 1 é ortogonal a qualquer das sequências de pulsos usadas para o binário 0 Como nenhuma portadora local é gerada para a demodulação a detecção é não coerente com energia efetiva de pulso igual a 2E p o dobro da energia do pulso p Todavia a energia realmente transmitida por dígito é apenas E p como no caso de FSK não coerente Em consequência o desempenho da DPSK é 3 dB superior do de FSK não coerente Portanto da Eq 10145 podemos escrever P b para a DPSK como Figura 1040 Probabilidade de erro para MFSK não coerente Figura 1041 Detecção da PSK diferencial 1012 Figura 1042 Probabilidade de erro da PSK DPSK e da FSK coerente e não coerente Essa probabilidade de erro Fig 1042 é 3 dB superior à de FSK não coerente e essencialmente igual à da PSK coerente com E b 1 Eq 1039 Isso era esperado pois vimos anteriormente que DPSK parece similar a PSK para grande SNR A dedução rigorosa da Eq 10147 pode ser encontrada na literatura 7 EXERCÍCIOS COM O MATLAB Neste grupo de exercícios computacionais damos ao leitor uma oportunidade de testar as implementações e o desempenho de sistemas de comunicação digital básicos EXERCÍCIO COMPUTACIONAL 101 SINALIZAÇÃO POLAR BINÁRIA COM PULSOS DIFERENTES Neste primeiro exercício validamos a análise de desempenho da sinalização polar binária apresentada na Seção 101 Detecção ótima filtro casado sempre é usada no receptor No programa Ex101m três pulsos diferentes são usados na sinalização polar Pulsos retangulares pt ut ut T Pulsos de meia senoide pt sen π tTut ut T Pulso raiz de cosseno levantado com fator de decaimento r 05 ou largura de banda 075T e truncado à duração de 6T Programa Matlab Ex101m Este exercício Matlab Ex101m efetua a simulação de transmissão polar binária em bandabase em canal AWGN O programa gera sinais polares em bandabase usando 3 formas de onda de pulso diferentes raiz de coseno levantado r05 retangular meia senoide e estima a taxa de erro bits BER para diferentes EbN clear clf L1000000 Número total de símbolos no experimento 1 milhão para exibir a forma de onda de pulso superamostramo o sinal por um fator fovsamp8 fovsamp8 Fator de superamostragem versus taxa de dados delayrc3 Geração de pulso raiz de coseno levantado fator de decaimento05 prcosrcosflt L 1 fovsamp sqrt 05 delayrc prcosprcos1endfovsamp1 prcosprcosnormprcos pcmatchprcosend11 Geração de pulso retangular prectones1fovsamp prectprectnormprect prmatchprectend11 Geração de pulso de meia senoide psinesin0fovsamp1pifovsamp psimatchpsineend11 Geração de dados aleatórios de sinal para sinalização polar sdata2roundrandL11 superamostragem para casar a taxa de superamostragem fictícia que é fovsampT Tl é a duração de cada símbolo supupsamplesdatafovsamp Identifica os atrasos de decisão devido à formatação de pulso e filtros casados delayrc22delayrcfovsamp delayrtfovsamp1 delaysnfovsamp1 Gera sinalização polar dos diferentes formatos de pulso xrcosconvsupprcos xrectconvsupprect xsineconvsuppsine t1200fovsamp subplot311 figwave1plottxrcosdelayrc2delayrc2199 titlea Pulso raiz de coseno levantado setfigwave1Linewidth2 subplot312 figwave2plottxrectdelayrtdelayrt199 titleb Pulso retangular setfigwave2Linewidth2 subplot313 figwave3plottxsinedelysndelysn199 titlec Pulso de meia senoide xlabelNúmero de períodos de símbolos de dados setfigwave3Linewidth2 Calcula a duração do sinal Lrcoslengthxrcos Lrectlengthxrect Lsinelengthxsine BER noiseqrandLrcos1 Gera ruído de canal AWGN for i110 Eb2Nii EbN em dB Eb2Nnum10Eb2Ni10 EbN numérico Varn12Eb2Nnum 1SNR é a variância do ruído signoissqrtVarn awgnoissignoisnoiseq AWGN Adiciona ruído aos sinais na saída do canal yrcosxrcosawgnois yrectxrectawgnois1Lrect ysinexsineawgnois1Lsine Primeiro aplica filtros casados z1convyrcospcmatch clear awgnois yrcos z2convyrectprmatch clear yrect z3convysinepsmatch clear ysine Amostra o sinal recebido e colhe amostras z1z1delayrc1fovsampend z2z2delayrt1fovsampend Decisão baseada no sinal da amostra decl1signz11L decl2signz21L dec3signz31L Compara com os dados originais para calcular a BER para os três pulsos BERBERsumabssdatadecl12L sumabssdatadecl22L sumabssdatadecl32L end Qi05erfcsqrtEb2Nnum Calcula a BER analítica figure2 subplot111 figbersemilogyEb2NQkEb2NBER1b Eb2NBER2roEb2NBER3mv legendAnalítico Raiz de coseno levantadoRetangularMeia senoide xlabelEbN dB ylabelBER setfigberLinewidth2 figure3 Psd1fpwelchxrcostwosidedfovsamp Psd2fpwelchxrecttwosidedfovsamp Psd3fpwelchxsinetwosidedfovsamp figpsd1semilogyffovsamp2fftshiftPsd1 ylabelPower spectral density xlabelfrequency in unit of 1T ttltitlea PSD usando pulso raiz de coseno levantado fator de decaimento r05 Figura 1043 Ilustração dos sinais modulados a partir de três diferentes formatos de pulso a pulso raiz de cosseno levantado com fator de decaimento r 05 b pulso retangular c pulso de meia senoide Figura 1044 BER da detecção ótima filtro casado de sinalização polar usando três diferentes formatos de pulso a pulso raiz de cosseno levantado com fator de decaimento r 05 b pulso retangular c pulso de meia senoide Esse programa primeiro mostra os sinais binários modulados por sinalização polar na Figura 1043 As 3 diferentes formas de onda são resultado direto dos três diferentes formatos de pulso Mesmo assim os desempenhos de taxa de erro de bits BER são idênticos como mostrado na Fig 1044 Isso confirma os resultados da Seção 101 o desempenho da sinalização independe da forma do pulso O programa também calcula a densidade espectral de potência para a sinalização polar usando os três sinais modulados diferentes Da Fig 1045 podemos ver que o pulso raiz de cosseno levantado requer a mínima largura de banda A sinalização de meia senoide exibe o maior lóbulo principal e menor largura de banda total O pulso retangular de bordas abruptas é o menos eficiente do ponto de vista de largura de banda Assim apesar de as simulações resultarem em mesma BER as três distintas modulações polares exigem larguras de banda de canal muito diferentes Densidade espectral de potência Figura 1045 Densidade espectral de potência da transmissão polar binária usando três diferentes formatos de pulso a pulso raiz de cosseno levantado com fator de decaimento r 05 b pulso retangular NRZ c pulso de meia senoide EXERCÍCIO COMPUTACIONAL 102 SINALIZAÇÃO BINÁRIA ONOFF A seguir apresentamos um exercício que implementa e testa a sinalização onoff assim como um tipo mais geral de sinalização ortogonal Recordemos que a sinalização onoff é uma forma especial de sinalização binária ortogonal O programa MATLAB Ex102m mede para os dois esquemas de sinalizações a BER no receptor Frequência em 1T Densidade espectral de potência Frequência em 1T Figura 1046 Formas de onda de dois pulsos usados em sinalização binária ortogonal linha cheia pulso de meia senoide linha com círculos pulso senoidal Figura 1047 Medida de BER e comparação com BER analítica Densidade espectral de potência Para a sinalização onoff continuaremos a usar o pulso raiz de cosseno levantado do Exercício Computacional 101 Para a sinalização ortogonal mais geral usaremos duas formas de pulsos de duração T A Fig 1046 mostra esses pulsos ortogonais Por fim a Fig 1047 mostra a BER medida para ambos os esquemas de sinalização em comparação com a BER obtida da análise Não é surpresa que os dois resultados medidos mostrem muito boa concordância com a BER analítica Figura 1048 Diagrama de olho da componente real em fase da transmissão QAM16 na saída do receptor de filtro casado EXERCÍCIO COMPUTACIONAL 103 MODULAÇÃO QAM16 Nesse exercício consideraremos uma constelação QAM mais complexa para transmissão QAM Mária foi analisada na Seção 1066 No programa MATLAB Ex103m controlamos a largura de banda de transmissão aplicando o pulso raiz de cosseno levantado com fator de decaimento de 05 como a forma de pulso em bandabase Para cada período de símbolo T oito amostras uniformes são usadas para aproximar e emular sinais em tempo contínuo A Fig 1048 ilustra o diagrama de olho aberto da parte real em fase da saída do filtro casado antes da amostragem Pouca ISI é observada no ponto de amostragem validando o uso da forma de pulso raiz de cosseno levantado em conjunto com o detector de filtro casado para transmissão sem ISI Frequência em 1T Programa Matlab Ex103m Este exercício Matlab Ex103m efetua a simulação de transmissão polar QAM16 em bandabase em canal AWGN Pulso raiz de cossenoo levantando com fator de decaimento 05 é usado Receptor de filtro casado é projetado para detectar os símbolos o programa estima a taxa de erro de símbolo SER para diferentes EbN clearclc L1000000 Número total de símbolos no experimento 1 milhão Para exibir a forma de onda do pulso superamostramo o sinal por um fator fovsamp8 fovsamp0 Fator de superamostragem versus taxa de dados delayrc4 Geração de pulso raiz de cossenoo levantado fator de decaimento 05 prcosrcosflt1 1 1 fovsamp sqrt 05 delayrc prcosprcos1endfovsamp1 prcosprcosnormprcos pcmatchprcosend11 Geração de dados aleatórios de sinal para sinalização polar sdata4roundrandL12roundrandL13 j4roundrandL12roundrandL13 superamostragem para casar a PROGRAMA MATLAB Ex1l2m taxa de superamostragem que é fovsampT T1 é a duração de cada símbolo supupsamplesdatafovsamp Identifica os atrasos de decisão devido à formatação de pulso delayrc2delayrcfovsamp Gera sinalização QAM16 com formatação de pulso xrcosconvsupprcos Calcula a duração do sinal Lrcoslengthxrcos SER noiseqrandnLrcos1jrandnLrcos1 Es10 gera símbolo energy for i19 Eb2Nii2 Eb2Nnum10Eb2Ni10 EbN em dB EbN numérico VarnEs2Eb2Nnum 1SNR é a variância do ruído signoissqrtVarn2 desviopadrão AWGN awgnoiseisqrtnoiseq Adiciona ruído aos sinais na saída do canal yrcosxrcosawgnoise Primeiro aplica filtros casados zlconvyrcospcmatchclear awgnois yrcos Amostra o sinal recebido e colhe amostras zlzldelayrc1fovsampend Decisão baseada no sinal da amostra declsignrealzl1Lsignrealzl1L2 signrealzl1L2 jsignimagzl1Lsignimagzl1L2 signimagzl1L2 Compara com os dados originais para calcular a SER para os três pulsos BERBERsumabssdatadecl2L SERSERsumsdatadeclL Qi305erfcsqrt2Eb2Nnum52 end Calcula a SER analítica Este exercício Matlab Ex1l2m gera Figura 1049 Probabilidade de erro de símbolo de QAM16 usando pulso raiz de cosseno levantado e comparação com resultado analítico Como o sinal usa constelações QAM16 em vez de medirmos a BER medimos a taxa de erro de símbolo SER symbol error rate no receptor A Fig 1049 ilustra que a SER medida apresenta excelente concordância com o resultado analítico da Seção 106 O sucesso do receptor ótimo para QAM16 também pode ser percebido com a observação das partes real e imaginária das amostras tomadas na saída do filtro casado Usando um ponto para representar cada amostra medida criamos um diagrama de espalhamento que demonstra com clareza a confiabilidade da decisão tomada a seguir Caso os pontos no diagrama de espalhamento estejam bem agrupados em torno do ponto de constelação original é grande a possibilidade de a decisão ser confiável Em caso contrário numerosos erros de decisão podem ocorrer A Fig 1050 ilustra o diagrama de espalhamento das medidas tomadas no receptor quando E b 18 dB O estreito agrupamento dos pontos de amostras medidos é uma forte indicação de que a SER resultante será muito baixa EXERCÍCIO COMPUTACIONAL 104 DETECÇÃO FSK NÃO COERENTE Para testar os resultados de um receptor FSK binário não coerente apresentamos o programa MATLAB Ex104m que supõe a ortogonalidade das duas frequências usadas na FSK Como esperado os resultados de BER medida mostrados na Fig 1051 concordam muito bem com resultados de BER analítica sinais onoff em bandabase usando o formato de pulso Figura 1050 Diagrama de espalhamento da saída do filtro casado para a sinalização QAM16 com pulso raiz de cosseno levantado quando E b 18 dB Figura 1051 BER de detecção não coerente da FSK binária raiz de cosseno levantado fator de decaimento 05 e sinal EXERCÍCIO COMPUTACIONAL 105 DETECÇÃO NÃO COERENTE DE PSK DIFERENCIAL BINÁRIA Para testar os resultados de um sistema de chaveamento por deslocamento de frequência apresentamos o programa MATLAB Ex105m Como nos casos anteriores resultados de BER medida mostrados na Fig 1052 exibem muito boa concordância com a BER analítica ortogonal em bandabase Figura 1052 Resultados de BER analítica a partir de simulação da detecção não coerente da DPSK binária círculos antes de estimar a taxa de erro de bits BER para diferentes 1 2 3 REFERÊNCIAS S Pasupathy Minimum Shift Keying A Spectrally Efficient Modulation IEEE Commun Soc Mag vol 17 pp 1422 July 1979 J J Spilker Digital Communications by Satellite PrenticeHall Englewood Cliffs NJ 1977 H J Landau and H O Pollak Prolate Spheroidal Wave Functions Fourier Analysis and Uncertainty III The Dimensions of Space of Essentially Time and BandLimited Signals Bell Syst Tech J vol 41 pp 12951336 July 1962 razões EbN0 para efeitos de exibição e comparação 4 5 6 7 8 9 10 a b c H LVan Trees Detection Estimation and Modulation Theory vols I II and III Wiley NewYork 19681971 A J Viterbi Principles of Coherent Communication McGrawHill New York 1966 H J Landau and D Slepian On the Optimality of the Regular Simplex Code Bell Syst Tech J vol 45 pp 12471272 Oct 1966 S GWilson Digital Modulation and Coding Prentice Hall Upper Saddle River NJ 1996 A V Balakrishnan Contribution to the SpherePacking Problem of Communication Theory J Math Anal Appl vol 3 pp 485506 Dec 1961 E Arthurs and H Dym On Optimum Detection of Digital Signals in the Presence of White Gaussian NoiseA Geometric Interpretation and a Study of Three Basic Data Transmission Systems IRE Trans Commun Syst vol CS10 pp 336372 Dec 1962 B P Lathi An Introduction to Random Signals and Communication Theory International Textbook Co Scranton PA 1968 EXERCÍCIOS A Fig E1011 ilustra o chamado filtro integradordescarregador O amplificador de realimentação é um integrador ideal A chave s 1 se fecha momentaneamente e se abre no instante t T b descarregando toda a carga em C e fazendo com que a saída vá a zero A chave s 2 amostra a saída imediatamente antes da ação de descarregamento Esboce o gráfico da saída p o t quando um pulso quadrado pt é aplicado à entrada do filtro Esboce o gráfico da saída p o t do filtro casado ao pulso quadrado pt Mostre que o desempenho do filtro integradordescarregador é idêntico ao do filtro casado ou seja mostre que ρ é o mesmo nos dois casos Figura E1011 Uma alternativa ao filtro ótimo é um filtro subótimo em que admitimos uma forma de filtro específica e ajustamos seus parâmetros para maximizar ρ Tais filtros são inferiores ao filtro ótimo mas podem ter projeto mais simples Para um pulso retangular pt de altura A e largura T b na entrada Fig E1012 determine ρ max quando no lugar do filtro casado for usado um filtro RC de um estágio com Hω 11 jωRC Admita ruído gaussiano branco com PSD 2 Mostre que desempenho ótimo é obtido quando 1RC 126T b Sugestão Faça dρ 2 dx 0 x T b RC Figura E1012 clearclf a b c a b Na detecção coerente de PPM binária um pulso p 0 t de meia largura é transmitido com diferentes atrasos para os dígitos binários 0 e 1 no intervalo 0 t T b Note que A transmissão PPM binária consiste simplesmente na transmissão de O ruído de canal é AWGN com nível de espectro 2 Determine a arquitetura do receptor ótimo para esse sistema binário Esboce o gráfico da resposta do filtro no domínio do tempo Se P0 04 e P1 06 determine o limiar ótimo e a resultante taxa de erro de bit O projetista foi mal informado e crê que P0 05 P1 e projeta um receptor com base nessa informação Determine a real probabilidade de erro quando na verdade as probabilidades a priori forem P0 04 e P1 06 Compare esse resultado com o da parte b Na detecção coerente de modulações binárias em chirp a transmissão em 0 t T b é O ruído de canal é AWGN com espectro 2 Os dígitos binários são equiprováveis Projete o receptor ótimo Calcule a probabilidade de erro de bit para o receptor ótimo na parte a Em esquemas coerentes um pequeno piloto é adicionado para sincronização Como o piloto não transporta informação causa degradação de P b Considere um esquema PSK coerente que usa os seguintes dois pulsos de duração T b sendo A m sen ω ct o piloto Mostre que quando o ruído de canal é gaussiano branco Sugestão Use a Eq 1025b Para sistemas de comunicação binária polar cada erro de detecção tem algum custo Suponha que quando a transmissão m 1 for lida como m 0 no receptor uma penalidade quantitativa ou custo C 10 seja alocada ao erro e da mesma forma um custo C 01 seja alocado quando a transmissão m 0 for lida como m 1 Para o caso polar em que P m0 P m1 05 mostre que para ruído de canal gaussiano branco o limiar ótimo que minimiza o custo total não é 0 mas a o dado por L1000000 Número total de símbolos no experimento 1 milhão a b a b a b c Sugestão Veja a Sugestão para o Exercício 8211 Para um sistema binário polar com mensagens de probabilidades distintas mostre que o limiar ótimo de decisão a o é dado por em que C 01 e C 10 são os custos de erros como explicado no Exercício 1024 e P m0 e P m1 são as probabilidades de 0 e 1 serem transmitidos respectivamente Sugestão Veja a Sugestão para o Exercício 8211 Para comunicação 4ária mensagens são escolhidas dentre quatro símbolos m 1 00 m 2 01 m 3 10 e m 4 11 transmitidos por pulsos pt 0 e 3pt respectivamente Um filtro casado a pt é usado no receptor Denote a energia de pt por E p O ruído de canal é AWGN com espectro 2 Seja r a saída do filtro casado em t m esboce o gráfico de p rrm i 00 01 10 e 11 para os quatro símbolos de mensagens supondo que sejam equiprováveis Para minimizar a probabilidade de erro de detecção na parte a determine os limiares ótimos de decisão e a correspondente probabilidade de erro P e em função da razão entre energia média de símbolo e ruído Dados binários são transmitidos por um pulso pt para 0 e por um pulso γpt para 1 Seja γ 1 Mostre que o receptor ótimo para esse caso consiste em um filtro casado a pt mais um limiar de decisão como mostrado na Fig E1027 Determine a probabilidade de erro P e desse receptor em função de E b supondo que 0 e 1 sejam equiprováveis Figura E1027 Em uma transmissão binária um pulso cosseno levantado pt com fator de decaimento de 02 é usado para transmissão polar em bandabase O canal ideal passabaixos tem largura de banda f 0 5000 Hz Se o ruído de canal for AWGN com espectro 2 determine o filtro receptor ótimo e esboce o gráfico de sua resposta de frequência Se o ruído de canal for gaussiano com espectro determine o filtro receptor ótimo e esboce o gráfico de sua resposta de frequência Em um sistema FSK sinais binários de RF são transmitidos como O ruído de canal é AWGN Suponha que as entradas binárias sejam equiprováveis Deduza o receptor coerente ótimo e o limiar ótimo Determine a mínima probabilidade de erro de bit É possível determinar Δω para minimizar a probabilidade de erro de bit Para exibir a forma de onda do pulso superamostramos o sinal a b a b a b Considere quatro sinais no intervalo de tempo 0 T Aplique o procedimento de GramSchmidt e determine um conjunto de sinais de base ortogonais para esse espaço de sinais Qual é a dimensão desse espaço de sinais Os sinais de base de um espaço de sinais tridimensional são dados por φ 1 t pt φ 2 t pt T o e φ 3 t pt 2T o em que Esboce as formas de onda dos sinais representados por nesse espaço Determine a energia de cada sinal na parte a Refaça o Exercício 1042 para Para os três sinais básicos dados no Exercício 1043 suponha que um sinal seja escrito como Use os três sinais básicos em termos de mínima energia de erro para determinar a melhor aproximação de xt Qual é a mínima energia de erro da aproximação Com a adição de mais um sinal de base determine a redução na mínima energia de erro da aproximação Admita pt como no Exercício 1042 e Esboce os sinais representados por 1 2 3 1 4 2 1 4 4 2 3 2 3 4 1 e 2 4 2 2 0 neste espaço Determine a energia de cada sinal por um fator fovsamp 8 c a b c a b a b c Determine o ângulo entre todos os pares de sinais Sugestão Recorde que o produto interno de dois vetores a e b está relacionado ao ângulo entre os dois vetores por a b abcosθ Admita pt como no Exercício 1042 e S kt Pt k 1T 0 k 1 2 3 4 5 Quando s kt é transmitido o sinal recebido sob ruído n wt é Dado um ruído n wt gaussiano branco com espectro 2 faça o seguinte Defina um conjunto de funções de base para yt tal que Caracterize a variável aleatória y i quando s kt é transmitido Determine a função densidade de probabilidade conjunta da variável aleatória y 1 y 5 quando s kt é transmitido Para certo processo aleatório gaussiano estacionário xt é dado que R x τ e τ 2 Determine a PDF conjunta das VAs xt 05 xt 1 e xt 2 Um ruído gaussiano é caracterizado por suas média e função de autocorrelação Um ruído gaussiano estacionário xt tem média zero e função de autocorrelação R x τ Se xt for a entrada de um sistema linear invariante no tempo com resposta ao impulso ht determine a média e a função de autocorrelação da saída yt do sistema linear Se xt for a entrada a um sistema linear variante no tempo cuja saída é mostre o tipo de processo de saída gerado e determine a média e função de autocorrelação da saída yt do sistema linear Determine a PSD de saída o sistema linear na parte a do Exercício 1053 Determine a PSD de saída o sistema linear na parte b do Exercício 1053 Considere o préprocessamento da Fig 1017 O ruído de canal n wt é gaussiano branco Determine a energia de sinal de rt e qt no intervalo de tempo 0 T M Prove que embora rt e qt não sejam iguais ambos encerram todo o conteúdo útil de sinal Mostre que a função densidade de probabilidade conjunta de q 1 q 2 q N sob a hipótese de que s kt tenha sido transmitido pode ser escrita como Considere um ruído de canal branco aditivo Após projeção do sinal o vetor de sinal recebido N 1 é dado por q s i n quando a mensagem m i é transmitida O vetor de ruído n tem função densidade de probabilidade conjunta fovsamp16 Fator de superamostragem versus taxa de dados a b c a b Determine o detector MAP que pode minimizar a probabilidade de erro de detecção Siga as deduções do detector ótimo para ruído AWGN para obter a estrutura do receptor ótimo para esse ruído de canal branco não gaussiano Mostre a diferença entre as regiões de decisão para ruídos gaussiano e não gaussiano em um espaço de sinais bidimensional N 2 Uma fonte binária emite dados a uma taxa de 400000 bits Considere chaveamento multiamplitude PAM com M 2 16 e 32 Em cada caso determine as necessárias potência de sinal na entrada do receptor e mínima largura de banda de transmissão quando S n ω 10 8 e a taxa de erro de bit P b deve ser menor que 10 6 Refaça o Exercício 1063 para a PSK Mária Uma fonte emite M mensagens equiprováveis que são alocadas a sinais s 1 s 2 s M como mostrado na Fig E1065 Determine para um canal AWGN o receptor ótimo e a correspondente probabilidade de erro P eM em função de E b Figura E1065 Uma fonte emite oito mensagens equiprováveis que são alocadas a sinais QAM s 1 s 2 s M como mostrado na Fig E1066 Determine para um canal AWGN o receptor ótimo Determine as regiões de decisão e probabilidade de erro P eM do receptor ótimo em função de E b Figura E1066 Prove para E b 1 e M 2 que a aproximação da probabilidade de erro para MSK na Eq 10109b é válida Use a aproximação na Eq 10109b para a PSK16 para comparar as probabilidades de erro de símbolo de QAM16 e a PSK16 Calcule aproximadamente quantos decibéis são perdidos de E b SNR com a PSK 16 em relação à QAM16 ignorando a diferença constante na função Q Compare as probabilidades de erro de símbolo da PAM16 PSK16 e QAM16 Esboce gráficos dessas probabilidades em função de E b delayrc3 a b c a b c Mostre que para a MPSK o receptor ótimo da forma na Fig 1019a equivale a um comparador de fase Supunha que todas as mensagens sejam equiprováveis e um canal AWGN Uma sinalização ternária tem três sinais para transmissão m 0 0 m 1 2pt m 2 2 pt Se Pm o Pm 1 Pm 2 13 determine as regiões de decisão ótimas e P eM do receptor ótimo em função de Admita um canal AWGN Determine P eM em função de Refaça as partes a e b para Pm o 12 e Pm 1 Pm 2 025 Uma configuração de sinal 16ária é mostrada na Fig E10612 Escreva uma expressão não calcule as integrais para a P eM do receptor ótimo supondo que todos os símbolos sejam equiprováveis Admita ainda um canal AWGN Uma configuração de cinco sinais em um espaço bidimensional é mostrada na Fig E10613 Escolha e esboce gráficos das formas de onda dos cinco sinais Figura E10612 No espaço de sinais localize as regiões de decisão ótimas admitindo canal AWGN Determine a probabilidade de erro P eM em função de do receptor ótimo Figura E10613 Uma configuração de sinal QAM16 é mostrada na Fig E10614 Supondo que todos os símbolos sejam equiprováveis determine a probabilidade de erro P eM em função de E b do receptor ótimo considerando um Geração do pulso raiz de cosseno levantado fator de decaimento 05 a b c b canal AWGN Compare o desempenho desse esquema com o resultado da QAM de 16 pontos retangular da Seção 106 Figura 10614 Os vértices de um hipercubo de N dimensões são um conjunto de 2 N sinais em que φ 1 t φ 2 t φ Nt é um conjunto de N sinais ortogonais e a kj é 1 ou 1 ꞏ Note que todos os sinais estão a uma distância da origem e formam um cubo de dimensão N Esboce a configuração de sinais no espaço de sinais para N 1 2 e 3 Para cada configuração na parte a esboce gráficos de um possível conjunto de formas de onda Se todos os 2 N símbolos forem equiprováveis determine o receptor ótimo e a probabilidade de erro P eM do receptor ótimo em função de E b admitindo um canal AWGN Um conjunto ortogonal de sinais é dado por Um conjunto biortogonal de sinais é formado a partir do conjunto ortogonal acrescentando a esse o negativo de cada sinal Assim ao conjunto ortogonal adicionamos outro conjunto Isso produz 2N sinais em um espaço de N dimensões Supondo que todos os sinais sejam equiprováveis e um canal AWGN obtenha a probabilidade de erro para o receptor ótimo Como a largura de banda do conjunto biortogonal se compara com a do conjunto ortogonal a Qual é o conjunto de sinais de energia mínima equivalente a um conjunto de sinais onoff binários Qual é o conjunto de sinais de energia mínima equivalente a um conjunto de sinais FSK binários prcosrcosflt1 1 fovsampsqrt 05 delayrc c a b c d a b c d a b c Usando conceitos geométricos relativos a espaço de sinais explique por que os conjuntos on off binário e ortogonal binário têm idênticas probabilidades de erro e por que os requisitos de potência no caso polar binário são 3 dB menores que nos casos de conjuntos onoff e ortogonal Uma fonte emite quatro mensagens equiprováveis m 1 m 2 m 3 e m 4 codificadas pelos sinais s 1 t s 2 t s 3 t e s 4 t respectivamente com Cada um desses sinais tem duração 0 t T M e é zero fora desse intervalo Os sinais são transmitidos por canais AWGN Represente esses sinais em um espaço de sinais Determine as regiões de decisão Obtenha um conjunto de sinais de mínima energia equivalente Determine o receptor ótimo Um esquema de sinalização quaternária usa quatro formas de onda em que φ 1 t e φ 2 t são sinais de base ortogonais Todos os sinais são equiprováveis e o ruído de canal é gaussiano branco com PSD S n ω 10 4 Represente esses sinais em um espaço de sinais e determine as regiões de decisão ótimas Calcule a probabilidade de erro do receptor ótimo Determine o conjunto de sinais de mínima energia equivalente Determine a redução na energia média quando o conjunto de sinais de mínima energia equivalente é transmitido Um sistema de sinalização ortogonal com transmissão Determine o conjunto de sinais de mínima energia equivalente Represente o conjunto de sinais de mínima energia equivalente no espaço tridimensional Determine a redução na energia média quando o conjunto de sinais de mínima energia equivalente é usado Um esquema de sinalização ternária M 3 usa as três formas de onda A taxa de transmissão é 1T 0 200 quilossímbolos por segundo As três mensagens são equiprováveis e o ruído de canal é gaussiano branco com PSD S n ω 2 10 6 prcosprcos1endfovsamp1 a b c a b c a b c d Determine as regiões de decisão do receptor ótimo Determine o conjunto de sinais de mínima energia e esboce gráficos das formas de onda Calcule as energias médias do conjunto de sinais e do conjunto de sinais de mínima energia equivalente determinado na parte a Refaça o Exercício 1085 para Pm 1 05 Pm 2 025 e Pm 3 025 Um esquema de sinalização binária usa duas formas de onda veja o Capítulo 3 para as definições desses sinais A taxa de sinalização é de 1000 pulsos por segundo Os dois sinais são equiprováveis e o ruído de canal é gaussiano branco com PSD S n ω 2 10 4 Determine o conjunto de sinais de mínima energia equivalente Determine a probabilidade de erro do receptor ótimo Use um adequado espaço de sinais ortogonais para representar esses sinais como vetores Sugestão Use a ortogonalização de GramSchmidt para determinar apropriados sinais de base φ 1 t e φ 2 t Em uma transmissão binária com mensagens m 0 e m 1 os custos são definidos como C 00 C 11 1 e C 01 C 10 4 As duas mensagens são equiprováveis Determine o receptor de Bayes ótimo Em uma transmissão binária com mensagens m 0 e m 1 os custos são definidos como C 00 C 11 1 e C 01 C 10 C A probabilidade de m 0 é 13 e a de m 1 23 Determine o receptor de Bayes ótimo Determine a mínima probabilidade de erro do receptor Determine o receptor de máxima verossimilhança Compara as probabilidades de erro dos receptores nas partes b e c Desenhe gráficos das probabilidades de erro das detecções não coerentes da ASK binária da FSK binária e da DPSK binária e compareas Deduza a probabilidade de erro de símbolo para diferentes representações da sinalização QPSK prcosprcosnormprcos A irrealizabilidade do filtro pode ser prontamente entendida de modo intuitivo quando o instante de tomada de decisão é t m T o Nesse caso somos forçados a tomar uma decisão antes que o pulso completo tenha sido alimentado ao filtro t m T o Isso requer um filtro profético que seja capaz de responder a entradas antes que essas sejam aplicadas Como sabemos apenas filtros irrealizáveis não causais podem executar essa tarefa Isso advém do fato de a transformada inversa de Pf 2 ser simétrica em relação a t 0 pois Pf 2 é uma função par de f Exercício 311 A saída proveniente do pulso de entrada anterior termina e tem valor zero em t T o Do mesmo modo a saída proveniente do pulso de entrada seguinte tem início e valor zero em t T o Portanto no instante de tomada de decisão T o não ocorre interferência intersimbólica Como k na Eq 1021b é arbitrário escolhemos k N2 por conveniência Se a taxa de transmissão for R b bits por segundo a potência de sinal S i é S i E b R b e E b N S i NR b Observemos que S i NR b é similar ao parâmetro γ relação sinalruído S i NB usada em sistemas analógicos Também podemos usar QAM multiplexação em quadratura para dobrar a eficiência de largura de banda Existe também um espectro de pt centrado em 2ω c que ao final é eliminado pelo filtro casado a pt Se φ kt for completo ortogonalidade implica e a Eq 1052 se torna A rigor essa igualdade não é verdadeira para todo o intervalo 0 T o O conjunto de pontos para os quais a igualdade não vale é um conjunto de medida zero Na Eq 1056c as letras ms representam no sentido quadrático médio mean square NT Caso essas probabilidades sejam desconhecidas devemos usar outros critérios de mérito como máxima possibilidade ou minimax a serem discutidos posteriormente O código de Gray pode ser construído da seguinte maneira um código binário natural NBC natural binary code de n dígitos é construído correspondendo a 2 n números decimais Se b 1 b 2 b n for uma palavra desse código a correspondente palavra do código de Gray g 1 g 2 g n é obtida pela regra Assim para n 3 o código binário 000 001 010 011 100 101 110 111 é transformado no código de Gray 000 001 011 010 110 111 101 100 Para o caso não coerente pulsos em bandabase devem ter a mesma polaridade por exemplo 0 pt 2pt M 1pt Aqui ignoramos o espalhamento de banda na fronteira Esse espalhamento é da ordem de 1T M Hz A real largura de banda excede N 12T M por esse valor Consideramos FSK ortogonal Isso assegura que r 0 e r 1 tenham densidades de Rayleigh e de Rice respectivamente quando 1 for transmitido r 1 é o detector de envelope e pode assumir somente valores positivos pcmatchprcosend11 E 111 m sistemas tradicionais de comunicação digital o projeto de técnicas de formatação de pulso em bandabase e de modulação objetiva a minimização da largura de banda consumida pelo sinal modulado durante a transmissão A clara motivação para esse objetivo principal é o desejo de alcançar boa eficiência espectral e assim preservar recursos de largura de banda Todavia um sistema de comunicação de banda estreita exibe duas grandes fraquezas Primeira seu espectro concentrado o torna um alvo fácil para detecção e interceptação por usuários não previstos por exemplo inimigos no campo de batalha e bisbilhoteiros não autorizados Segunda por ter pouca redundância a banda estreita é mais susceptível a bloqueio jamming ou interferência pois mesmo interferência parcial na banda pode arruinar a recepção do sinal Tecnologias de espalhamento espectral spread spectrum foram inicialmente desenvolvidas para as comunidades militares e de inteligência para superar as fraquezas que acabamos de mencionar diante de interceptação e interferência A ideia básica consistia em expandir cada sinal de usuário de modo que passasse a ocupar um espectro muito mais largo que o necessário Para uma dada potência de transmissão um espectro mais largo significa menor nível de potência de sinal e maior redundância espectral Um nível mais baixo de potência de sinal dificulta a detecção e interceptação de sinais de comunicação enquanto alta redundância espectral torna os sinais mais resistentes a interferência parcial ou total na banda intencional ou não Há duas tecnologias dominantes de espalhamento espectral espalhamento espectral por saltos em frequência FHSS frequency hopping spread spectrum e espalhamento espectral por sequência direta DSSS direct sequence spread Spectrum Neste capítulo descreveremos esses dois sistemas em detalhe SISTEMAS DE ESPALHAMENTO ESPECTRAL POR SALTOS EM FREQUÊNCIA FHSS O conceito de espalhamento espectral por saltos em frequência FHSS é na verdade de fácil compreensão Cada usuário pode continuar usando sua modulação convencional A única diferença é que agora a frequência portadora pode variar em intervalos regulares Quando cada usuário pode variar sua frequência portadora segundo um padrão pseudoaleatório predeterminado o correspondente sinal passa a ocupar um espectro mais largo dificultando interceptação e interferência Figura 111 Sistema de espalhamento espectral por saltos em frequência A implementação de um sistema FHSS é mostrada na Fig 111 Se inicialmente ignorarmos os dois conversores de frequência esse sistema em nada difere de um sistema simples de comunicação digital com modulador e demodulador FSK A única diferença desse sistema FHSS reside no fato de no transmissor a frequência portadora saltar de forma controlada pelo gerador de pseudorruído PN pseudonoise Para rastrear a frequência portadora que salta o receptor deve utilizar o mesmo gerador PN em sincronia com o gerador PN do transmissor Geração do pulso retangular A maioria dos sinais FHSS adota modulações FSK binária ou Márias em vez das modulações mais eficientes PAM PSK e QAM A motivação para a escolha de FSK advém de sua capacidade de utilizar a menos complexa detecção não coerente A detecção coerente é necessária para as modulações PAM PSK e QAM Devido ao padrão de saltos controlado pelo pseudorruído PN detecção coerente exigiria que o receptor mantivesse coerência de fase com o transmissor em cada uma das frequências usadas no padrão de saltos Essa exigência seria de difícil satisfação durante os saltos em frequência A detecção FSK por sua vez pode ser não coerente sem a necessidade de coerência de fase com a portadora e pode ser facilmente incorporada a sistemas FHSS O conversor ascendente de frequência frequency upconverter como discutido no Exemplo 42 do Capítulo 4 pode ser um misturador ou multiplicador seguido por um filtro passafaixa Denotemos o período de símbolo por T s Assim o sinal da modulação FSK Mária pode ser escrito como sendo as frequências angulares de FSK Mária especificadas por A saída do sintetizador de frequências é constante por um período T c comumente referido como chip Denotemos a saída do sintetizador de frequências por ω h em um dado chip com isso o sinal FHSS é para o particular período de chip T c O padrão de saltos em frequências é controlado pelo gerador PN e tem a aparência típica ilustrada na Fig 112 No receptor um gerador PN idêntico permite a detecção do sinal FHSS na banda correta de frequência ou seja na banda para a qual o sinal saltou Se a largura de banda do sinal FSK original for B s Hz o sinal FHSS ocupará uma banda L vezes mais larga B c LꞏB s Esse fator L é conhecido como fator de espalhamento Para período de símbolo T s e período de chip T c a correspondente taxa de símbolo é R s 1T s e a taxa de salto é R c 1T c Em FHSS há dois tipos de salto em frequência Se T c T s FH é conhecido como de salto lento slow hopping Se T c T s FH é conhecido como FHSS rápido e há múltiplos saltos em cada símbolo de dados Em outras palavras sob saltos rápidos cada símbolo de dado é espalhado por múltiplas bandas de frequências devido aos saltos rápidos e deve ser detectado por detecção nessas bandas de frequências Figura 112 Padrão típico de saltos em frequência de Bluetooth psinhsin0fovsamp1pifovsamp Figura 113 Efeitos de a interferência de banda estreita b FHSS sob interferência de banda larga c interferência parcial Uma das maiores vantagens do FHSS reside em sua capacidade de combater interferência jamming Suponhamos que uma fonte interferente tenha um nível finito de potência P j Diante de um sinal de banda estreita com largura de banda B s a fonte interferente pode transmitir em B s todo o tempo criando um nível de PSD de interferência P jB s Portanto no caso de transmissão em banda estreita NB narrowband a relação sinalinterferência SIR signaltointerference ratio é Diante de um sinal FHSS com largura de banda total B c a fonte interferente deve repartir sua limitada potência e gerará um nível muito menor de PSD de interferência com valor médio P jB c Por conseguinte em qualquer instante de tempo a largura de banda do sinal ainda é B s e a SIR Portanto com um fator de espalhamento L um sinal FH é L vezes mais resistente a um sinal interferente de potência finita que um sinal de banda estreita As Fig 113a e b ilustram os diferentes efeitos de uma potência interferente finita em sinais de banda estreita e FHSS A fonte interferente diante de um sinal FHSS pode decidir concentrar sua potência P j em uma estreita largura de banda de sinal Isso provocará interferência em parte da banda Se a frequência de saltos for baixa tal que T c T s em média um em cada L símbolos de sinal encontrará forte interferência como ilustrado na Fig 113c Consideremos BFSK Podemos admitir uma interferência muito forte de modo que os bits transmitidos na frequência sob interferência têm a pior BER de 05 Após média nas L bandas a BER total desse sistema FHSS sujeito a interferência parcial será Assim com saltos lentos a detecção do sinal FHSS sujeito à interferência parcial tem BER consideravelmente alta Com o emprego de poderosos códigos de correção de erro à frente FEC forward error correction codes a serem discutidos no Capítulo 14 esses erros de dados podem ser corrigidos pelo receptor Exemplo 111 Consideremos o caso de um sistema com saltos rápidos no qualT c T s HáL bandas de frequências para o sistema FHSS Suponhamos que a fonte interferente afete uma das L bandas Consideremos que o número de saltos por T s seja menor que L e nenhuma frequência seja repetida em cada T s Analisemos em termos da BER o desempenho de um sistema BFSK de saltos rápidos sujeito a tal interferência parcial Com saltos rápidos cada símbolo de dado salta em psinhpsinhnormpsinh 112 bandas estreitas Portanto em média a probabilidade de um símbolo de dado se deparar com interferência parcial é L hL Quando um símbolo BFKS não encontra interferência parcial durante os saltos sua BER permanece inalterada Caso um símbolo BFSK encontre interferência parcial podemos aproximar a BER descartando a banda sob interferência Em outras palavras podemos aproximar o desempenho do símbolo BFSK sob interferência admitindo que sua energia útil seja Assim em média o desempenho de BFSK com saltos rápidos consiste na média estatística dos dois tipos de bits BFSK Em particular quando L 1 FHSS com saltos rápidos alcança uma BER muito melhor pois Em outras palavras com o uso de saltos rápidos a BER de FHSS sujeito a interferência parcial se aproxima da BER sem interferência SISTEMAS FHSS MULTIUSUÁRIO E DESEMPENHO Fica claro que o sistema FHSS provê maior segurança contra possíveis interferências e interceptações de inimigos Sem total conhecimento do padrão de saltos que foi estabelecido adversários são incapazes de seguir grampear ou provocar interferência em uma transmissão FHSS Contudo se o sistema FHSS tiver somente um transmissor o uso de uma largura de banda B c muito maior que o necessário seria um desperdício Para aumentar a eficiência espectral de sistemas FHSS múltiplo usuários podem compartilhar a mesma banda de frequências B c com pequena degradação de desempenho Figura 114 CDMA em FHSS em que cada um dos M usuários recebe um código PN individual Como ilustrado na Fig 114 cada um dos M usuários recebe um código PN individual de saltos para controlar seu padrão de saltos em frequência em FHSS Os códigos podem ser escolhidos de modo que jamais ou raramente haja colisão entre usuários no espectro Como múltiplos usuários têm acesso às mesmas L bandas a eficiência espectral pode igualar a do sinal FSK original phmatchpsinhend11 sem qualquer perda das características de segurança de FHSS Assim o acesso de múltiplos usuários se torna possível com a alocação de distintos códigos de saltos espalhamento aos diferentes usuários resultando em múltiplo acesso por divisão de código CDMA code division multipleaccess Em geral qualquer sobreposição de duas ou mais sequências PN de usuários resultaria em colisão de sinais nas bandas de frequências em que os valores das sequências PN são iguais durantes certos chips Em teoria códigos de saltos bem projetados podem evitar tais colisões Todavia na prática a falta de um relógio de sincronia comum e observável por todos os usuários significa que cada um exercita os saltos em frequência de forma independente Além disso algumas vezes pode haver mais de L usuários ativos com acesso ao sistema FHSS Os dois casos levam a colisões entre usuários Tanto para sistemas FHSS rápidos e lentos tais colisões podem resultar em aumento significativo de erros de detecção de usuário Desempenho de FHSS com Acesso de Múltiplos Usuários Para um dado usuário de FHSS CDMA o problema de colisão seria limitado à sua banda parcial Na verdade o efeito das colisões é similar ao caso de interferência em banda parcial como veremos a seguir Recordemos que a análise de desempenho de sistemas FSK foi discutida no Capítulo 10 Seção 107 para canais AWGN Vimos que a probabilidade de erro de detecção de símbolo para sinais FSK Mária não coerente era Para sistemas FHSS lentos cada símbolo de dado é transmitido por uma portadora de frequência fixa Portanto a probabilidade de erro de detecção de sistemas FHSS lentos é idêntica à Eq 115 Em particular sabemos que a BER do sistema FSK binário é ver Eq 10145 Seção 1011 Contudo se dois usuários transmitirem simultaneamente na mesma banda de frequências uma colisão ou batida ocorrerá Nesse caso consideremos que a probabilidade de erro seja 05 Assim a probabilidade total de erro de bit pode ser modelada como em que P h é a probabilidade de uma colisão que devemos calcular Consideremos saltos aleatórios Caso existam L bandas slots de frequência a probabilidade de que um dado sinal interferente esteja presente na banda do usuário desejado será 1L Se houver M 1 sinais interferentes ou outros usuários a probabilidade de que pelo menos um esteja presente na desejada banda de frequência será admitindo que o valor de L seja grande A substituição desse resultado na Eq 116 leva a Se M 1 a probabilidade de erro se reduz à BER de BFSK Se M 1 fazendo E b tender ao infinito vemos que com saltos aleatórios Geração do pulso de meia senoide que representa o piso inevitável da taxa de erro de detecção de bit devido à interferência de múltiplo acesso MAI multiple access interference Logo é importante que o padrão de saltos seja projetado para reduzir P h na presença de múltiplos usuários FHSS Assíncrono Na análise anterior admitimos que as frequências portadoras de todos os usuários saltam em sincronia Isso é conhecido como saltos em frequência em sincronia slotted frequency hopping Esse tipo de sincronia temporal é facilmente mantido se as distâncias entre todos os pares transmissorreceptor forem essencialmente iguais Esse pode não ser um cenário realista para muitos sistemas FHSS Mesmo quando sincronia possa ser alcançada entre relógios individuais de usuários sinais que seguiram diferentes rotas de transmissão não chegarão em sincronia devido aos variados atrasos de propagação Uma dedução simples para avaliação de desempenho assíncrono pode ser feita seguindo a abordagem de Geronoitis e Purslei 1 que fornece a probabilidade de uma colisão no caso assíncrono como em que N b é o número de bits por salto Comparando as Eqs 117 e 1110 vemos que para o caso assíncrono a probabilidade de uma colisão aumenta como esperado Usando a Eq 1110 na Eq 116 obtemos a probabilidade de erro para o caso assíncrono como Como no caso de interferência em banda parcial a BER de usuários FHSS decai à medida que o fator de espalhamento aumenta Além disso com a incorporação de FEC suficientemente robusto ao código de transmissão usuários FHSS CDMA podem acomodar a maioria das colisões Exemplo 112 Consideremos um canal AWGN com nível de ruído 10 11 Um sinal de usuário é uma modulação FKS binária com taxa de dados de 16 kbits que ocupa uma largura de banda de 20 kHz A potência do sinal recebido é 20 dBm Um inimigo tem uma fonte interferente que pode produzir interferência em um sinal de banda estreita ou passafaixa A potência interferente é finita de modo que potência recebida do sinal interferente é no máximo 26 dBm Para determinar a melhora aproximada da relação sinalruído para o sistema FHSS sob interferência usemos um fator de espalhamento L 20 Como P s 20 dBm 10 5 W e T b 116000 a energia por bit é igual a O nível de ruído por sua vez é 10 11 Admitamos que o sinal interferente tenha distribuição gaussiana O nível de potência interferente é P j 26 dBm 4 10 6 W Quando a interferência ocorre na estreita banda de 20 kHz o nível de potência a interferência é Assim a resultante relação sinalruído é Caso a interferência cubra todo o espectro L mais largo o nível de potência da interferência se torna 20 vezes menor psinesin0fovsamp12pifovsamp 113 Portanto nesse caso a resultante relação sinalruído é A melhora na SNR é de aproximadamente 10 dB APLICAÇÕES DE FHSS O FHSS tem sido adotado em diversas aplicações práticas As mais notáveis são o padrão de rede de área local sem fio WLAN wireless local area network para WiFi conhecido como IEEE 80211 2 e o padrão de rede de área pessoal sem fio WPAN wireless personal area network para Bluetooth De IEEE 80211 a Bluetooth O IEEE 80211 foi o primeiro padrão para WiFi divulgado em 1997 Com taxa de dados limitada a 2 Mbits o padrão 80211 teve aplicação muito limitada antes de 1999 quando a divulgação e adoção muito mais ampla dos padrões 80211a e 80211b removeram a opção FHSS Praticamente obsoleto o padrão IEEE 80211 foi milagrosamente revivido pelo produto comercial de grande sucesso vendido sob o nome de Bluetooth 3 A diferença entre Bluetooth e WiFi reside no fato de que sistemas WiFi devem prover maior vazão e cobrir distância maiores que sistemas Bluetooth 4 WiFi também pode ser mais caro e consumir mais potência O Bluetooth por sua vez é um sistema de comunicação para distância ultracurta usado em produtos eletrônicos como telefones celulares computadores automóveis modems fones de ouvido e eletrodomésticos Em substituição a enlaces infravermelhos em linha de visada Bluetooth pode ser usado quando dois ou mais dispositivos estão próximos uns dos outros Esse sistema não requer grande largura de banda Como Bluetooth é basicamente igual à opção de salto em frequência FH frequency hopping de IEEE 80211 basta que descrevamos seus detalhes O protocolo opera na banda de frequência de 24 a 24835 GHz de uso livre sem necessidade de licença para fins industriais científicos e médicos ou banda ISM industrial scientific and medical Figura 115 Uma área com cobertura de três picorredes m nósmestre s nósescravo sm escravomestre Um nó pode ser escravo e mestre em uma picorrede n o 1 e escravo em outra n o 3 psinepsinenormpsine Figura 116 Modulação FHSS em 80211 e em Bluetooth Para evitar interferência em outros dispositivos e redes que operem na banda ISM o protocolo Bluetooth divide a banda em 79 canais de 1 MHz de largura e executa saltos lentos em frequência a uma taxa de até 1600 Hz Dois dispositivos Bluetooth sincronizam os saltos em frequência por meio de comunicação no modo mestreescravo Uma rede que agrupa até oito dispositivos forma uma picorrede piconet que tem um mestre Um nóescravo de uma picorrede pode ser mestre de outra picorrede A relação entre nósmestre e nósescravo em picorredes é ilustrada na Fig 115 Um dispositivomestre de Bluetooth pode se comunicar com até sete dispositivos ativos A qualquer momento o dispositivomestre pode trazer ao status de ativo até mais 255 dispositivos inativos ou estacionados Uma característica especial de Bluetooth é a capacidade de implementar saltos em frequência adaptativos AFH adaptive frequency hopping A capacidade de adaptação é embutida para permitir que na sequência de saltos dispositivos Bluetooth evitem frequências congestionadas Tabela 111 Principais especificações de FHSS em 80211 e de Bluetooth 80211 FHSS Bluetooth taxa básica Banda de frequências ISM 2424835 GHs Formato duplex TDD Largura de banda de um canal 1 MHz Número de canais que não se sobrepõem 79 Produto BsT 05 Mínima distância entre saltos 6 Modulação GFSK2 e GFSK4 GFSK2 Taxa de dados 1Mbits e 2 Mbits 7231 kbits Taxa de saltos 25160 Hz 1600 Hz A modulação do sinal Bluetooth de taxa básica é mostrada na Fig 116 O sinal binário é transmitido por meio de formatação gaussiana de pulso na modulação FSK de sinal Como mostrado na Fig 116 em um FSK binário simples o filtro passabaixas gaussiano é substituído por uma rota direta A inclusão do filtro passabaixas gaussiano gera o que é conhecido como sinal FSK gaussiano ou GFSK A modulação GFSK é uma FSK com fase contínua e alcança maior eficiência de largura da banda justamente por forçar a continuidade de fase Maior eficiência espectral também é alcançada com sinalização de resposta parcial PRS partial response signaling em GFSK A resposta do filtro gaussiano estica cada bit ao longo de múltiplos períodos de símbolo Mais especificamente a resposta do filtro passabaixas gaussiano ao impulso é dada por em que B é a largura de banda de 3 dB do filtro passabaixas gaussiano Como essa resposta é não causal a implementação prática trunca a resposta do filtro a 4T s segundos Dessa forma cada bit de informação é estendido ao longo de uma janela cuja largura é 3 vezes maior que a duração do bit T s Reparemos que a seleção de B é determinada pela taxa de símbolo 1Ts Em 80211 e em Bluetooth é feita a escolha B 05T s O índice de modulação FM deve ser entre 028 e 035 A taxa de símbolo de GFSK é sempre 1 MHz FSK binária e FSK Geração de dados aleatórios de sinal para sinalização polar de quatro níveis podem ser implementadas como GFSK2 e GFSK4 alcançando vazão de dados de 1 e 2 Mbits respectivamente A Tabela 111 resume os principais parâmetros e diferenças em FHSS de 802111 e Bluetooth taxa básica Notemos que nossa discussão sobre Bluetooth focou as versões de taxa básica 11 e 12 Mais recentemente foi lançada a versão 2 de Bluetooth 4 As implementações da versão 20 apresentam maior taxa de dados EDR enhanced data rate que alcança 21 Mbits Tecnicamente dispositivos de versão 20 mantêm a característica FHSS mas utilizam a mais eficiente modulação PSK diferencial SINCGARS SINCGARS é uma sigla derivada do termo inglês para sistema de rádio aerotransportado e terrestre de canal simples single channel ground and airborne radio system Essa sigla representa uma família de rádios VHFFM de combate usados por militares Inicialmente produzidos pela ITT em 1983 SINCGARS transmite voz com FM e dados com CPFSK binário a 16 kbits ocupando uma largura de banda de 25 kHz Em uma banda operacional de 30 a 87975 MHz pode haver até 2320 canais Para combater interferências rádios SINCGARS podem implementar saltos em frequência à baixa taxa de 100 Hz Como a taxa de saltos é muito baixa SINCGARS já não é eficaz contra dispositivos modernos de interferência Por isso SINCGARS está sendo substituído pelo mais recente e versátil sistema JTRS joint tactical radio system ou sistema de rádio tático integrado De Hollywood a CDMA Como acontece com várias boas ideias o conceito de saltos em frequência foi reivindicado por numerosos inventores Uma das patentes que recebeu pouca atenção foi concedida a Willem Broertjes de Amsterdã Holanda em agosto de 1932 patente americana n o 1869659 5 Contudo a mais intrigante patente relativa a saltos em frequência está associada a uma das atrizes mais famosas de Hollywood durante a Segunda Guerra Mundial Hedy Lamarr Em 1942 ela e o coinventor George Antheil um compositor excêntrico receberam a patente americana n o 2292387 pelo Sistema de Comunicação Secreta A patente tinha como objetivo dificultar a detecção ou interceptação de torpedos guiados por rádio Em grande parte devido à conexão com Hollywood Hedy Lamarr se tornou uma figura lendária na comunidade de comunicação sem fio e frequentemente recebe os créditos de inventora de CDMA enquanto outras figuras menos glamorosas como Willem Broertjes foram praticamente esquecidas Hedy Lamarr foi uma grande estrela de cinema 6 Nascida na Áustria Hedwig Eva Maria Kiesler chegou à fama em 1933 com o filme austríaco Ecstasy por conta de algumas cenas nada convencionais para a época Em 1937 escapando dos nazistas e de seu primeiro marido um traficante de armas nazista foi para Londres onde conheceu Louis Burt Mayer cofundador e chefe dos estúdios MGM Mayer ajudou a carreira da atriz austríaca em Hollywood ao dar a ela um contrato e um novo nome Hedy Lamarr Lamarr contracenou com colegas famosos como Clark Gable Spencer Tracy e Judy Garland e apareceu em mais de uma dezena de filmes durante sua carreira no cinema Com evidentes talentos científicos Hedy Lammar trabalhou com George Antheil um compositor clássico para ajudar no esforço de guerra Eles tiveram uma ideia de um sofisticado dispositivo antiinterferência para uso em torpedos controlados por rádio Em agosto de 1942 com seu nome de casada na época Hedy Kiesler Markey Hedy Lamarr recebeu a patente americana n o 2292387 Fig 117 juntamente com George Antheil Eles doaram a patente como contribuição ao esforço de guerra Tendo como inspiração o piano do compositor a invenção de saltos em frequência usa 88 frequências uma para cada nota no teclado de um piano Contudo a invenção não seria implementada durante a Segunda Guerra Mundial Era simplesmente demasiadamente difícil empacotar válvulas a vácuo em um torpedo Todavia a ideia de saltos em frequência se tornou uma realidade 20 anos mais tarde durante a crise de mísseis com Cuba em 1962 quando o sistema foi instalado em navios enviados para bloquear comunicações com e de Cuba Ironicamente nessa época a patente de LamarrAntheil havia expirado A ideia de saltos em frequência ou de modo mais geral a ideia de espalhamento espectral tem sido largamente utilizada em comunicações militares e civis incluindo telefones celulares redes LAN sem fio Bluetooth e numerosos outros sistemas de comunicação sem fio Apenas mais recentemente Hedy Lamarr passou a receber um novo tipo de reconhecimento com uma inventoracelebridade Em 1997 Hedy Lamarr e George Altheil receberam o Electronic Frontier Foundation EFF Pioneer Award Prêmio Pioneiro da Fundação Fronteira Eletrônica Além disso em agosto de 1997 Lamarr foi homenageada com o cobiçado BULBIE Gnass Spirit of Achievement Bronze Award Medalha de Bronze Espírito da Conquista Gnass BULBIE o Oscar dos inventores Caso ela também tivesse ganhado um Oscar por seu trabalho no cinema teria sido a única pessoa a receber dois prêmios Oscar totalmente diferentes De toda forma inventores de todo o mundo ficaram felizes em receber uma celebridade do cinema em seu meio A inventora Hedy Kiesler Markey morreu em 2000 aos 86 anos de idade sdataroundrandL1 114 Figura 117 Figura 1 da patente de LamarrAntheil de US Patent and Trademark Office ESPALHAMENTO ESPECTRAL POR SEQUÊNCIA DIRETA Sistemas FHSS exibem algumas vantagens importantes incluindo transceptores de baixa complexidade e resistência à interferência Contudo a dificuldade de sincronização de portadoras nos saltos em frequências significa que apenas demodulações não coerentes de FSK e DPSK são práticas Como mostrado na análise na Seção 1011 FSK e DPSK tendem a ter desempenho de BER eficiência de potência mais pobre e pior eficiência de largura de banda do que sistemas QAM que requerem detecção coerente Adicionalmente a suscetibilidade a colisões faz de FHSS uma tecnologia menos eficiente para CDMA Como demonstrado por modernos sistemas de comunicação sistemas de espalhamento espectral por sequência direta DSSS direct sequence spread spectrum são muito mais eficientes na utilização de largura de banda e de potência 7 Atualmente DSSS se tornou a tecnologia de CDMA dominante nos avançados sistemas de comunicação sem fio Não é exagero afirmar que DSSS e CDMA são quase sinônimos Detecção Ótima de PSK DSSS Espalhamento espectral por sequência direta é uma tecnologia mais adequada à integração com modulações lineares com eficiência de largura de banda como QAMPSK Embora existam diferentes formas de ver DSSS sua importante operação de espalhamento espectral é alcançada por uma sequência PN também conhecida como código PN ou chip PN A sequência PN é principalmente binária consistindo em 1s e 0s que são representados por sinalização polar 1 e 1 respectivamente Para minimizar interferência e facilitar a sincronia de chips a sequência PN tem algumas interessantes propriedades de autocorrelação e de correlação cruzada superamostragem para casar a taxa de superamostragem fictícia Figura 118 Sistema DSSS Figura 119 a Função de autocorrelação da sequência PN b Gerador de seis estágios de uma sequência PN de comprimento máximo Espalhamento espectral por sequência direta DSSS expande o sinal de banda estreita tradicional com a utilização de um sinal de espalhamento ct Como mostrado na Fig 118 o sinal de dados original é linearmente modulado em um sinal QAM s QAMt Em vez de ser transmitido diretamente na largura de banda necessária esse sinal é modificado por DSSS que multiplica o sinal de espalhamento ct pelo sinal QAM de banda estreita Embora a frequência portadora do sinal permaneça inalterada em ω c o novo sinal após espalhamento é Aqui o sinal transmitido s DS t é o produto de dois sinais e sua largura de banda é igual à soma das larguras de banda do sinal QAM s QAMt e do sinal de espalhamento ct Geração da Sequência PN Uma boa sequência PN ct é caracterizada por uma autocorrelação similar à de ruído branco Isso significa que a função de autocorrelação de uma sequência PN deve ser alta nas proximidades de τ 0 e baixa para todo τ 0 como mostrado na Fig 119a Além disso em aplicações CDMA diversos usuários compartilham a mesma banda usando distintas sequências PN Portanto é necessário que a correlação cruzada entre diferentes sequências PN seja pequena para reduzir a interferência mútua Um código PN é periódico Um circuito registrador de deslocamento shift register digital com realimentação de saída pode gerar uma sequência com longos períodos e baixa susceptibilidade a identificação estrutural por estranhos As sequências PN binárias mais largamente conhecidas são as sequências de comprimento máximo de registrador de deslocamento sequências m Tal sequência que pode ser gerada por um registrador de deslocamento de m estágios com conexão de realimentação adequada tem um comprimento L 2 m 1 bits o máximo período para uma maquina de estado finito como essa A Fig 119b mostra um codificador baseado em registrador de deslocamento para m 6 e L 63 Para uma sequência PN curta como essa a função de autocorrelação é quase um impulso e periódica Segundo a terminologia um código de espalhamento DSSS é um código curto se o período da sequência PN for igual ao período de símbolos de dados T s Um código de espalhamento DSSS é um código longo se o período da sequência PN for um múltiplo em geral grande do período de símbolos de dados Análise de DSSS com Apenas Um Usuário que é fovsampT T 1 é a duração de cada símbolo A análise mais simples do sistema DSSS pode ser baseada na Fig 118 Para obter espalhamento espectral o sinal de chip ct tem em geral variação muito mais rápida do que a dos símbolos QAM Como mostrado na Fig 118 há múltiplos chips de 1 em cada duração de símbolo T s Denotemos o fator de espalhamento por L T sT c T c chip period Assim o espectro do sinal espalhado é essencialmente L vezes mais largo que o espectro da modulação original B c L 1B s L ꞏ B s Notemos que o sinal de espalhamento ct 1 em qualquer instante de tempo Dada a natureza polar do sinal de chip binário o receptor admitindo canal AWGN pode desespalhar o sinal recebido com facilidade multiplicandoo pelo sinal de chip Essa multiplicação permite que o receptor desespalhe o sinal com espalhamento espectral A análise do receptor DSSS depende das características do ruído xt Como ct é determinístico e nt é gaussiano com média zero xt também é gaussiano com média zero Em consequência a análise de desempenho do receptor requer apenas a determinação da PSD de xt Para determinar a densidade espectral de potência do ruído desespalhado xt ntct podemos começar com a definição da PSD Seção 93 Recordando que Temos supupsamplesdatafovsamp A última igualdade advém da definição da PSD para ct A Eq 1118 ilustra a dependência da PSD de ruído do detector em relação ao sinal de chip ct Desde que a sequência PN seja quase ortogonal de modo que satisfaça a Eq 1113 temos e Em outras palavras desde que a sequência de chip seja aproximadamente ortogonal o ruído no detector QAM continua sendo um ruído gaussiano branco com média zero Por motivos práticos o ruído branco nt é filtrado no receptor para ser limitado em banda a 12T s Por conseguinte o espectro de ruído após o desespalhador ainda é Ou seja o nível do espectro segue inalterado Assim a análise de desempenho efetuada no Capítulo 10 para detecções coerentes de QAM e PSK pode ser aplicada diretamente Na Seção 106 mostramos que para um canal com PSD de ruído branco 2 a probabilidade de erro do receptor ótimo para sinalização polar é dada por em que E b é a energia por bit energia de um pulso Esse resultado demonstra que a probabilidade de erro de um receptor ótimo não é alterada independentemente se usamos DSSS ou não Embora esse resultado pareça um tanto surpreendente na verdade é muito consistente com a análise AWGN Para apenas um usuário a única alteração em DSSS consiste no espalhamento da scpupsample1sdatafovsamp 115 transmissão em um espectro mais largo com uso de um novo formato de pulso ct Portanto a modulação continua sendo QAM e o canal AWGN Em consequência a análise da detecção coerente da Seção 106 é totalmente aplicável a sinais DSSS CARACTERÍSTICAS DE RESILIÊNCIA DE DSSS Como sistemas FHSS para prover maior segurança contra possíveis interferências ou interceptações sistemas DSSS espalham a energia do sinal em uma largura de banda L vezes maior O baixo nível de potência dificulta a ação de interceptores Além disso sem conhecimento preciso do código de espalhamento do usuário ou ct adversários não são capazes de desespalhar e recuperar o sinal QAM em bandabase Adicionalmente sinais interferentes em banda parcial interferem somente em uma porção da energia do sinal não sendo capazes de bloquear todo o espectro e portanto não afetam sinais DSSS Para analisar o efeito de interferência em banda parcial consideremos que uma interferência it atinja o receptor produzindo yt s QAM tct it Admitamos que a largura de banda da interferência seja B i Após desespalhamento o sinal de saída mais interferência será É importante observar que o termo de interferência tem uma nova resposta de frequência devido ao desespalhamento de ct que tem largura de banda aproximada B c B i LB s B i Análise de DSSS sob Interferências de Banda Estreita Caso a interferência tenha a mesma largura de banda B s do sinal QAM a interferência desespalhada i at terá largura de banda igual a L 1B s Em outras palavras largura de banda da interferência de banda estreita it será na verdade espalhada L vezes pelo sinal de desespalhamento ct Se a interferência de banda estreita tiver potência total P i e largura de banda B s o nível de espectro da interferência original antes do desespalhamento será Após desespalhamento o espectro da interferência i at se torna Devido à operação de desespalhamento a interferência de banda estreita passa a ter 1L 1 da intensidade do espectro original Reparemos que o desejado sinal QAM mantém sua largura de banda original ω c π B s ω c π B s Logo no caso de interferências de banda estreita o desespalhamento pode reduzir a relação sinalinterferência SIR por um fator Esse resultado mostra que DSSS é muito eficaz contra sinais interferentes de banda estreita banda parcial e permite a redução da SIR pelo fator de espalhamento O efeito de espalhamento do desespalhador em um sinal interferente de banda estreita é ilustrado na Fig 1110 A capacidade de DSSS em combater interferência de banda estreita também significa que sinais de comunicação de banda estreita podem coexistir com sinais DSSS A análise da SIR e a Fig 1110 estabelecem a resistência de sinais DSSS a interferências de banda estreita Reciprocamente se um sinal de banda estreita tiver de ser demodulado na presença de um sinal Identifica os atrasos de decisão devido à formatação de pulso 116 DSSS o sinal de banda estreita também pode ser extraído do sinal DSSS com pouca interferência com a substituição do desespalhador por um filtro passafaixa de banda estreita Nesse caso os papéis de sinal e interferência são na verdade trocados Figura 1110 Redução de efeito de interferência de banda estreita pelo desespalhador DSSS Análise de DSSS sob Interferências de Banda Larga Em muitos casos interferências advêm de fontes de banda larga e não são geradas a partir da abordagem de espalhamento DSSS Contra essas interferências a operação de desespalhamento apenas alarga e reduz ligeiramente o espectro da interferência Admitamos que a interferência de banda larga tem a mesma largura de banda LB s que o sinal espalhado Com base na Eq 1124 após desespalhamento a interferência seria i at cuja largura de banda seria 2LB s Em outras palavras a interferência de banda larga it seria na verdade espalhada em um espectro com largura aproximadamente igual ao dobro da largura do sinal espalhado e intensidade igual à metade da intensidade do sinal Dessa discussão podemos perceber que um sinal DSSS é muito eficaz contra interferências de banda estreita e pouco eficaz contra interferências de banda larga MÚLTIPLO ACESSO POR DIVISÃO DE CÓDIGO CDMA DE DSSS O diagrama de RF de um sistema DSSS pode ser representado de modo equivalente pelo diagrama em bandabase na Fig 1111 que mostra uma nova perspectiva do sistema DSSS adequada à análise Denotemos o símbolo de dado QAM como o número complexo Fica claro da sequência de chip PN que após espalhamento o sinal em bandabase é Ou seja o símbolo s k usa c t k1T s t kT s como formato de pulso para transmissão Em consequência na recepção o receptor ótimo requereria que ct fosse usado como receptor de correlação ou um filtro casado Fica evidente do diagrama na Fig 1111 que o desespalhador desempenha justamente a função do filtro casado ótimo ou receptor de correlação Tal receptor é conhecido como receptor ótimo convencional de um usuário Mostramos que sistemas DSSS têm vantagens contra ameaças interferentes de banda estreita e tentativas de interceptação Todavia caso um sistema DSSS tenha apenas um sinal a transmitir o uso de uma maior largura de banda B s será um grande desperdício Assim como em FHSS CDMA de DSSS pode ser alcançado permitindo que múltiplos usuários cada um associado a um distinto sinal de espalhamento PN cit tenham acesso simultâneo à grande largura de banda LB s Um sistema de múltiplo acesso com M usuários baseado em CDMA é ilustrado na Fig 1112 Cada usuário pode aplicar um receptor ótimo de um usuário Como esses usuários CDMA transmitirão sem divisão no tempo ou na frequência existirá interferência de múltiplos acessos MAI multipleaccess interference em cada receptor Para analisar um sistema DSSS com M usuários em múltiplo acesso devemos calcular a interferência na saída de um dado receptor causada pelos remanescentes M 1 usuários É mais simples focar o intervalo de tempo k 1T s kT s e o késimo símbolo de todos os M usuários Para simplicidade de análise fizemos diversas hipóteses na Fig 1112 que explicitamos a seguir e filtros casados Figura 1111 Diagrama equivalente em bandabase de sistema DSSS Figura 1112 Sistema de múltiplo acesso por divisão de código CDMA baseado em DSSS O iésimo usuário transmite um símbolo S k i no intervalo k 1T s kT s Não existe atraso relativo entre os M usuários e cada receptor recebe o késimo símbolo de todos os M usuários no intervalo k 1T s kT s Todos os símbolos de usuários têm potência unitária ou seja Es k i 2 1 A potência de transmissão do iésimo usuário é P i O canal do iésimo usuário tem ganho escalar g i O canal é AWGN com ruído nt As primeiras duas hipóteses indicam que todos os M usuários são síncronos Embora na prática sistemas CDMA assíncronos sejam comuns a análise dos mesmos é uma generalização simples mas não trivial do caso síncrono Como todos os usuários compartilham a mesma largura de banda cada receptor terá igual acesso ao mesmo sinal de saída do canal Após aplicação do filtro casado desespalhamento a saída do iésimo receptor no instante de amostragem t kT s é delayrc2delayrcfovsamp Por conveniência de notação definimos o coeficiente de correlação cruzada variante no tempo dos dois códigos de espalhamento como e a amostra de ruído do iésimo receptor como É importante notar que as amostras de ruído na Eq 1128d são gaussianas com média A correlação cruzada entre duas amostras de ruído pode ser calculada como A Eq 1129 mostra que as amostras de ruído no receptor CDMA DSSS são temporalmente brancas Isso significa que as amostras de ruído gaussiano tomadas em diferentes instantes são independentes umas das outras Portanto a detecção ótima de pode ser baseada nas amostras no tempo t kT Para CDMA de código curto os sinais de espalhamento c it são periódicos com período T s Em outras palavras os sinais de espalhamento PN c it são idênticos em cada período k 1T s kT s Portanto no caso de sistemas CDMA de código curto o coeficiente de correlação cruzada entre dois códigos de espalhamento é uma constante delayrtfovsamp1 Reparemos que a variável de decisão do iésimo receptor é I k t é um termo adicional que resulta da interferência de múltiplo acesso nos M 1 sinais interferentes Quando os códigos de espalhamento são selecionados de modo a satisfazerem a condição de ortogonalidade R ij k 0 i j a interferência de múltiplo acesso em CDMA é zero e cada usuário CDMA obtém desempenho idêntico ao de um único usuário DSSS ou de um único usuário QAM em bandabase Há várias formas de gerar códigos de espalhamento ortogonais Códigos de WalshHadamard são os mais conhecidos códigos de espalhamento ortogonais Dado um comprimento de código L igual ao fator de espalhamento há um total de L códigos ortogonais de WalshHadamard Um exemplo simples de código WalshHadamard para L 8 é dado a seguir Cada linha da matriz na Eq 1132 é um código de espalhamento de comprimento 8 No nível seguinte o código de WalshHadamard tem comprimento 16 e pode ser obtido de W 8 via Na verdade iniciando com W 1 1 e k 0 essa regra recursiva pode ser usada para gerar códigos de WalshHadamard de comprimento L 2 k Aproximação Gaussiana de MAI Não Ortogonal Em aplicações práticas muitos códigos de espalhamento não são totalmente ortogonais Em consequência o efeito de MAI no desempenho de detecção de cada usuário pode ser sério Para analisar o efeito de MAI em um receptor de um usuário precisamos estudar a distribuição de probabilidade de MAI A análise exata da probabilidade de I k é difícil Uma alternativa é buscar uma boa aproximação No caso de M grande podemos invocar o teorema do limite central para aproximar a MAI por uma variável aleatória gaussiana Recordemos que os símbolos QAM s k i são independentes com média zero e variância unitária ou seja Gera sinalização por todos os diferentes formatos de pulso Assim podemos aproximar a MAI como gaussiana com média e variância O efeito dessa aproximação para a MAI é ruído de canal mais forte Com efeito o desempenho de detecção baseada na variável de decisão é degradado pela MAI gaussiana adicional Com base na análise para um usuário a nova SNR equivalente é degradada e passa a Para o casão especial de BPSK ou sinalização polar a BER do iésimo usuário CDMA é aproximadamente Observemos que quando apenas um usuário está presente M 1 a Eq 1135 se torna o bem conhecido resultado de BER polar como esperado O mesmo resultado se aplica quando todos os códigos de espalhamento forem mutuamente ortogonais de modo que R ijk 0 i j No caso extremo de sistema sem ruído quando a relação sinalruído é muito alta E b temos Isso mostra a presença de um irredutível piso de erro para o caso limitado pela MAI Esse piso de ruído desaparece quando os códigos de espalhamento são mutuamente ortogonais de modo que R ijk 0 se i j Problema PróximoDistante A aproximação gaussiana da MAI tem limitações ao ser usada para predizer o desempenho do sistema Embora o teorema do limite central implique que I k i tenderá a uma distribuição gaussiana nas proximidades do centro de sua distribuição a convergência pode requerer um número M muito grande de usuários CDMA Em um típico sistema CDMA o número de usuários M é da ordem de 64 a 128 Quando M não for suficientemente grande a aproximação gaussiana para a MAI pode ser bastante imprecisa particularmente em um ambiente próximodistante O chamado ambiente próximodistante nearfar descreve o seguinte cenário O transmissor desejado está muito mais distante de seu receptor que alguns transmissores interferentes Os códigos de espalhamento não são mutuamente ortogonais ou seja R ij k 0 quando i j xrcosconvsupprcos Se admitirmos a mesma potência de transmissão em todos os casos P j P o no ambiente próximodistante o ganho g i do desejado canal é muito menor que os ganhos de alguns canais interferentes Ou seja pode existir algum conjunto de usuário J tal que Em consequência a Eq 1131 se torna em que definimos um termo de ruído equivalente que é aproximadamente gaussiano Em um ambiente próximodistante é possível que como resultado do menor ganho de canal do sinal e da correlação cruzada não nula a componente de sinal distante g iR ijks k i seja dominada pela interferência forte próxima A análise da BER na Eq 1135 feita sob aproximação gaussiana deixa de ser válida Exemplo 113 Consideremos um sistema CDMA com dois usuários M 2 A potência de transmissão dos dois sinais é de 10 mW O receptor para o usuário 1 pode receber sinais dos dois transmissores Para esse receptor os ganhos de canal dos sinais são g 1 10 4 g 2 10 1 O ganho de espalhamento é L 128 de modo que R 11k 128 R 12k 1 O ruído amostrado n 1k é gaussiano com média zero e variância 10 6 Determinemos a BER para o desejado sinal do usuário 1 A variável de decisão do receptor no tempo k é Para símbolos de dado equiprováveis 1 a BER do usuário 1 é xorthconvsuppsinhconvscppsine Como os símbolos de dados são equiprováveis P s k 2 1 05 e podemos utilizar o teorema da probabilidade total para obter Assim a BER do sinal desejado é essencialmente 05 o que significa que o usuário em questão é totalmente dominado pela interferência nesse particular ambiente próximodistante Controle de Potência em CDMA Como o problema próximodistante é um resultado direto da diferença nas potências de sinais de usuários no receptor uma forma eficaz de combater o efeito próximodistante consiste em aumentar a potência dos usuários distantes e reduzir a potência do usuários próximos Em CDMA esse equilíbrio de potência é conhecido como controle de potência O controle de potência admite que todos os receptores estejam em funcionamento Por exemplo a comunicação celular se dá por meio da conexão de um número de telefones móveis em cada célula a uma estação radiobase que serve a célula Todas as transmissões em uma célula são recebidas e detectadas na estação de base A transmissão de uma unidade móvel à estação de base é conhecida como enlace ascendente uplink ou reverso em contraste com o enlace descendente downlink ou direto que representa a transmissão de uma estação de base a uma unidade móvel Fica claro que o efeito próximodistante não ocorre no enlace descendente Na verdade como múltiplas transmissões de usuários podem estar em perfeita sincronia o enlace descendente de CDMA pode com facilidade ser feito síncrono para manter ortogonalidade Além disso em cada receptor móvel todas as transmissões de sinal têm mesmo ganho de canal pois todas têm origem na mesma estação radiobase Nenhuma condição próximadistante pode ser satisfeita Por isso usuários móveis de CDMA no enlace descendente não necessitam de controle de potência ou qualquer outro meio de combate a MAI forte Quando o CDMA é usado no enlace ascendente para permitir que múltiplos usuários móveis transmitam seus sinais à estação de base o problema próximodistante ocorrerá com frequência Ao adotar controle de potência a estação de base pode enviar instruções aos telefones móveis para aumentar ou reduzir suas potências de transmissão O objetivo é que todos os sinais de usuários cheguem aos receptores da estação de base com níveis semelhantes de potência independentemente dos respectivos ganhos de canal E outras palavras um valor constante de g i 2P i é alcançado pois o controle de potência via realimentação de receptores fornece instruções aos transmissores móveis Um dos principais padrões de telefonia celular de segunda geração cdmaOne também conhecido como IS95 introduzido pela Qualcomm é um sistema CDMA DSSS O cdmaOne aplica controle de potência para superar o problema próximodistante nos receptores da estação de base O controle de potência admite duas formas malha aberta open loop e malha fechada closed loop No controle em malha aberta uma estação móvel ajusta sua potência com base na intensidade do sinal que recebe da estação de base Isso supõe uma relação recíproca entre os enlaces direto e reverso uma hipótese que pode não ser válida caso o enlace opere em diferentes bandas de frequências Em consequência controle de potência em malha fechada é comumente empregado pois a estação de base pode ordenar que a estação móvel altere sua potência de transmissão t1200fovsamp 117 Resistência ao Problema PróximoDistante Um importante conceito de resistência ao problema próximodistante foi definido por S Verdú 10 O principal objetivo é determinar se um receptor CDMA pode superar a MAI com o simples aumento da relação sinalruído E b Um receptor é definido como resistente ao problema próximodistante se para cada usuário no sistema CDMA existir um não zero tal que independentemente da intensidade da interferência a probabilidade de erro de bit P b i em função de E b satisfaça Isso significa que um receptor resistente ao problema próximodistante não deve ter um piso de BER se O Nossa análise do receptor de filtro casado convencional mesmo com base na aproximação gaussiana demonstra que o receptor convencional de um usuário não resiste ao problema próximodistante Embora alivie o efeito próximodistante o controle de potência não torna o receptor convencional resistente ao problema próximodistante Para alcançar resistência ao problema próximodistante é preciso aplicar receptores para detecção de múltiplos usuários para a detecção conjunta de todos os símbolos de usuários em vez de aproximar a soma das interferências como ruído gaussiano adicional DETECÇÃO MULTIUSUÁRIO MUD Detecção de múltiplos usuários MUD multiuser detection é uma alternativa ao controle de potência para combater o efeito próximodistante Em contraste com o controle de potência a MUD é capaz de equalizar a potência do sinal recebido sem realimentação dos receptores aos transmissores A MUD é um receptor centralizado que objetiva a detecção conjunta de todos os sinais de usuários independentemente da diferença entre as intensidades dos sinais recebidos Para a MUD a hipótese básica é que o receptor tenha acesso a amostras de todos os M sinais na Eq 1131 Além disso o receptor deve ter conhecimento da seguinte informação 1 Intensidades dos sinais de usuário g i 2 Correlação cruzada da sequência de espalhamento R i jk 3 Estatísticas das amostras de ruído n ik Para explicar os diferentes receptores MUD é mais conveniente que escrevamos a Eq 1131 na forma vetorial Podemos definir os vetores Podemos também definir as matrizes figure1 Assim as amostras dos M sinais de saída disponíveis a MUD podem ser escritas como Reparemos que o vetor de ruído n k é gaussiano com média zero e matriz de covariância Eq 1129 O objetivo de receptores MUD é a determinação do desconhecido vetor de dados de usuário s k a partir do valor do vetor de sinal recebido r k r k Com base no modelo de sinal da Eq 1139 diferentes receptores MUD conjuntos podem ser deduzidos segundo distintos critérios Para simplificar nossa notação na discussão de MUD denotemos o conjugado da matriz A por A e a transposta de matriz A por A T Além disso denotemos a transposta do conjugado da matriz A por A H A T A transposta do conjugado de uma matriz também é conhecida como sua hermitiana MUD Ótima Receptor de Máxima Verossimilhança A MUD ótima baseada no modelo de sinal da Eq 1139 é o detector de máxima verossimilhança MLD maximum likelihood detector com a hipótese de símbolos de entrada equiprováveis Como discutido na Seção 106 o receptor ótimo com mínima probabilidade de erro de símbolo é o receptor MAP Se todos os possíveis valores de s k forem equiprováveis o detector MAP se reduz ao detector de máxima verossimilhança ou MLD Como o vetor de ruído n k é conjuntamente gaussiano com média zero com matriz de covariância 05 R k temos O receptor MLD pode ser implementado como subplot211 O receptor MUD de máxima verossimilhança é ilustrado na Fig 1113 Assim o receptor MUD de máxima verossimilhança deve calcular e comparar os valores para todas as possíveis escolhas do desconhecido vetor de dados de usuário s k Se cada usuário fizer uso de QAM16 para modular seus dados a complexidade do receptor MUD ótimo requer 16 M avaliações da Eq 1143 Fica evidente que o receptor MUD de máxima verossimilhança é muito complexo De fato a complexidade computacional aumenta exponencialmente com o número de usuários CDMA 10 Esse é o preço a ser pago pelo receptor CDMA ótimo e resistente ao problema próximodistante 10 Figura 1113 Receptor de máxima verossimilhança para detecção de múltiplos usuários de MUD Figura 1114 Receptor MUD descorrelator Receptor Descorrelator A alta complexidade do receptor MUD de máxima verossimilhança reduz sua aplicabilidade em situações práticas Para reduzir o custo computacional foram propostas várias configurações de receptores MUD subótimos de baixa complexidade O descorrelacionador MUD é um método linear que simplesmente usa multiplicação de matrizes para remover a MAI entre diferentes usuários Com base na Eq 1139 a MAI entre diferentes usuários é causada pela matriz de correlação não diagonal R k Assim o efeito MAI pode ser removido com a prémultiplicação de r k pela pseudoinversa de R k para descorrelacionador os sinais de usuários figwave1plottxrcosdelayrc2delayrc2199 Essa operação de descorrelação deixa apenas o termo de ruído n k que pode afetar o sinal de usuário Um dispositivo de decisão rígida harddecision device QAM pode ser aplicada para detectar os símbolos de usuários A Fig 1114 ilustra um diagrama em blocos de um receptor descorrelator MUD Como a principal operação de um receptor MUD de descorrelação reside na multiplicação matricial de a complexidade computacional cresce apenas com a ordem de OM 2 O receptor descorrelator é resistente ao problema próximodistante como detalhado por Lupas e Verdú 11 Receptor de Mínimo Erro Quadrático Médio MMSE A desvantagem do receptor MUD descorrelator reside na transformação de ruído n k Na verdade quando a matriz de correlação R k é mal condicionada a transformação de ruído tem o efeito negativo de amplificação do ruído Para mitigar este risco uma MUD diferente e mais robusta 12 13 consiste em minimizar o erro quadrático médio com a aplicação de um bom receptor MUD linear e determinação da matriz ótima G k Esta matriz G ainda representa um detector linear Uma vez que G tenha sido determinada o receptor MUD simplesmente toma uma decisão rígida com base no sinal linearmente transformado ou seja A matriz G ótima pode ser calculada com aplicação do princípio da ortogonalidade Eq 884 Seção 85 O princípio da ortogonalidade requer que o vetor de erro S k G r k seja ortogonal ao vetor de sinal recebido r k Em outras palavras Assim a matriz G ótima pode ser calculada como Como o vetor de ruído n k e o vetor de sinal s k são independentes é a correlação cruzadas dos dois Além disso havíamos estabelecido as igualdades nas quais usamos I M M para denotar a matriz identidade M M Com isso temos titlea Pulso raiz de cosseno levantado onoff Portanto a matriz do receptor linear ótimo é Fica claro que quando o ruído de canal é zero ou seja 0 a matriz ótima dada pela Eq 1151 se degenera a que essencialmente é o receptor descorrelator Figura 1115 Receptor MUD de mínimo erro quadrático médio O receptor MUD linear de mínimo erro quadrático médio MMSE minimum mean square error receiver é mostrado na Fig 1115 Como no caso do receptor descorrelator o principal custo computacional advém da multiplicação matricial de G k O receptor linear MMSE também tem resistência ao problema próximodistante 11 Receptor com Realimentação de Decisão Reparemos que tanto o receptor descorrelator como o receptor MUD MMSE aplicam processamento linear de matrizes Por isso são conhecidos como receptores lineares de baixa complexidade O receptor MUD ótimo por sua vez é não linear e tem complexidade muito maior Existe ainda um receptor subótimo muito popular que é não linear Tratase de um método baseado no conceito de cancelamento sucessivo de interferências conhecido como receptor MUD com realimentação de decisão 14 15 A principal motivação por trás do receptor MUD com realimentação de decisão reside no fato de que em um ambiente próximodistante nem todos os usuários são igualmente afetados Em um ambiente próximodistante os sinais mais fortes são os vencedores e os mais fracos os perdedores Na verdade quando um dado usuário tiver uma intensidade que seja maior que as de todos os outros usuários seu receptor de filtro casado convencional terá um desempenho melhor que o possível em um ambiente de intensidades iguais Portanto seria razoável classificar os usuários recebidos segundo as respectivas intensidades medidas por P i g i 2 Os símbolos QAM mais intensos de usuários podem ser detectados primeiro usando apenas receptores de filtros casados convencionais projetados para usuários individuais Uma vez que o símbolo de usuário mais intenso seja conhecido seus efeitos de interferência nos restantes sinais de usuários podem ser cancelados Ao cancelar o símbolo de usuário mais intenso dos vetores de sinais recebidos restarão M 1 símbolos desconhecidos de usuários a serem detectados Entre eles o próximo símbolo de usuário mais intenso pode ser detectado com maior precisão após a remoção da interferência mais intensa Portanto seu efeito também pode ser cancelado subsequentemente dos sinais recebidos beneficiando os remanescentes M 2 símbolos de usuários e assim por diante Por fim o mais fraco sinal de usuário será detectado depois que toda MAI tenha sido cancelada Fica claro que o receptor MUD com realimentação de decisão se vale do cancelamento sucessivo de interferências mais intensas para beneficiar a detecção dos sinais de usuários mais fracos Por essa razão o receptor MUD com realimentação de decisão também é conhecido como receptor com cancelamento sucessivo de interferências SIC successive interference setfigwave1LineWidth2 118 cancellation receiver A Fig 1116 mostra o diagrama em blocos do receptor MUD com realimentação de decisão Com base na Eq 1131 o funcionamento do receptor SIC é sumarizado nos seguintes passos MUD com realimentação de decisão Passo 1 Classificar todas as intensidades de usuários P i g i 2 em ordem decrescente Sem perda de generalidade consideremos Figura 1116 Receptor MUD com realimentação e decisão com base no cancelamento sucessivo de interferências admitindo que todos os M usuários sejam classificados em ordem decrescente de ganho Sejam y 1 i r k i e l 1 Passo 2 Detectar o lésimo mais intenso símbolo de usuário via Passo 3 Cancelar a primeira mais intensa interferência de usuário dos sinais recebidos Passo 4 Fazer l l 1 e reiniciar do passo 2 até que l M Um receptor MUD com realimentação de decisão requer pouca computação pois o passo de cancelamento de interferência exige apenas complexidade OM 2 Esse é um receptor muito razoável e de baixa complexidade Dada a correta decisão de símbolo o cancelamento da interferência mais intensa dos sinais fracos elimina completamente o problema próximodistante A principal desvantagem ou fraqueza do receptor com realimentação de decisão reside no efeito de propagação de erro Essa ocorre quando no passo 2 um símbolo de usuário s k l for detectado incorretamente Em consequência esse símbolo errôneo usado no cancelamento da interferência no passo 3 pode na verdade reforçar a MAI Isso leva à probabilidade de mais erros de decisão do símbolo de usuário subsequente que por sua vez pode causar mais erros de decisão A análise do efeito da propagação de erro pode ser encontrada nas referências 14 e 15 SISTEMAS CDMA DSSS PRÁTICOS MODERNOS Desde a década de 1990 surgiram muitas aplicações comerciais importantes para espalhamento espectral incluindo telefones celulares comunicação pessoal e localização de posição A seguir para ilustrar os benefícios de espalhamento espectral subplot212 1181 discutiremos algumas aplicações populares da tecnologia CDMA Figura 1117 Sistema de telefonia celular CDMA em Redes de Telefonia Celular Redes Celulares A rede celular divide uma área de serviço em células geograficamente menores Fig 1117 Cada célula tem uma torre de estação de base para conexão com os usuários móveis a que serve Todas as estações de base são conectadas à central de comutação de telefonia móvel MTSO mobile telephone switching office que por sua vez é conectada à central de telefonia Um usuário que inicie uma chamada se comunica por um canal de rádio com sua estação de base que envia o sinal à MTSO A MTSO se conecta ao receptor via o sistema de telefonia fixa ou via outra estação de base À medida que o usuário que faz a chamada se move de uma célula a outra ocorre um processo de transferência handoff Durante handoff a MTSO automaticamente comuta o usuário para um canal disponível na nova célula enquanto a chamada está em curso O processo de handoff é tão rápido que em geral os usuários não chegam a percebêlo A verdadeira engenhosidade da rede celular está na capacidade de reusar uma banda de frequências em múltiplas células Sem as células transmissores de alta potência podem ser usados para cobrir toda uma cidade Contudo isso permitiria que a qualquer momento um canal de frequência fosse usado somente por um usuário na cidade o que imporia sérias limitações ao número de canais e usuários simultâneos No esquema celular a limitação é superada com o reuso das mesmas frequências em todas as células exceto nas adjacentes Para que isso seja possível as potências dos transmissores são mantidas suficientemente baixas evitando que o alcance de sinais de uma célula ultrapasse as células adjacentes Podemos acomodar um número arbitrário de usuários aumentando o número de células reduzindo a área das mesmas e os níveis de potência Os esquemas de celulares analógicos 1G de primeira geração usam sinais de áudio para modular um sinal FM com largura de banda de transmissão de 30 kHz Esse sinal FM de banda larga resulta em boa SNR mas é altamente ineficiente em termos de consumo de largura de banda e reuso de frequências Os sistemas celulares 2G de segunda geração são todos digitais Entre eles GSM e cdmaOne são dois dos mais largamente empregados GSM adota uma tecnologia TDMA permitindo que oito usuários compartilhem um canal de 200 kHz A tecnologia competidora cdmaOne anteriormente conhecida como IS95 é um sistema DSSS Por que CDMA em Sistemas Celulares Embora o espalhamento espectral seja inerentemente bem adequado para combater interferências de banda estreita e apresente certas vantagens nas áreas de redes e handoff a principal característica por trás da larga aplicação de CDMA em sistemas celulares é a capacidade de melhorar a utilização do espectro Essa capacidade advém de duas fontes principais Primeira o emprego de CDMA permite melhorar o reuso de frequências Sistemas de banda estreita não podem utilizar a mesma frequência de transmissão em células adjacentes devido ao risco de interferência CDMA tem resistência inerente a interferências Embora usuários de células adjacentes empregando diferentes códigos contribuam para o nível total de interferência sua contribuição será significativamente menor que a interferência proveniente de usuários da mesma célula Isso leva a um aumento na eficiência de reuso de frequências Além disso no caso de carga de tráfego dinâmica CDMA provê maior capacidade total Isso se deve ao fato de que em um sistema CDMA de baixa carga usuários enfrentariam um nível mais baixo de interferência e portanto teriam melhor desempenho usuários de TDMA com largura de banda de canal fixa não desfrutam desse benefício figwave2plottxorthdelayrtdelayrt199 Sistema Celular CDMA cdmaOne IS95 O primeiro sistema CDMA comercialmente bemsucedido em aplicações celulares foi desenvolvido pela Electronic Industries Association EIA Associação de Indústrias Eletrônicas como um padrão temporário 95 IS95 Agora com o nome oficial de cdmaOne esse sistema emprega DSSS adotando sequências de espalhamento de 12288 Mchips nos enlaces ascendentes e descendentes As transmissões ascendentes e descendentes ocupam 125 MHz de largura de banda de RF como ilustrado na Fig 1118 O vocoder QCELP Qualcomm codeexcited linear prediction ou predição linear excitada por código de Qualcomm é usado para codificação de voz Como o codificador de voz explora vazios e pausas na fala a taxa de dados varia entre 12 e 96 kbits Para manter a taxa de símbolos constante sempre que a taxa de bits cai abaixo da taxa de pico de 96 kbits código de repetição é usado para preencher os vazios Por exemplo se a saída do codificador de voz e subsequentemente do codificador de convolução cair a 24 kbits a saída é repetida três vezes antes de chegar ao entrelaçador O transmissor de cdmaOne tira proveito dessa repetição reduzindo a potência de saída em pelo menos 20 dB durante três de quatro símbolos idênticos Dessa forma a interferência de múltiplo acesso é reduzida Essa comutação por atividade de voz voice activity gating reduz a MAI e aumenta a capacidade global do sistema No enlace descendente o cdmaOne usa modulação QPSK no enlace ascendente é usada uma variação de QPSK conhecida como QPSK com offset ou OQPSK Há outras diferenças importantes entre os enlaces direto e reverso A Fig 1119 delineia as operações básicas de espalhamento e modulação no enlace direto Após um código corretor de erro convolucional de taxa 12 a taxa de dados de voz passa a 192 kbits O entrelaçamento interleaving embaralha os dados para reduzir efeitos de explosão de erro e a mistura scrambling de códigos longos provê alguma proteção nominal de privacidade A taxa de dados permanece em 192 kbits até ser espalhada por um código curto de WalshHadamard de comprimento 64 resultando em uma taxa de sequência de 12288 Mbits Como na ausência de distorções de canal o enlace direto usa transmissões síncronas pode haver até 64 canais de dados ortogonais cada um fazendo uso de um distinto código de WalshHadamard As componentes em fase I e em quadratura Q das modulações QPSK transportam os mesmos dados na largura de banda de 125 MHz embora diferentes máscaras de código sejam aplicadas a I e a Q Figura 1118 Exigência de largura de banda de RF para os enlaces ascendente e descendente de IS05 Figura 1119 Modulação de enlace direto e espalhamento de código de Walsh de cdmaOne IS95 O desempenho do enlace reverso é de grande interesse por dois motivos Primeiro como discutido anteriormente enlace reverso é sujeito ao problema próximodistante Segundo como no enlace direto todas as transmissões têm origem na mesma estação de base é feito uso de códigos de espalhamento ortogonais de WalshHadamard para gerar sinais síncronos com correlação cruzada zero O enlace reverso não desfruta desse luxo Por isso correção de erro mais poderosa taxa 13 é empregada no enlace reverso Não obstante assim como no enlace direto a taxa bruta do vocoder QCELP é 96 kbits que por fim é espalhada a 12288 Mbits em uma largura de banda de 125 MHz Como já mencionado o uso de espalhamento espectral em comunicações móveis requer o tratamento do problema próximo distante Para combater esse problema IS95 usa controle de potência No enlace direto há um subcanal para fins de controle de potência A cada 125 ms a estação de base recebe estimativas da intensidade de sinal da unidade móvel Se a mesma for muito alta a base transmite um 1 no subcanal se for muito baixa a base transmite um 0 Dessa forma a estação móvel ajusta sua potência com base no sinal de controle de 800 bits para reduzir a interferência a outros usuários Serviços Celulares 3G 1619 titleb Modulação ortogonal 1182 No novo milênio provedores de serviços sem fio estão mudando seus sistemas celulares 2G para a próxima geração 3G de sistemas sem fio capazes de suportar transmissão de dados e conexões de internet de alta taxa Por esse motivo o padrão International Mobile Telecommunications2000 IMT2000 Padrão Internacional de Telecomunicações Móveis 2000 é o padrão global para comunicações sem fio de terceira geração O padrão IMT2000 provê uma estrutura para o acesso sem fio a sistemas de acesso fixos e móveis sem fio O objetivo é prover cobertura celular sem fio de até 144 kbits para unidades móveis de alta velocidade 384 kbits para pedestres e 2048 Mbits para usuários em domicílio Entre os padrões 3G há três importantes tecnologias sem fio baseadas em DSSS CDMA as duas versões competidoras de CDMA de banda larga provenientes de 3rd Generation Partnership Project 3GPP Projeto de Parceria para a 3 a Geração e 3rd Generation Partnership Project 2 3GPP2 e TDSCDMA de 3GPP para a China Como os sistemas celulares 3G continuam a usar a banda celular existente uma alta taxa de dados para um usuário significa uma redução de serviços para outros usuários CDMA ativos na mesma célula Caso contrário dada a limitada largura de banda seria impossível servir ao mesmo número de usuários ativos como em cdmaOne e suportar taxa de dados de até 2048 Mbits Assim a taxa de dados de e para a unidade móvel deve variar segundo a intensidade do tráfego de dados em uma célula Como a maioria dos padrões de tráfego incluindo o uso de internet tende a ser em rajadas a taxa de dados variável oferecida por sistemas celulares 3G é adequada para estas aplicações Ao contrário do FDMA e TDMA o CDMA provê um ambiente perfeito para taxa de dados variável e requer modificações muito simples Enquanto para suportar uma taxa variável o FDMA e o TDMA requereriam o agrupamento dinâmico de múltiplas bandas de frequências ou janelas temporais o CDMA precisa mudar apenas o ganho de espalhamento Em outras palavras a taxas de dados mais elevadas um transmissor CDMA pode usar um menor fator de espalhamento Nesse modo sua MAI a outros usuários é alta e poucos usuários podem ser acomodados A taxas mais baixas o transmissor usa maior fator de espalhamento permitindo que um número maior de usuários transmitam No padrão CDMA2000 do 3GPP2 há dois modos de transmissão de rádio 1xRTT que utiliza uma banda de 125 MHz e 3xRTT que agrega três bandas de 125 MHz No enlace direto de 1xRTT a máxima taxa de dados é 3072 kbits com ganho de espalhamento de 4 Assim a taxa de chip ainda é 12288 Mchips Uma versão mais recente do 3GPP2 é denominada CDMA2000 1xEVDO revisão A em que EVDO significa evolution dataoptimized otimizado para dados de evolução Esse sistema pode suportar taxa de dados de pico de 31 Mbits no enlace direto com largura de banda de 125 MHz Isto é alcançado com codificação adaptativa e modulações adaptativas incluindo QPSK PSK8 e QAM16 À taxa de pico o ganho de espalhamento é 1 ou seja nenhum espalhamento Ao mesmo tempo o sistema WCDMA de 3GPP aplica ideias similares Ao contrário de CDMA 2000 WCDMA tem largura de banda padronizada de 5 MHz Quando espalhamento é usado a taxa de chip é de 4096 Mchips No enlace descendente o fator de espalhamento WCDMA de 3GPP varia de 512 a 4 Com modulação QPSK isso provê uma taxa de dados que varia entre 16 kbits e 2048 Mchips Como no caso do CDMA2000 o WCDMA do 3GPP também tem um equivalente a EVDO conhecido como highspeed packet access HSPA acesso por pacote de alta velocidade No enlace descendente a recente versão HPSA Versão 6 alcança a taxa de pico de 144 Mbits Contudo implementações existentes podem suportar uma taxa de pico de apenas 72 Mbits Não obstante a maioria dos usuários de dados ficaria satisfeita com essa alta taxa excetuando talvez os telespectadores de TV de alta definição Controle de Potência versus MUD Vale notar que apesar do intenso interesse de pesquisa acadêmica em receptores CDMA de múltiplos usuários nas décadas de 1980 e 1990 todos os sistemas celulares CDMA descritos aqui se baseiam no controle de potência para combater o problema próximodistante A razão para isso está no fato de que o controle de potência é de implementação bastante simples e se mostrou muito eficaz Receptores MUD por sua vez requerem maior complexidade computacional Para serem eficazes receptores MUD exigem ainda demasiada informação sobre o canal e sinais associados a todos os usuários ativos Além disso receptores MUD sozinhos não são capazes de superar completamente a disparidade de desempenho em um ambiente próximodistante CDMA no Sistema de Posicionamento Global GPS O que É GPS O sistema de posicionamento global GPS global positioning system é o único sistema global de navegação por satélite totalmente funcional Utilizando uma constelação de pelo menos 24 satélites em órbita média em torno da Terra para transmitir precisos sinais de RF o sistema permite que um receptor GPS determine suas próprias localização velocidade e direção de deslocamento Um receptor GPS calcula sua posição com base nas distâncias a três ou mais satélites da constelação A medida do atraso temporal entre a transmissão e a recepção de cada sinal de microonda de GPS fornece a distância a cada satélite pois o sinal viaja a uma velocidade conhecida O sinal também transporta informação sobre a localização do satélite Ao determinar a posição de pelo menos três satélites assim como a distância a cada um deles o receptor pode calcular sua própria posição por meio de triangulação Em geral os receptores não têm relógios perfeitamente precisos e portanto rastreiam um ou mais satélites adicionais para corrigir o erro dos próprios relógios setfigwave2LineWidth2 Cada satélite GPS difunde continuamente sua mensagem de navegação via BPSK a uma taxa de 50 bits Essa mensagem é transmitida por meio de dois códigos de espalhamento CDMA um para o modo grosseiro de aquisição CA coarseacquisition e um para o modo preciso P precise criptografado para uso militar O código de espalhamento CA é uma sequência PN com período de 1023 chips enviados a 1023 Mchips O ganho de espalhamento é L 20460 A maioria dos usuários comerciais acessam somente o modo CA Originalmente desenvolvido para uso militar o GPS encontrou muitas aplicações na vida civil como em navegações marinha aérea e terrestre assim como em estudos geográficos e de agrimensura O GPS permite que uma pessoa determine o tempo e sua posição latitude longitude e altitude em qualquer lugar na terra com precisão de polegadas A pessoa também pode determinar a velocidade com que se move Receptores GPS se tornaram pequenos e de baixo custo podendo ser transportados por qualquer pessoa em carros ou barcos Receptores GPS portáteis são abundantes e foram incorporados em unidade de telefonia móvel Como GPS Funciona Um receptor GPS mede sua distância a um grupo de satélites no espaço que atuam como pontos precisos de referência Como o sistema GPS consiste em 24 satélites sempre haverá mais que quatro corpos orbitais visíveis de qualquer lugar na Terra Os 24 satélites são localizados em seis planos orbitais a uma altitude de 22200 km Cada satélite completa uma órbita em volta da terra a cada 12 horas Os satélites são continuamente monitorados pelo Departamento de Defesa dos EUA que conhece suas posições e velocidades exatas a cada instante de tempo Essa informação é transmitida de volta aos satélites Todos os satélites dispõem de relógios atômicos de alta precisão e são sincronizados para gerar o mesmo código PN ao mesmo tempo Os satélites transmitem esse código PN continuamente acompanhado de informação sobre suas localizações e a hora Um receptor GPS na terra também gera o mesmo código PN embora não em sincronismo com o dos satélites devido à necessidade de receptores de baixo custo Portanto o código PN gerado pelo receptor estará deslocado temporalmente de α segundos polarização temporal em relação ao código PN dos satélites Consideremos inicialmente uma polarização temporal α 0 Ao medir o atraso temporal entre seu próprio código PN e o recebido de um satélite o receptor pode calcular a distância d até o satélite Essa informação posiciona o receptor em qualquer ponto na superfície de uma esfera de raio d centrada na posição do satélite que é conhecida como mostrado na Fig 1120a Medidas simultâneas de distâncias em relação a três satélites posicionam o receptor nas superfícies de três esferas cada uma centrada na posição conhecida de um dos satélites A interseção de duas esferas é um círculo Fig 1120b e a interseção desse círculo com a terceira esfera resulta em dois pontos como mostrado na Fig 1120c Um desses pontos é a posição correta do receptor Mas qual deles Afortunadamente um dos dois pontos corresponde a uma resposta ridícula O ponto incorreto pode não estar na superfície da Terra ou pode indicar uma velocidade impossivelmente alta para o receptor O computador em um receptor GPS tem várias técnicas para distinguir o ponto correto do incorreto Na prática a polarização temporal α não é zero Para resolver esse problema precisamos de uma medida de distância a um quarto satélite Um usuário determina sua posição por meio da recepção do sinal de quatro dos 24 satélites possíveis como ilustrado na Fig 1120d Há quatro incógnitas as coordenadas do usuário no espaço tridimensional e a polarização temporal no receptor do usuário Essas quatro incógnitas podem ser calculadas com o uso de quatro equações de distância aos quatro satélites Como sinais DSSS consistem em uma sequência de pulsos extremamente curtos é possível medir seus tempos de chegada com precisão O sistema GPS permite precisão de 10 metros em qualquer ponto na Terra O uso de GPS diferencial permite precisão da ordem de centímetros Nesse caso usamos uma posição terrestre cuja localização seja conhecida com exatidão Comparação entre as coordenadas dessa posição com as lidas por um receptor GPS na mesma posição fornece o erro polarização do sistema GPS que pode ser usado para corrigir os erros de medida GPS de outras posições Isso tem por base o fato de que as órbitas dos satélites são tão altas que qualquer erro medido por um receptor será praticamente igual ao de qualquer outro receptor no mesmo local O GPS diferencial é usado atualmente em aplicações como agrimensura posicionamento de oleodutos sistema de aviação sistemas de navegação marinha e na preparação de mapas precisos para fins diversos desde a localização de cabeamento elétrico subterrâneo à posição de torres de transmissão de energia Por que Espalhamento Espectral no GPS O uso de espalhamento espectral no sistema GPS tem três justificativas Primeira os sinais dos satélites ficam preservados do uso não autorizado Segunda e mais importante do ponto de vista prático o inerente ganho de processamento de espalhamento espectral permite que níveis razoáveis de potências sejam empregados Como o custo de um satélite é proporcional a seu peso é desejável que a potência seja reduzida o máximo possível Além disso como cada satélite deve ver um hemisfério completo as antenas devem ser de baixo ganho Para maior precisão pulsos curtos se fazem necessários para aumentar a resolução Isso resulta em alta ocupação espectral e em um nível de sinal recebido vários decibéis abaixo do piso de ruído Como a informação de distância deve ser calculada apenas cerca de uma vez a cada segundo a largura de banda pode ser de apenas 100 Hz Isso é naturalmente adequado à tecnologia de espalhamento espectral O desespalhamento do sinal no receptor produz um significativo ganho de processamento permitindo boa recepção com níveis de potência razoáveis A terceira razão para uso de espalhamento espectral é que os satélites podem usar uma mesma banda de frequências sem interferências mútuas devido à quase ortogonalidade com o sinal de cada usuário Calcula a duração do sinal 1183 Figura 1120 a Localização do receptor a partir de medida de um satélite b Localização reduzida por medidas de dois satélites c Localização reduzida por medidas de três satélites d Sistema prático de posicionamento global baseado em quatro satélites e Diagrama em blocos de um receptor GPS Cada satélite completa uma órbita em 12 horas e emite duas sequências PN moduladas em quadratura de fase em duas frequências As duas frequências são necessárias para corrigir o atraso introduzido pela ionosfera Padrão IEEE 80211b para LAN Sem Fio O IEEE 80211b é um padrão comercial desenvolvido para rede de área local sem fio WLAN wireless local area network para prover conexão sem fio de alta velocidade a tipicamente computadores notebooks Como seu antecessor IEEE 80211 o padrão IEEE 80211b opera na banda ISM de 24 a 24835 GHz que dispensa licenciamento Como em redes celulares cada notebook em uma pequena área de cobertura forma um enlace de comunicação 1 para1 com um ponto de acesso Em geral o ponto de acesso está conectado à internet por uma conexão de alta velocidade que pode transportar o tráfego de e para os computadores Assim o ponto de acesso funciona como uma ponte entre os computadores e a internet LrcoslengthxrcosLrectlengthxorth A banda ISM é povoada por sinais de numerosos dispositivos sem fio não licenciados como fornos de microondas monitores eletrônicos de bebês telefones sem fio e controladores sem fio Portanto a transmissão de dados em uma WLAN requer resistência à interferência proveniente desses dispositivos O espalhamento espectral é uma tecnologia muito eficaz para comunicação nesse tipo de ambiente A simples modulação FSK utilizada no padrão IEEE 80211 provê taxa de dados de até 2 Mbits e é de fácil implementação Não obstante a taxa de dados no enlace é muito baixa Por ser um dispositivo poderoso e capaz de suprir níveis moderados de potência e computação um notebook é capaz de suportar modulação mais complexa e mais rápida IEEE 80211 elimina a opção de FHSS e adota a transmissão DSSS O padrão eleva a taxa de transmissão até 11 Mbits que é razoavelmente satisfatória para a maioria das conexões de computadores Internacionalmente 14 canais DSSS são definidos na banda ISM embora nem todos sejam disponíveis em todos os países Na América do Norte há 11 canais que se sobrepõem com largura de banda de 22 MHz O espaçamento entre canais é de 5 MHz A Tabela 112 lista os canais DSSS A taxa de chip no padrão IEEE 80211b é de 11 MHz e a largura de banda de transmissão de espalhamento espectral é de aproximadamente 25 MHz A taxa de dados de 80211b pode ser de 1 2 55 e 11 Mbits Para as taxas de 1 e 2 Mbits são usadas as modulações BPSK e QPSK diferencial respectivamente Para as taxas de dados de 55 e 11 Mbits foi desenvolvido um mais sofisticado chaveamento de código de complementar CCK complementary code keying A taxa de dados no enlace é estabelecida com base nas condições de qualidade do canal Os diferentes ganhos de espalhamento para o sinal DSSS modulado de 80211b são listados na Tabela 113 Tabela 112 Alocação de canais no padrão IEEE 80211b na banda ISM de 24 GHz Tabela 113 Formato de modulação e fator de espalhamento na transmissão IEEE 80211b Figura 1121 LAN sem fio com um ponto de acesso e quatro nós de computadores Reparemos que cada ponto de acesso pode servir a vários enlaces Além disso pode haver mais de um ponto de acesso em uma dada área Para evitar sobreposição espectral enlaces de redes distintas devem ser separados por um mínimo de cinco canais Por exemplo os canais 1 6 e 11 podem coexistir sem interferência mútua É comum que uma área seja muito congestionada por cobertura de múltiplas redes Assim a sobreposição espectral se torna inevitável Quando redes distintas utilizam canais que se sobreponham espectramente colisões de sinais podem ocorrer Colisões de dados não são resolvidas por transmissões e receptores de rádio camada física Protocolos de redes são desenvolvidos para forçar que todas as redes e BER 119 EXERCÍCIOS COM MATLAB Nesta seção de exercícios computacionais apresentamos algumas oportunidades para que os leitores exerçam a implementação e o comportamento de comunicações por espalhamento espectral Consideramos os casos de espalhamento espectral por saltos em frequências FHSS espalhamento espectral por sequência direta DSSS ou CDMA e sistemas CDMA de múltiplos usuários Testeremos o efeito de interferência de banda estreita em comunicações por espalhamento espectral e o efeito próximodistante em sistemas CDMA de múltiplos usuários EXERCÍCIO COMPUTACIONAL 111 COMUNICAÇÃO FSK FHSS SUJEITA A INTERFERÊNCIA DE BANDA ESTREITA O primeiro programa MATLAB Ext111m implementa um sistema de comunicação FSHH que utiliza FSK e receptores não coerentes Com um valor de entrada 1 com interferência e 0 sem interferência podemos ilustrar o efeito de FHSS contra sinais interferentes de banda estreita Tabela 114 Parâmetros usados no Exercício Computacional 111 Número de usuários m 1 Fator de espalhamento L 8 número de bandas FSK Número de saltos por símbolo por bit Lh 1 Modulação BFSK Detecção Não coerente Interferência em banda parcial Banda FSK fixa No programa Ex111m os parâmetros do sistema FHSS são dados na Tabela 114 Quando interferência em banda parcial está ligada um canal FSK selecionado aleatoriamente é bloqueado por interferência Sob ruído de canal gaussiano branco o efeito de interferência em banda parcial no usuário FHSS é mostrado na Fig 1122 Podemos ver claramente que sem interferência o desempenho do FHSS coincide com o de FSK como analisado na Seção 111 e no Capítulo 10 Sob interferência parcial a BER do sistema FHSS tem um piso 12L como mostrado na Eq 114 À medida que L aumenta de 4 para 8 e 16 o desempenho melhora noiseqrandnLrcos1 Figura 1122 Desempenho de detecção não coerente de FHSS sob interferência em banda parcial Gera ruído de canal AWGN clearclf n10000 Número de símbolos de dados na simulação L8 Número de bandas de frequências Lh1 Número de saltos por símbolo bit m1 Número de usuários Geração dos bits de informação sdataroundrandnm liga ou desliga a interferência parcial jamminginputinterferência Entre 1 para Sim 0 para Não liga gerações de fases aleatórias nas duas frequências xbase1expj2pirandLhn1 xbase2expj2pirandLhn1 Modulação de duas frequências ortogonais xmodsigkronsdataonesLh1xbase1 kron1sdataonesLh1xbase0 clear xbase0 xbase1 Geração de uma sequência aleatória de saltos de comprimento nLh PhoproundrandLhn1L11 Padrão PN de saltos Xsigasparse1LhnPhopxmodsig1 Xsigbsparse1LhnPhopxmodsig2 Geração de sequências de ruído para os dois canais de frequência noise1randnLhn1jrandnLhn1 noise2randnLhn1jrandnLhn1 Nsigasparse1LhnPhopnoise1 Nsigbsparse1LhnPhopnoise2 clear noise1 noise2 xmodsig BER BERaz Adiciona um canal a sofrer interferência escolha aleatória if jamming nchroundrandL11 XsiganchXsiganch0 XsigbnchXsigbnch0 NsiganchNsiganch0 NsigbnchNsigbnch0 end Geração do ruído de canal AWGN for i110 Eb2Nii EbN em dB Eb2Nnum10Eb2Ni10 EbN numérico Varn12Eb2Nnum 1SNR é a variância de ruído sigmoidsqrtVarn desviopadrão for i112 EXERCÍCIO COMPUTACIONAL 112 TRANSMISSÃO DSSS DE QPSK Neste exercício analisamos o desempenho de um sistema DSSS em bandabase sujeito à interferência de banda estreita Para espalhar esse caso usamos o código de Barker de comprimento 11 pcode 1 1 1 1 1 1 1 1 1 1 1 devido às suas interessantes propriedades de espalhamento de espectro Admitimos que os ruídos de canal sejam gaussianos brancos aditivos O programa MATLAB Ex112bm fornece os resultados de um usuário DSSS com modulação QPSK sujeito à interferência de banda estrita Eb2Nii EbN0 em dB Geração do ruído AWGN noiseqrandnLdataLc1jrandnLdataLc1 Potência é 2 jammodkronjamdataonesLc1 clear jamdata jammer sqrtPj2jammodexpj2pi0121LdataLc fj fc012 clear jammod Pxpwelchxin4096Lctwoside figure1 semilogyxLc2fftshiftP axisLc2 Lc2 1e2 1e2 grid xfontxlabelfrequência em unidades de 1Ts yfontylabelPSD do sinal CDMA setxfontFontSize11setyfontFontSize11 Pxpwelchjammer4096Lctwoside figure2semilogyxLc2fftshiftP grid axisLc2 Lc2 1e2 1e2 xfontxlabelfrequência em unidades de 1Ts yfontylabelPSD do sinal CDMA interferência de banda estreita setxfontFontSize11setyfontFontSize11 BER BERaz for i110 Eb2Nii1 Eb2Nnum10Eb2Ni10 EbN numérico VarnLc2Eb2Nnum 1SNR é a variância do ruído sigmoidsqrtVarn desviopadrão awgnoissignoisnoiseq AWGN youtxinawgnoisjammer YoutreshapeyoutLcLdata clear yout awgnois Desempilhar primeiro zoutYoutcode Decisão com base no sinal das amostras declsignrealzoutjsignimagzout Compara com os dados originais para calcular a BER BERBERsumrealdatasymrealdecl1 imagdatasymimagdecl12Ldata BERazBERaz05erfcsqrtEb2Nnum analítico end figure3 figbersemilogyEb2NBERazkEb2NBERko legendSem interferênciaInterferência de banda estreita 10 dB setfigberLineWidth2 xfontxlabelEbN dB yfontylabelTaxa de erro de bit titleDSSS CDMA com ganho de espalhamento 11 Eb2Nnum10Eb2Ni10 EbN número Figura 1123 Densidades espectrais de potência de sinal DSSS com espalhamento por código de Barker de comprimento 11 a sem interferência de banda estreita b com interferência de banda estreita com SIR 10 dB Figura 1124 Probabilidades de erro de bit de DSSS com modulação QPSK sujeita a interferência de banda estreita Como nesse caso o fator de espalhamento é L 11 o sinal DSSS ocupa uma largura de banda aproximadamente 11 vezes maior Da portadora do sinal do usuário adicionamos um sinal QPSK interferente de banda estreita com deslocamento de frequência portadora de 132T A relação sinalinterferência SIR pode ser ajustada Na Fig 1123 podemos testemunhar as densidades espectrais de potência antes e depois da adição do sinal interferente com SIR 10 dB O desespalhamento no receptor permite a determinação da BER resultante do sinal QPSK sujeito a diferentes níveis de interferência Fig 1124 À medida que o sinal interferente se torna mais forte precisamos aplicar maiores fatores de espalhamento para mitigar o efeito de degradação da BER Varn12Eb2Nnum 1SNR é a variância do ruído EXERCÍCIO COMPUTACIONAL 113 SISTEMA CDMADS MULTIUSUÁRIO Para implementar sistemas CDMADS devemos selecionar múltiplos códigos de espalhamento com boas propriedades de correlação cruzada e autocorrelação Sequências Gold são uma classe bem conhecida de bons códigos de espalhamento Notemos que sequências Gold não são mutuamente ortogonais têm correlações cruzadas não zero mas pequenas que podem degradar o desempenho da detecção de múltiplos usuários Selecionamos quatro sequências Gold para espalhar quatro usuários QPSK de iguais potências de transmissão O efeito próximodistante é considerado nesse exemplo O primeiro programa MATLAB gold31codem aloca sequências Gold de comprimento 31 aos quatro sinais de usuário modulados em QPSK O programa MATLAB principal Ex113m completa o espalhamento dos quatro sinais de usuário Os quatro sinais espalhados CDMA são somados no receptor antes da detecção Cada um dos quatro usuários aplica o desespalhador convencional filtro casado ao receptor antes de efetuar a decisão símbolo a símbolo Na Fig 1125 apresentamos a BER signoissqrtVarn desviopadrão resultante para os quatro usuários sob ruído gaussiano branco aditivo Apresentamos como referência a BER de apenas um usuário em canal AWGN Os quatro usuários têm a mesma BER A pequena degradação da BER no caso multiusuário em comparação com o caso de apenas um usuário é causada pelos códigos não ortogonais de espalhamento Figura 1125 Desempenho de detecção convencional de um usuário CDMADS sem efeito próximodistante awgnoissignoisnoiseq AWGN clearclf Ldata10000 comprimento de dados na simulação Deve ser divisível por 8 Lc31 fator de espalhamento versus taxa de dados Número de usuários 4 Geração de símbolos de modulação QPSK datasym2roundrandLdata41j2roundrandLdata41 Seleciona 4 códigos de espalhamento Códigos Gold de comprimento 11 gold31code pcodeGPN Códigos de espalhamento estão na matriz pcode de 31x4 PowerMatdiagsqrt1 1 1 1 pcodepcodePowerMat Espalha agora xinkrondatasym1pcode1 krondatasym2pcode2 krondatasym3pcode3krondatasym4pcode4 Potência de sinal da entrada do canal é 2Lc Geração de ruído AWGN noiseqrandnLdataLc1jrandnLdataLc1 Potência é 2 BER1 BER2 BER3 BER4 BERaz for i112 Eb2Nii1 EbN em dB Eb2Nnum10Eb2Ni10 EbN numérico VarnLc2Eb2Nnum 1SNR é a variância do ruído sigmoidsqrtVarn desviopadrão end Adiciona ruído aos sinais na saída do canal EXERCÍCIO COMPUTACIONAL 114 DETECÇÃO CDMA DE MULTIUSUÁRIO EM AMBIENTE PRÓXIMODISTANTE Podemos agora modificar o programa no Exercício Computacional 113 para incluir o efeito próximodistante Entre os quatro usuários os usuários 2 e 4 têm a mesma potência e são os mais fracos dos transmissores distantes O usuário 1 tem 10 dB a mais de potência e o usuário 3 7 dB a mais Nesse ambiente próximodistante os usuários 2 e 4 sofrem o efeito de fortes sinais de interferência usuários 1 e 3 devido à falta de ortogonalidade de códigos Reparemos que os dois usuários fracos não têm o mesmo nível de potência de interferência de multiusuário MUI dos outros usuários devido à diferença de suas correlações O programa MATLAB Ex114am compara o desempenho do receptor convencional de um usuário com o do detector descorrelator de múltiplos usuários MUD descrito na Seção 117 Mostramos os resultados de desempenho dos usuários 2 e 4 na Fig 1126 yrcosxrcosawgnoissqrt2 Figura 1126 Comparação de desempenho de MUD descorrelator e receptor convencional de um usuário yorthxorthawgnois1Lrect Aplica primeiros os filtros casados Receptores descorrelatores são aplicados para mitigar o efeito próximodistant No programa MATLAB Ex114bm implementamos o receptor MUD com realimentação de decisão da Seção 117 O desempenho de MUD com realimentação de decisão para dois usuários é mostrado na Fig 1127 z1convyrcospcmatchclear awgnois yrcos Figura 1127 Comparação de desempenho de MUD descorrelator e receptor convencional de um usuário z2convyorthphmatch z3convyorthpsmatchclear yorth BERb2 BERc4 BER4 BERaz 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 a b c REFERÊNCIAS E O Geronoitis and M B Pursley Error Probabilities for Slow FrequencyHopped SpreadSpectrum Multiple Access Communications over Fading Channels IEEE TransCommun vol 30 no 5 pp 9961009 1982 Matthew S Gast 80211 Wireless Networks The Definitive Guide OReilly Associates Sebastopol CA 2002 BrentA Miller and Chatschik Bisdikian Bluetooth Revealed Upper Saddle River NJ PrenticeHall 2001 httpwwwbluetoothcom httpwwwphysicsprincetonedutrothmanBroertjespatentpdf DavidWallace Hedy Lamarr Lost Magazine October 2006 J S Lehnert An Efficient Technique for Evaluating DirectSequence SpreadSpectrum Communications IEEE Transon Commun vol 37 pp 851858 August 1989 R Lupas and S Verdú NearFar Resistance of Multiuser Detectors in Asynchronous Channels IEEE TransCommun vol COM38 no 4 pp 496508 April 1990 S Verdú Multiuser Detection Cambridge University Press New York 1998 S Verdú Optimum Multiuser Asymptotic Efficiency IEEE TransCommun vol COM34 no 9 pp 890897 Sept 1986 R Lupas and SVerdu Linear Multiuser Detectors for Synchronous CodeDivision MultipleAccess Channel IEEE TransInformTheory vol 35 pp 123136 Jan 1989 Z Xie R T Short and C K Rushforth AFamily of Suboptimum Detectors for Coherent Multiuser Communications IEEE Journal on Selected Areas of Communications vol 8 pp 683690 May 1990 M KVaranasi and BAazhang NearOptimum Detection in Synchronous CodeDivision Multiple Access Systems IEEE TransCommun vol 39 pp 825836 May 1991 A JViterbiVeryLowRate Convolutional Codes forMaximumTheoretical Performance of SpreadSpectrum Multiple Access Channels IEEE JSelect Areas Commun vol 8 no 4 May 1990 pp 641649 R Kohno H Imai M Hatori and S Pasupathy Combination of an Adaptive Array Antenna and a Canceler of Interference for DirectSequence SpreadSpectrum MultipleAccess System IEEE JSelect Areas Commun vol 8 no 4 May 1990 pp 675682 Juha Korhonen Introduction to 3G Mobile Communications Artech House Boston 2001 S C Yang 3G CDMA2000 Wireless System Engineering Artech House Boston 2004 Keiji Tachikawa ed WCDMA Mobile Communications System Wiley 2002 3rd Generation Partnership Project 2 Physical Layer Standard for cdma2000 Spread Spectrum Systems 3GGP2 CS0002 D Version 10 Feb 13 2004 EXERCÍCIOS Considere um sistema ASK binário com saltos rápidos O espectro AWGN é igual a S n f 10 6 e as amplitudes dos sinais binários são 0 e 2 V O sistema ASK usa uma taxa de dados de 100 kbits e é detectado de forma não coerente O sistema ASK requer largura de banda de 100 kHz para transmissão No entanto os saltos em frequência se dão sobre 12 bandas ASK iguais com largura de banda total de 12 MHz O sinal interferente em banda parcial pode gerar uma forte interferência parecida com ruído gaussiano com potência total de 27 dBm Para o caso em que o sinal interferente em banda parcial afeta um dos 12 canais FH determine a BER do sistema ASKFH quando o sinal ASK saltar 6 bandas por período de bit Para o caso em o sinal interferente em banda parcial afeta dois dos 12 canais FH determine a BER do sistema ASKFH quando o sinal ASK saltar 6 bandas por período de bit Para o caso em o sinal interferente em banda parcial afeta todos os 12 canais FH determine a BER do sistema ASKFH quando o sinal ASK saltar 6 bandas por período de bit Refaça o Exercício 1111 para o caso em que o sinal ASK salta 12 bandas por período de bit Refaça o Exercício 1111 para o caso em que o sinal ASK salta 1 banda por período de bit Em um sistema FH de múltiplos usuários que aplica BPSK para cada transmissão de usuário considere cada usuário interferente como um interferente em banda parcial Há M usuários e um total de L bandas de sinal para saltos em frequência síncronos O usuário desejado em questão salta L h bandas em cada período de bit Amostra o sinal recebido e colhe amostras a b c a b a b Calcule a probabilidade de que exatamente 1 das bandas de sinal usadas pelo usuário desejado durante um período de bit seja afetada pelos sinais interferentes Calcule a probabilidade de que nenhuma das bandas de sinal usadas pelo usuário desejado durante um período de bit seja afetada pelos sinais interferentes Assuma que quando parte de uma banda de sinal for afetada por interferência possamos calcular o efeito na BER descartando a energia de sinal na banda afetada Calcule a BER de um dado usuário nesse sistema Suponha que o ruído AWGN nt tenha espectro 2 Se o ruído AWGN nt for idealmente limitado em banda a 12T c Hz mostre que se o sinal de espalhamento ct tiver função de autocorrelação então a PSD de xt ntct é aproximadamente Considere sistemas DSSS com sinal interferente it No receptor o sinal desespalhado ct 1 com largura de banda B c Mostre que it e a interferência desespalhada i at itct têm mesma potência Se it tiver largura de banda B s e se o fator de espalhamento L for tal que B c LB s mostre que o espectro de potência de i a t tem amplitude L vezes menor e largura de banda L vezes maior Em um sistema CDMA multiusuário de DSSS todos os transmissores estão à mesma distância dos receptores Em outras palavras g i constante O espectro do ruído gaussiano branco aditivo é igual aS n f 5 10 6 BPSK é o formato de modulação de todos os usuários e a taxa de dados é 16 kbits Se os códigos de espalhamento forem mutuamente ortogonais calcule a necessária potência de sinal de usuário P i para alcançar BER de 10 5 Admita que os códigos de espalhamento não sejam ortogonais mais especificamente R ii 1 R ij 116 i j Aplique a aproximação gaussiana para MAI não ortogonal e calcule a necessária potência de sinal de usuário P i para alcançar BER de 10 5 Refaça o Exercício 1161 para o caso em que um dos 15 transmissores interferentes estiver 2 vezes mais próximo do receptor desejado de modo que seu ganho g l seja 4 vezes maior Para o sistema CDMA multiusuário do Exercício 1163 projete os correspondentes receptores descorrelator e MMSE z1z1delayrc1fovsampend Esta é uma hipótese pessimista pois estudos revelaram que o valor pode ser menor Na análise de CDMA assíncrono a janela de análise deve ser ampliada para tornar este caso equivalente ao de CDMA síncrono com um número muito maior de usuários 8 9 É igualmente comum o termo ambiente pertolonge NT O código de espalhamento P é de 1023 Mchips com ganho de espalhamento L 204600 O período do código P é de 61871 10 12 bits Na verdade à taxa de 1023 Mchips o período do código tem a duração de uma semana O padrão IEEE 80211g opera na mesma banda ISM que IEEE 80211b e deve ter compatibilidade retroativa Assim IEEE 80211g inclui os mecanismos de CDMA e OFDM IEEE 80211a por sua vez opera na banda de 5 GHz e usa exclusivamente OFDM z2z2delayrt1fovsampendfovsamp1 N 121 as discussões e análises anteriores de sistemas de comunicação digital consideramos a hipótese ideal de que o canal de comunicação não introduzisse distorção Além disso admitimos que o único efeito negativo do canal era ruído gaussiano branco aditivo AWGN Contudo na realidade canais de comunicação estão longe de serem ideais Entre diversas distorções físicas de canal o multipercurso é sem dúvida o problema mais sério encontrado em comunicações sem fio No caso de sistemas analógicos de comunicação o multipercurso representa um efeito que com frequência pode ser tolerado pelos ouvidos como eco e olhos como fantasmas humanos No entanto no caso de sistemas digitais de comunicação o multipercurso leva a distorções lineares de canal que se manifestam como interferências intersimbólicas ISI Isso ocorre porque o multipercurso faz com que múltiplas cópias do mesmo sinal cheguem ao receptor com diferentes atrasos temporais Assim um pulso de símbolo é atrasado o que afeta um ou mais símbolos adjacentes causando ISI Como vimos ISI pode afetar severamente a precisão de receptores Para combater os efeitos de ISI devido a canais de multipercurso discutiremos neste capítulo duas ferramentas muito eficazes equalização e OFDM modulação por divisão em frequências ortogonais DISTORÇÕES LINEARES EM CANAIS SEM FIO DE MULTIPERCURSO Comunicação digital requer que sinais digitais sejam transmitidos por um meio específico entre transmissor e receptor No mundo real os meios físicos canais são analógicos Devido a limitações práticas canais analógicos em geral são imperfeitos e podem introduzir distorções indesejadas Exemplos de meio analógicos não ideais incluem linhas telefônicas cabos coaxiais canais acústicos subaquáticos e canais sem fio de RF em frequências variadas A Fig 121 ilustra um caso simples em que a transmissão de uma estação de base a uma unidade móvel encontra um canal de multipercurso com dois feixes um feixe em linha de visada e um devido à reflexão no solo No receptor há duas cópias do sinal transmitido uma sendo uma versão atrasada da outra Figura 121 Ilustração simples de um canal de multipercurso com dois feixes Para entender o efeito de multipercurso nesse exemplo denotemos os sinais recebidos em linha de visada e refletido respectivamente por Aqui admitimos que a modulação é DSB com sinal de mensagem PAM Capítulo 7 z3z3delayrt1fovsampendfovsamp1 em que T é a duração do símbolo PAM Usamos α 1 e τ 1 para representar respectivamente a perda de multipercurso e o atraso do sinal refletido em relação ao sinal em linha de visada Com isso o sinal de RF na entrada do receptor é escrito como Na Eq 121 n c t e n st denotam as componentes em fase e em quadratura do ruído passafaixa respectivamente Seção 99 Com detecção coerente o sinal em bandabase de saída do receptor se torna Com a definição de uma forma de onda em bandabase podemos simplificar a Eq 122b Na verdade esse canal de multipercurso converteu a forma do pulso original pt em qt Se pt tiver sido projetada como no Capítulo 7 para satisfazer o primeiro critério de Nyquist de ISI zero a nova forma do pulso qt certamente terá ISI pois Generalizando este resultado se houver K 1 percursos a real resposta do canal será admitindo que o percurso em linha de visada tenha atraso τ 0 0 e ganho unitário α 0 1 O efeito de ISI causado em qt pelo somatório em K depende de a intensidades relativas dos ganhos de multipercurso α i e b atrasos de multipercurso τ i Modelos QAM Genéricos A QAM é uma transmissão eficiente para a conservação de largura de banda em comunicações com e sem fio Novamente admitamos que a taxa de símbolos em QAM seja 1T sendo T a duração de cada símbolo Em QAM os símbolos de dados s k têm valores complexos e o sinal de RF passafaixa em quadratura transmitido é Decisão baseada no sinal da amostra Assim para canais de multipercurso com K 1 percursos e resposta ao impulso o sinal passafaixa recebido para QAM é Com detecção coerente o demodulador QAM tem duas saídas em bandabase LPF2rtcos ω c t e LPF2rtsen ω c t Essas duas saídas em fase e em quadratura têm valores reais e podem ser escritas como uma saída complexa Mais uma vez podemos definir uma resposta ao impulso complexa em bandabase e o ruído complexo em bandabase O sinal em bandabase de saída do demodulador do receptor pode ser escrito simplesmente como em que todas as variáveis têm valores complexos Fica claro que o pulso original pt projetado para não ter ISI foi transformado pelo canal de multipercurso em qt No domínio da frequência podemos ver que declroundsignz11L0515dec2roundsignz2z315 122 Isso significa que a resposta de frequência original Pf encontrou uma função de transferência dependente da frequência devido à resposta de multipercurso Portanto a distorção de canal é uma função da frequência f Canais de comunicação que introduzem distorções dependentes da frequência são conhecidos como canais seletivos em frequência Tais canais podem exibir ISI substancial o que pode causar grande aumento nos erros de detecção ISI em Comunicação com Fio Embora tenhamos demonstrado como o multipercurso pode em comunicação sem fio originar ISI e distorções de canal linear sistemas com fio não são completamente imunes a esses problemas De fato sistemas com fio não têm um ambiente de multipercurso pois todos os sinais são transmitidos por cabos dedicados No entanto quando os cabos têm múltiplos terminais abertos ociosos descasamento de impedância nesses terminais abertos também pode gerar sinais refletidos que chegarão aos terminais receptores como cópias atrasadas Portanto ISI devido a distorções lineares de canal também pode ser problemática em sistemas com fio Serviços de internet a cabo são um exemplo Equalização e OFDM Como canais com ISI causam séria degradação de sinal e pobre desempenho de detecção seus efeitos devem ser compensados no transmissor ou no receptor Na maioria dos casos em um ambiente incerto os transmissores não têm ciência das reais condições de propagação Assim cabe aos receptores identificar o desconhecido qt de canais de multipercurso e determinar meios de combater a ISI As duas ferramentas mais comuns e eficazes no combate de canais com ISI são equalização de canais e OFDM EQUALIZAÇÃO DO CANAL NO RECEPTOR Por conveniência descreveremos o problema de equalização de canal para o caso de canal estacionário Uma vez que os fundamentos da equalização de canais lineares invariantes no tempo LIT sejam entendidos a tecnologia adaptativa pode acomodar canais variantes no tempo Quando um canal é LIT usamos o simples diagrama de sistema da Fig 122 para descrever o problema de equalização de canal Em geral a equalização de canal é estudada para os espectralmente eficientes sistemas QAM digitais O modelo em bandabase para um típico sistema de comunicação QAM com modulação em amplitude em quadratura consiste em um canal LIT desconhecido qt que representa a interconexão física entre o transmissor e o receptor na bandabase Figura 122 Representação em bandabase de transmissão QAM em um canal linear invariante no tempo com ISI O transmissor de bandabase gera uma sequência de dados de entrada aleatórios s k de valores complexos em que cada elemento pertence à constelação de símbolos QAM A sequência de dados s k é enviada pelo canal de bandabase que é LIT e tem resposta ao impulso qt Como os símbolos QAM s k têm valores complexos a resposta ao impulso do canal em banda base qt também tem em geral valores complexos Considerando o canal de comunicação LIT causal de valores complexos e com resposta ao impulso qt a relação entrada saída do sistema QAM pode ser escrita como Compara com os dados originais para calcular a BER para 1221 É comum admitirmos que o ruído de canal em bandabase n e t seja estacionário gaussiano e independente da entrada do canal s k Dado o sinal em bandabase yt no receptor a tarefa do equalizador de canal consiste em estimar os dados originais s k a partir do sinal recebido yt A seguir apresentaremos as condições típicas para que a equalização de canal seja alcançada Sem perda de generalidade admitiremos t 0 0 Filtro Antimascaramento versus Filtro Casado Mostramos nas Seções 101 e 106 que o filtro receptor ótimo deve ser casado à resposta total qt Esse filtro serve para maximizar a SNR do sinal amostrado na saída do filtro Mesmo que a resposta qt tenha ISI Forney 1 estabeleceu a otimalidade do receptor de filtro casado como mostrado na Fig 123 Com um filtro casado qt e amostragem à taxa de símbolo taxa de baud em t nT o receptor obtém uma sequência de saída que relaciona os dados do transmissor s k e as amostras do receptor em que Se denotarmos as amostras de ht por a Eq 1210 pode ser simplificada como Em resumo os sinais de entrada e saída do canal se relacionam por meio de um simples canal de uma entrada e uma saída SISO singleinput singleoutput linear discreto e com função de transferência Figura 123 Receptor de filtro casado ótimo A representação discreta SISO do sinal QAM linear leva ao equalizador padrão com espaçamento T TSE Tspaced equalizer O termo equalização com espaçamento T se refere ao processamento do sinal recebido e amostrado à taxa 1T Portanto a separação temporal entre amostras sucessivas é igual ao período de baud símbolo T O receptor de filtro casado ótimo encontra um grande obstáculo prático pois a forma de pulso da resposta total qt depende do ambiente do canal de multipercurso Na prática é muito difícil ajustar o filtro receptor segundo o sinal qt variante no tempo pois o ambiente do canal pode sofrer mudanças significativas e possivelmente rápidas Além disso em geral os receptores não têm informação a priori sobre o canal que afeta qt Assim não faz sentido implementar o filtro receptor ótimo qt em um ambiente de canal dinâmico É mais razoável projetar e implementar filtro receptor invariante no tempo Logo nossa importante tarefa consiste em selecionar um filtro receptor sem perder nenhuma informação de sinal em yt Na busca de uma solução recordemos que o sinal de entrada QAM é os três pulsos Aprendemos na Seção 72 Eq 79 que a densidade espectral de potência de um trem de pulsos modulado em amplitude é em que substituímos a amplitude de pulso a k pelo símbolo QAM s k O espectro do sinal na Eq 1214a mostra que a componente de sinal em yt é limitada pela largura de banda de pt ou Pf O filtro receptor portanto não deve suprimir qualquer componente significativo de sinal e deve ter largura de banda igual à de Pf Contudo se tomarmos um filtro receptor com largura de banda maior que a de Pf mais ruído passará pelo filtro sem benefício para o sinal Por essas razões um bom filtro receptor deve ter largura de banda exatamente igual à de Pf Obviamente existem muitos desses filtros Um é o filtro casado ao pulso de transmissão pt dado por Devemos considerar que caso o canal não introduza distorção qt pt e o receptor ótimo seria o filtro pt casado a pt Portanto faz sentido selecionar pt como o filtro receptor padrão Fig 124 por duas razões a O filtro pt retém no sinal recebido todas as componentes de espectro do sinal original b O filtro pt é ótimo caso o ambiente não exiba distorção de canal Figura 124 Filtro receptor casado ao pulso de transmissão comumente utilizado Assim muitas vezes aplicamos o filtro receptor pt casado ao pulso de transmissão pt Isto significa que a resposta total do canal ao impulso consiste em Reparemos que devido à filtragem zt pt yt O sinal zt fica escrito como em que o termo de ruído filtrado wt surge de com densidade espectral de potência Por fim a relação entre a saída amostrada zk e os símbolos de comunicação s k é BERBERsumabssdatadec1L sumabssdatadec2L 1222 em que as amostras discretas de ruído são denotadas por wn wnT Em geral em canais com ISI há duas abordagens ao problema de recuperação da entrada de canal ou seja equalização A primeira consiste em determinar o receptor ótimo com base nos modelos de canal e de ruído Essa abordagem leva à estimação da sequência de máxima verossimilhança MLSE maximum likelihood sequence estimation que demanda muito esforço computacional Uma alternativa de baixo custo consiste em projetar filtros conhecidos como equalizadores de canal que compensem a distorção de canal A seguir descreveremos primeiro a essência do método MLSE para a recuperação de símbolos Com a ilustração da alta complexidade computacional do método adquiriremos motivação suficiente para as discussões subsequentes sobre equalizadores de canal de variadas complexidades Estimação da Sequência de Máxima Verossimilhança MLSE As amostras da saída do receptor zn dependem dos desconhecidos símbolos QAM de entrada s n segundo a relação na Eq 1217 A detecção ótima MAP de s n a partir de zn requer a maximização da probabilidade condicional conjunta Eq 1081 Ao contrário da detecção ótima símbolo a símbolo para canais AWGN deduzida e analisada na Seção 106 a relação interdependente na Eq 1217 significa que o receptor ótimo deve detectar a sequência completa s n a partir de uma sequência de amostras do sinal recebido zn Para simplificar esse receptor ótimo notemos que na maioria dos sistemas de comunicação e aplicações cada símbolo QAM s n é selecionado de forma aleatória de uma constelação com igual probabilidade Assim o detector MAP pode ser traduzido em uma estimação da sequência de máxima verossimilhança MLSE Se o ruído de canal original n e t for gaussiano branco o ruído discreto wn também será gaussiano pois a Eq 1216 mostra que wt é a saída filtrada de n e t Na verdade podemos definir a densidade espectral de potência do ruído branco n e t como A densidade espectral de potência do ruído filtrado wt é então dada por Dessa informação podemos observar que a função de autocorrelação entre as amostras de ruído é Qi05ercfcsqrtEb2Nnum2 Calcula a BER analítica Em geral a autocorrelação entre duas amostras de ruído na Eq 1221 depende do filtro receptor que nesse caso é pt O projeto de pulso livre de ISI com base no primeiro critério de Nyquist apresentado na Seção 73 é de particular importância O primeiro critério de Nyquist requer que a resposta total do transmissor ao receptor seja livre de interferências intersimbólicas Sem distorção de canal o sistema QAM em consideração tem resposta total ao impulso dada por Para que esse formato de pulso combinado seja livre de ISI podemos aplicar o primeiro critério de Nyquist no domínio da frequência Isso equivale à exigência no domínio do tempo Em outras palavras o filtro formatador de pulso de Nyquist é igualmente dividido entre o transmissor e o receptor Segundo a Eq 1222a a resposta em frequência do formatador de pulso Pf é a raiz quadrada de um formato de pulso que satisfaz o primeiro critério de Nyquist no domínio da frequência Se o formato de pulso cosseno levantado da Seção 73 for adotado Pf seria conhecido como pulso raiz de cosseno levantado Para um dado fator de decaimento r o pulso raiz de cosseno levantado no domínio do tempo é Sem ISI nas condições da Eq 1222b podemos deduzir da Eq 1221 que Isso significa que as amostras de ruído wn são descorrelacionadas Como as amostras de ruído wn são gaussianas também são independentes Em consequência a probabilidade conjunta condicional da Eq 1219 se torna muito mais simples De fato a Eq 1224 nos informa que zn i é gaussiano com variância 2 e valor médio end Portanto o receptor ótimo MLSE sob ruído de canal gaussiano e pulso raiz de cosseno levantado p rrc t Eq 1223 Assim MLSE equivale a Para a maioria dos canais de comunicação a resposta ao impulso hk pode ser bem aproximada como um filtro de resposta ao impulso finita FIR finite impulse response de alguma ordem finita Se a máxima ordem do canal for L tal que o receptor MLSE precisa resolver Notamos que o algoritmo MLSE requer que o receptor possua o conhecimento dos coeficientes do canal discreto hk Quando conhecimento exato do canal não for disponível o receptor deve completar a importante tarefa de estimação de canal Complexidade de MLSE e Implementações Práticas Apesar da aparente grande complexidade do algoritmo MLSE Eq 1227 existe uma solução muito mais eficiente dada por Viterbi 2 com base no princípio de programação dinâmica de Bellman 3 A complexidade desse algoritmo comumente referido como algoritmo de Viterbi não cresce exponencialmente à medida que o comprimento dos dados aumenta Se o tamanho da constelação QAM for M a complexidade do algoritmo de Viterbi cresce com M L O algoritmo de Viterbi é uma ferramenta muito poderosa particularmente quando a ordem L do canal não for muito grande e o tamanho da constelação M não for excessivo Os detalhes do algoritmo de Viterbi serão discutidos no Capítulo 14 quando apresentaremos a decodificação de códigos convolucionais MLSE é muito comum em aplicações práticas Em particular para combater distorção de multipercurso muitos receptores celulares GSM efetuam a detecção MLSE descrita aqui Como GSM usa constelações binárias na transmissão de voz a complexidade dos receptores MLSE é razoavelmente baixa para canais celulares comuns e pode ser aproximada por respostas FIR de ordens 3 a 8 Contudo os formatos de modulação adotados em modems telefônicos de alta velocidade são de grande complexidade Por exemplo os modems V32bits 144 kbits usam uma constelação QAM codificada em treliça de tamanho 128 com 64 símbolos distintos à taxa de símbolos de 2400 baud símboloss Nessas aplicações mesmo um canal FIR relativamente curto L 5 requereria que a MLSE tivesse mais de 1 bilhão de estados Na verdade a taxas de bit mais elevadas modems telefônicos podem usar QAM 256 ou até mesmo QAM 960 Em consequência o maior número de estados na MLSE torna esse método completamente inadequado como receptor nesses sistemas Portanto abordagens de equalização subótima com baixa complexidade são muito mais atraentes A seguir discutiremos o projeto de equalizadores simples e eficazes empregados em aplicações que incluem modems telefônicos para a faixa de voz figure2 123 EQUALIZAÇÃO LINEAR COM ESPAÇAMENTO T TSE O filtro receptor casado apenas ao pulso de transmissão pt deixa de ser ótimo Mesmo que o filtro casado ideal qt seja conhecido e aplicado é possível que na prática o instante de amostragem tenha um deslocamento t 0 de modo que as amostras passem a ser colhidas em t nT t 0 Esse tipo de deslocamento do instante de amostragem é conhecido como erro temporal Quando há um erro temporal o receptor também não é ótimo Na verdade é comum que sistemas de comunicação práticos tenham canais com distorção e incertezas temporais desconhecidos Não obstante a equalização com espaçamento T tem implementação mais simples A seguir discutiremos os aspectos fundamentais do projeto TSE Como amostragens espaçadas por T levam ao simples sistema linear no tempo discreto na Eq 1217 como mostrado na Fig 125 o equalizador linear básico é simplesmente um filtro linear Fz seguido por um dispositivo de decisão QAM O objetivo operacional do filtro equalizador Fz é a remoção da maior parcela possível de ISI da saída dn Iniciemos nossa discussão sobre equalizadores com espaçamento T TSE denotando a função de transferência do equalizador causal como Figura 125 Modelo de canal linear discreto SISO para TSE Se o ruído de canal wn for incluído a saída TSE é Denotemos a função de transferência conjunta do equalizador de canal por O objetivo do equalizador Fz é limpar a ISI em dn para alcançar uma decisão sem erro em que u é um atraso fixo na saída do equalizador Como tanto o canal como o equalizador devem ser causais a inclusão de um possível atraso u fornece a oportunidade para configurações mais simples e melhores de equalizadores Para entendermos melhor o projeto do filtro TSE Fz podemos dividir a saída TSE em diferentes termos A saída do filtro equalizador dn consiste na desejada componente de sinal com o atraso adequado mais a ISI e termos de ruído Se a ISI e os termos de ruído forem zero o dispositivo de decisão QAM sempre tomará a decisão correta sem qualquer erro Portanto o projeto desse filtro equalizador linear Fz deve almejar a minimização do efeito da ISI e dos termos de ruído Na subplot111 1231 prática há dois tipos populares de equalizadores o projeto com forçamento a zero ZF zero forcing e o projeto de mínimo erro quadrático médio MMSE minimum mean square error TSE com Forçamento a Zero O fundamento do projeto de equalizadores com forçamento a zero consiste em eliminar a ISI sem considerar o efeito do ruído Em princípio um equalizador ZF perfeito Fz deve forçar Em outras palavras todos os termos de ISI são eliminados De modo equivalente no domínio da frequência o equalizador ZF requer Reparemos que o equalizador linear Fz é basicamente um filtro inverso do canal ISI discreto Hz com atraso adequado u Se o filtro ZF da Eq 1231c for causal e puder ser implementado a ISI será completamente eliminada de zn Essa parece ser uma excelente solução pois a única decisão a ser tomada pelo dispositivo de decisão é baseada em sem qualquer ISI Uma grande deficiência do equalizador reside no remanescente termo de ruído Fzwn Se a potência de ruído zn for baixa a decisão QAM terá grande precisão Problemas surgem quando a função de transferência Fz tiver ganhos elevados em certas frequências Em consequência o termo de ruído Fzwn pode ser amplificado nestas frequências Na verdade quando a resposta em frequência Hz tiver nulos espectrais ou seja o equalizador ZF Fz terá ganho infinito em ω 0 e amplificará substancialmente a componente de ruído em ω 0 Uma perspectiva distinta consiste em considerar a variância do ruído filtrado Se os termos de ruído wn forem gaussianos independentes e igualmente distribuídos iid com média zero e variância o termo de ruído filtrado será O termo de ruído permanece gaussiano com média e variância figbersemilogyEb2NQKEb2NBER1bEb2NBER2ro Como a saída do equalizador ZF é a probabilidade de erro de decisão em deczn pode ser analisada com a aplicação das mesmas ferramentas usadas no Capítulo 10 Seção 106 Em particular com modulação BPSK com igual probabilidade Portanto a probabilidade de erro de detecção é em que os parâmetros do equalizador ZF podem ser obtidos via transformada Z inversa Se Fe j ω tiver nulos espectrais fi da Eq 1233 pode se tornar muito grande e causar sério aumento de P b Exemplo 121 Consideremos um canal de primeira ordem Determinemos no caso de uma transmissão BPSK o efeito de amplificação de ruído no equalizador ZF Como He j 2πf 0 quando f 14 fica claro que Hz tem nulos espectrais Com aplicação do equalizador ZF temos Portanto Isso significa que a BER da transmissão BPSK é igual a ylabelBER 1232 A amplificação de ruído é tão severa que a decisão se torna completamente aleatória O Exemplo 121 mostra claramente o significativo impacto da amplificação de ruído devido à equalização ZF O efeito de amplificação de ruído é uma forte motivação para a busca de outras metodologias para equalizadores Uma solução prática é o projeto baseado no mínimo erro quadrático médio MMSE Projeto de TSE com Base em MMSE Devido ao efeito de amplificação de ruído na equalização ZF não devemos tentar a eliminação da ISI sem considerar o impacto negativo do termo de ruído Na verdade podemos observar a saída do equalizador na Eq 1230 e calcular a distorção total em dn ao considerarmos a diferença erro Para reduzir o número de erros de decisão quando seria razoável que projetássemos um equalizador que minimizasse o erro quadrático médio entre dn e s n u Em outras palavras o projeto de equalizador com base em MMSE deve minimizar A seguir determinemos um filtro equalizador que possa minimizar o erro quadrático médio ou Eq 1235 Novamente aplicaremos o princípio da ortogonalidade na estimação ótima Seção 85 o sinal de erro diferença deve ser ortogonal aos sinais usados na entrada do filtro Como dn devemos ter Em outras palavras Portanto os parâmetros do equalizador fi devem satisfazer Reparemos que o sinal s n e o ruído wn são independentes Além disso os termos s n também são iid com média zero e variância E s Portanto 0 e temos setfigberLinewidth2setflegFontSize11 Seja O equalizador MMSE é então a solução das equações lineares Com base no modelo de sinal de saída do canal podemos mostrar que Mínimo MSE e Atraso Ótimo Devido à condição de ortogonalidade Eq 1236 temos Logo o mínimo erro quadrático médio resultante pode ser calculado como Fica claro que equalizadores MMSE de diferentes atrasos podem levar a diferentes resultados de erro quadrático médio Para determinar o atraso que corresponde ao mínimo erro quadrático médio o receptor pode determinar o atraso ótimo segundo fxxlabelEbN0 dB Equalizadores MMSE de Comprimento Finito Como é necessário que o equalizador Fz seja causal o equalizador MMSE baseado na solução da Eq 1239 não tem uma forma fechada simples A razão para isso é que fi é causal embora R zm não seja Afortunadamente é comum que a implementação prática do equalizador MMSE assuma a forma de um filtro com resposta ao impulso finita FIR Quando Fz é FIR o equalizador MMSE pode ser determinado numericamente da Eq 1239 Seja A condição de ortogonalidade da Eq 1239 se reduz a um conjunto finito de equações lineares Alternativamente para u M podemos escrever a condição MMSE na forma matricial Se o atraso u exceder M o lado direito da Eq 1243b passa a A solução é única desde que a matriz de autocorrelação na Eq 1243c seja de posto rank completo MMSE versus ZF Reparemos que se especificarmos o nível de ruído como 0 o projeto do equalizador MMSE das Eqs 1239 e 1243c se reduz ao projeto ZF Em outras palavras ao passar de MMSE a ZF a única alteração no projeto consiste na substituição de R z0 do caso ruidoso para o caso sem ruído Todos os outros procedimentos podem ser seguidos diretamente para o cálculo numérico dos parâmetros do equalizador ZF No entanto é importante entender que o projeto de equalizadores ZF de comprimento finito segundo a Eq 1243c pode ou não alcançar o objetivo de forçar toda a ISI a zero Na verdade se o canal Hz tiver ordem L o projeto ZF requererá fyylabelBER Pode ser igualmente impossível que essa condição seja alcançada por qualquer equalizador causal estável A razão para isso é muito simples se considerarmos princípios básicos de polinômios O lado esquerdo é um polinômio de grau M L Logo tem um total de M L raízes cujas localizações dependem das funções de transferência do canal e do equalizador O lado direito por sua vez tem apenas uma raiz no Portanto é impossível alcançar completamente essa igualdade de forçamento a zero Assim provavelmente faríamos a seguinte pergunta O que conseguiríamos com um equalizador de comprimento finito projetado segundo a Eq 1243c A resposta é encontrada na funçãoobjetivo MMSE quando o ruído é zero Especificamente o equalizador é projetado para minimizar quando o ruído do canal não é levado em consideração Assim a solução da Eq 1243c resultaria em um equalizador de comprimento finito que alcança a mínima diferença entre FzHz e um puro atraso z u No domínio do tempo o projeto ZF de comprimento finito baseado na Eq 1243c minimizará a distorção ISI que for igual a Em outras palavras esse equalizador minimizará a contribuição da ISI ao erro quadrático médio em dn Projeto com Dados Finitos O projeto MMSE e ZF das Eqs 1239 e 1243c pressupõe conhecimento estatístico de R zm e Na prática nem sempre essa informação está prontamente disponível e sua obtenção pode exigir estimação em tempo real É mais comum que o transmissor envie uma curta sequência símbolos de treinamento ou pilotos que o receptor pode usar para determinar o equalizador ótimo A seguir descreveremos como o projeto anterior pode ser estendido para cobrir esse cenário Suponhamos que uma sequência de treinamento s n n n 1 n 11 n 2 seja transmitida Para projetar um equalizador FIR podemos minimizar o erro quadrático médio em que Para minimizar J podemos tomar seu gradiente em relação a fj Igualando o gradiente a zero podemos determinar as condições a serem atendidas pelos parâmetros do equalizador ótimo setfxFontSize11 124 1241 Estas M 1 condições podem ser escritas de forma mais compacta como em que denotamos as aproximações médias temporais das funções de correlação para i j 0 1 M como Uma comparação entre as Eqs 1245 e 1243c deixa claro que sob uma curta sequência de treinamento preâmbulo o equalizador ótimo pode ser obtido com a substituição dos valores exatos da função de correlação pelas correspondentes aproximações médias temporais Se por motivos de complexidade for necessário evitar a inversão de matrizes a equalização adaptativa de canais é uma tecnologia viável A equalização adaptativa de canais foi desenvolvida por Lucky em Bell Labs 4 5 para canais telefônicos Essa tecnologia pertence ao campo de filtragem adaptativa Leitores interessados podem consultar o livro de Ding e Li 6 assim como as referências lá citadas EQUALIZADORES LINEARES FRACIONALMENTE ESPAÇADOS FSE Mostramos que quando o receptor desconhece a resposta do canal é possível que a TSE perca informação importante de sinal Na verdade esse ponto fica bem claro a partir da teoria da amostragem Como mostrado por Gitlin e Weinstein 7 quando o sinal transmitido ou formato de pulso tiver conteúdo espectral além de uma frequência 12T Hz a amostragem à taxa de baud à frequência de 1T fica abaixo da taxa de Nyquist e pode levar a mascaramento espectral Em consequência o desempenho do receptor pode se tornar pobre devido à perda de informação Na maioria dos casos quando o pulso de transmissão satisfaz o primeiro critério de Nyquist de ISI zero a componente de sinal recebido deve possuir conteúdo espectral acima de 12T Hz Por exemplo quando um pulso cosseno levantado ou raiz de cosseno levantado p rrc t é adotado com fator de decaimento r Eq 1223 a largura de banda da componente de sinal é Por essa razão a amostragem a 1T seguramente causará mascaramento espectral e perda de informação a menos que usemos filtros casados perfeitos qt e os momentos ideais de amostragem t kT Portanto o uso de amostradores mais rápidos é de grande relevância Quando o real período de amostragem for uma fração inteira do período de baud T o sinal amostrado sob modulação linear pode ser representado por um modelo de sistema discreto de uma entrada e múltiplas saídas SIMO single input multipleoutput Os equalizadores resultantes são conhecidos como equalizadores fracionalmente espaçados ou FSE fractionally spaced equalizers Modelo Uma Entrada Múltiplas Saídas SIMO setfyFontSize11 Um FSE pode ser obtido do sistema na Fig 126 se o canal for amostrado a uma taxa mais rápida que a taxa de baud ou de símbolos 1T Seja m um inteiro tal que o intervalo de amostragem seja Δ Tm Em geral como o pulso raiz de cosseno levantado tem largura de banda B Qualquer taxa de amostragem da forma 1Δ mT m 1 será acima da taxa de amostragem de Nyquist e pode evitar mascaramento Para efeitos de análise denotemos a sequência de amostras da saída do canal por Para simplificar a notação a saída superamostrada do canal zkΔ pode ser reorganizada decimada em m sequências paralelas Cada subsequência z ik está relacionada aos dados originais por Na verdade cada subsequência é uma saída de um subcanal linear Denotando a resposta de cada subcanal por Figura 126 Front end de receptor com amostragens fracionalmente espaçadas para FSE e o correspondente ruído de subcanal por as m saídas de subcanais são reorganizadas como Podemos plotar os pulsos individuais usados para sinalização 1242 Assim essas m subsequências podem ser vistas como saídas estacionárias de m canais discretos com uma sequência de entrada comum sk como mostrado na Fig 127 Naturalmente isso representa um sistema de uma entrada múltiplas saídas SIMO análogo a um receptor físico com m antenas O FSE é na verdade um banco de m filtros F iz que conjuntamente tentam minimizar a distorção de canal mostrada na Fig 127 Configurações de FSE Com base na representação SIMO do FSE na Fig 127 um filtro FSE é provido para cada subsequência z ik Na verdade o equalizador é um vetor de filtros As saídas dos m filtros são somadas para formar a saída estacionária do equalizador Figura 127 Estrutura equivalente de equalizadores fracionalmente espaçados FSE Dada a relação linear entre a saída do equalizador e os parâmetros do equalizador qualquer critério de projeto TSE pode ser generalizado em um projeto FSE Configuração ZF Para projetar um FSE ZF o objetivo é a eliminação de toda ISI na saída do dispositivo de decisão Como agora há m subcanais paralelos os filtros ZF devem satisfazer ortogonal Essa condição de forçamento a zero significa que a saída de decisão terá um atraso inteiro u Um exame mais detalhado dessa condição ZF revela sua conexão com a conhecida identidade de Bezout Na identidade de Bezout suponhamos que existam dois polinômios de graus até L Se A 1z e A 2z não tiverem qualquer raiz em comum são denominados polinômios coprimos A identidade de Bezout afirma que se A 1z e A 2z forem coprimos deve haver dois polinômios tais que A condição de grau é que M L 1 A solução para B 1z e B 2z pode não ser única Fica evidente do texto clássico de Kailah 8 que a condição de projeto ZF da Eq 1251 é uma generalização da identidade de Bezout para m canais Para sermos precisos seja H iz i 1 2 m um conjunto de polinômios de z 1 de graus finitos com grau máximo L Se as funções de transferência dos m subcanais H iz forem coprimas existirá um conjunto de filtros F iz de graus M L 1 tais que em que o atraso pode ser selecionado do intervalo u 0 1 M L 1 Notemos que os filtros equalizadores F iz variam com o desejado atraso u Além disso para cada atraso u os filtros equalizadores ZF F iz não são necessariamente únicos A seguir descreveremos a abordagem numérica para a determinação dos parâmetros do filtro equalizador Em vez de prosseguirmos com a representação polinomial no domínio z podemos determinar a representação matricial da Eq 1252 como O projeto numérico como uma solução a essa configuração ZF existe se e somente se tiver posto de linha completo ou seja se as linhas de forem linearmente independentes Essa condição é satisfeita para FSE ou seja m 1 se M L e H iz forem coprimas 6 figure3 125 Configuração FSE MMSE Aplicaremos uma técnica semelhante para a obtenção da configuração FSE MMSE A diferença entre FSE e TSE reside no sinal de saída Para minimizar o MSE o princípio da ortogonalidade leva a Portanto os parâmetros do equalizador f ik devem satisfazer Há mM 1 equações para os mM 1 parâmetros desconhecidos f ik i 1 m k 0 M A configuração FSE MMSE pode ser determinada como uma solução desse conjunto de equações lineares Em termos de questões práticas também podemos fazer as seguintes observações Quando temos apenas dados de comprimento finito para estimar a estatística necessária podem ser substituídos por suas médias temporais da coleção limitada de dados Isso é semelhante ao projeto TSE Também semelhante ao projeto TSE MMSE diferentes valores do atraso u levarão a diferentes erros quadráticos médios Para determinar o atraso ótimo podemos calcular o MSE para todos os atrasos positivos u 0 1 M L 1 e escolher o atraso que resulta no menor valor de MSE Desde seu surgimento 7 equalizadores adaptativos têm sido implementados como FSE Quando há disponibilidade de dados de treinamento a FSE tem a vantagem de suprimir a sensibilidade à fase temporal 7 Ao contrário do caso TSE a FSE linear não amplifica necessariamente o ruído de canal De fato o efeito de amplificação de ruído depende fortemente da condição de canal coprimo Em alguns casos os subcanais em um conjunto não têm estritamente qualquer zero em comum No entanto se existir pelo menos um ponto z a que seja quase a raiz de todos os subcanais isto é dizemos que os subcanais são quase singulares Quando os subcanais são coprimos e quase singulares o efeito de amplificação de ruído ainda pode ser muito severo ESTIMAÇÃO DE CANAL Até aqui focamos a abordagem direta de projeto do equalizador na qual os parâmetros do filtro equalizador são estimados diretamente dos sinais de entrada do canal s n e dos sinais de saída do canal z in Devemos nos dar conta de que se o receptor MMSE for implementado o algoritmo MMSE requer o conhecimento dos parâmetros do canalhk Quando conhecimento exato do canal não estiver disponível o receptor deve primeiro completar o importante passo de estimação do canal Na estimação de canal é mais comum considerar canais FIR de ordem finita L Assim como no caso de estimação linear de parâmetros do equalizador introduzido na seção anterior a estimação de canal deve primeiro considerar a relação entradasaída do canal subplot111 126 Caso símbolos pilotos consecutivos s n n n 1 n 1 1 n 2 forem transmitidos devido à ordem finita L do canal as seguintes amostras da saída do canal dependem apenas desses dados pilotos e do ruído Podemos aplicar o princípio de MMSE para estimar os coeficientes do canal hk para minimizar o erro de estimação médio Essa estimação MMSE pode ser simplificada igualando a zero a derivada de Jh0 h1 hM em relação a cada hj Removendo constantes redundantes obtemos Portanto definindo podemos simplificar a estimação de canal MMSE em uma expressão matricial compacta Para estimar os parâmetros de canal hi a Eq 1257 pode ser resolvida por inversão de matriz No caso mais geral de FSE o mesmo método pode ser usado para estimar os parâmetros do iésimo subcanal basta substituir zn k por z in k EQUALIZADOR COM REALIMENTAÇÃO DE DECISÃO As configurações TSE e FSE discutidas até aqui são conhecidas como equalizadores lineares pois a equalização consiste em um filtro linear seguido por um dispositivo de decisão sem memória Tais equalizadores lineares são conhecidos como equalizadores com alimentação para frente FFW feedforward As vantagens de equalizadores FFW residem em sua implementação simples como filtros FIR e nas abordagens diretas de projeto Equalizadores FFW requerem complexidade computacional muito menor que receptores MMSE não lineares Equalizadores FFW no entanto sofrem de várias deficiências importantes Primeira as formas FFW de TSE e FSE podem causar severa amplificação de ruído dependendo das condições do canal Segunda dependendo das raízes dos polinômios de canal pode haver necessidade de que os Figura 128 Equalizador com realimentação de decisão com amostras fracionalmente espaçadas equalizadores FFW sejam muito longos para que sejam eficazes particularmente quando o canal é quase singular Para obter uma simples e eficaz equalização de canal sem o risco de amplificação de ruído uma ferramenta muito útil é o equalizador com realimentação de decisão DFE decision feedback equalizer Recordemos que equalizadores FFW em geral funcionam como um filtro inverso de canal na configuração ZF ou como um filtro inverso de canal regularizado na configuração MMSE O DFE no entanto inclui um filtro de realimentação além de um filtro de alimentação para frente O filtro de alimentação para frente é idêntico a TSE ou FSE linear enquanto o filtro de realimentação tenta cancelar a ISI de amostras anteriores de dados com uso de estimações de dados geradas por um dispositivo de decisão sem memória O filtro de alimentação para frente pode operar em amostras fracionalmente espaçadas Portanto pode haver m filtros paralelos como mostrado na Fig 128 A ideia básica por trás da inclusão de um filtro de realimentação Bz é motivada pela ciência de que a saída do filtro de alimentação para frente dk talvez contenha alguma ISI residual que possa ser regenerada de forma mais eficaz pela saída do filtro de realimentação e cancelada de vk Mais especificamente consideremos o caso em que a saída do filtro de alimentação para frente dk consiste em Há um termo residual de ISI assim como um termo de ruído Se a saída da decisão for muito precisa tal que a entrada do filtro de realimentação será igual ao verdadeiro símbolo de dado Se denotarmos o filtro de realimentação por temos 127 Para eliminar a ISI residual o filtro de realimentação deve ter coeficientes Com esses parâmetros de DFE a ISI residual é completamente cancelada Portanto a entrada do dispositivo de decisão contém ISI zero A deficiência restante em vk é o ruído Como o termo de ruído em dk não é afetado ou amplificado pelo filtro de realimentação a saída de decisão para o próximo instante de tempo seria muito mais precisa após o cancelamento de toda ISI Até aqui nossa análise do DFE focou a operação ideal do mesmo quando os resultados de decisão estão corretos Tradicionalmente o projeto e análise do DFE são baseados nesse cenário idealizado de operação O projeto de filtros DFE deve incluir tanto o filtro com alimentação para frente como o filtro com realimentação Embora historicamente tenha havido algumas tentativas anteriores de desacoplar o projeto dos filtros com alimentação para frente e realimentado o trabalho recente de Al Dhahir e Cioffi 9 fornece uma discussão ampla e rigorosa Na análise de um DFE a hipótese de saída de decisão correta leva à remoção da ISI em vk e portanto uma maior possibilidade de que a saída de decisão seja precisa Não podemos deixar de notar esse argumento circular galinha ou ovo A verdade é que o DFE é inerentemente um sistema não linear Mais importante o dispositivo de decisão abrupta nem ao menos é diferenciável Por conseguinte as ferramentas analíticas mais tradicionais desenvolvidas para sistemas lineares e não lineares deixam de ser aplicáveis Por essa razão a irônica análise galinhaovo se torna o último recurso Por sorte para sistemas de alta SNR esse argumento circular produz resultados analíticos que podem ser verificados experimentalmente com boa concordância Propagação de Erro em DFE Devido à sua estrutura de realimentação o equalizador DFE está sujeito a um fenômeno particular conhecido como propagação de erro Por exemplo quando o dispositivo de decisão comete um erro o símbolo errôneo será enviado ao filtro de realimentação e usado para cancelamento de ISI na Eq 1259 Contudo como símbolo é incorreto em vez de cancelar a ISI causada por esse símbolo a subtração de cancelamento pode ao contrário reforçar a ISI em vk Em consequência o dispositivo de decisão fica mais sujeito a cometer erros subsequentes Isto é conhecido como propagação de erro Propagação de erro significa que o real desempenho de DFE será pior que a predição de resultados analíticos deduzidos sob a hipótese de decisão perfeita Além disso o efeito da propagação de erro significa que DFE está mais sujeito a cometer uma rajada de erros de decisão antes que haja recuperação do modo de propagação de erro O tempo necessário para recuperação da propagação de erro depende da resposta do canal e foi investigado por Kennedy e Anderson 10 COMUNICAÇÕES OFDM MULTIPORTADORA Como aprendemos no projeto de TSE e FSE a equalização de canal é uma tarefa exclusiva de receptores A única assistência prestada pelo transmissor à equalização feita pelo receptor é a possível transmissão de símbolos de treinamento ou pilotos Em um típico ambiente de incerteza é razoável que receptores assumam a tarefa de equalização pois em geral o transmissor tem pouco ou nenhum conhecimento da resposta do canal em uso Não obstante a implementação mais simples em comparação com MLSE ótimo em geral equalizadores como os de alimentação para frente e com realimentação de decisão levam a 1271 desempenho abaixo do satisfatório E o que é mais importante o desempenho de equalizadores FFW e com realimentação de decisão é demasiadamente sensível a todos os parâmetros em sua estrutura transversal Caso um ou mais parâmetros deixem de reter o valor desejado todo o equalizador falhará Em várias aplicações os transmissores têm informação parcial a respeito das características do canal Uma das mais importantes peças de informação parcial de canal é o espalhamento de atraso de canal ou seja para um canal de comprimento finito a ordem L do canal é conhecida no transmissor embora hk ainda seja desconhecido Dada essa informação parcial de canal uma particular técnica de transmissão conhecida como modulação por divisão em frequências ortogonais OFDM orthogonal frequency division modulation pode ser implementada no transmissor Com a aplicação de OFDM a tarefa de equalização pelo receptor é um pouco simplificada Princípios de OFDM Consideremos um transmissor responsável pela transmissão de uma sequência de sinais de dados s k por um canal FIR Hz de ordem máxima L Antes de iniciarmos a descrição dos fundamentos de OFDM reparemos que a resposta de frequência do canal FIR pode ser representada como em que T é a duração de cada símbolo e também o período de amostragem Como He j 2πfT é a resposta de frequência do canal hk hkT é uma função periódica de f com período 1T A transformada de Fourier discreta DFT discrete fourier transform é uma função amostrada da resposta de frequência do canal Seja N o número total de amostras uniformes em cada período de frequência 1T Assim a frequência f é amostrada em Podemos usar uma notação mais simples para denotar a sequência DFT ao definirmos ω n 2πnNT Figura 129 a Resposta do canal no domínio do tempo discreto e b sai correspondente DFT periódica Na Eq 1261 é útil perceber que Hn é periódica com período N Fig 129 Logo Com base na relação convolucional entre a entrada s k e saída do canal um vetor de N símbolos de saída pode ser escrito na forma matricial como O passo fundamental em OFDM é a introdução do que é conhecido como prefixo cíclico aos dados transmitidos Esse passo substitui os M primeiros elementos do vetor de dados de N L dimensões pelos últimos símbolos Com a inserção do prefixo cíclico podemos reescrever a Eq 1263 como O papel crítico do prefixo cíclico é a conversão da matriz de convolução do canal na Eq 1264a na matriz cíclica N N bem estruturada na Eq 1264b A seguir precisamos introduzir a matriz DFT de N pontos e a correspondente matriz DFT inversa Primeiro é mais conveniente que denotemos Esse número complexo W N tem algumas propriedades úteis Se tomarmos a DFT do vetor de N dimensões obtemos a DFT e A DFT inversa também pode ser simplificada como Com isso a DFT de N pontos de v pode ser escrita na forma matricial Se denotarmos a matriz DFT N N por W N também tem uma inversa Isso pode ser comprovado Exercício 1271 mostrando que Com essa notação obtemos a relação Uma propriedade notável da matriz cíclica cp pode ser estabelecida com a aplicação das matrizes DFT e IDFT em que definimos a matriz diagonal com as entrada da DFT do canal A última igualdade advém da natureza periódica de Hn dada na Eq 1262b Deixamos como exercício para o leitor mostrar que qualquer matriz cíclica de ordem N N pode ser diagonalizada por prémultiplicação por W N e pósmultiplicação por Exercício 1272 Com base na Eq 1267a estabelecemos a seguinte relação importante para OFDM Recordemos que após a adição do prefixo cíclico a relação entradasaída do canal se reduz à Eq 1264b Em consequência Isso significa que se colocarmos dados da fonte de informação em 1272 podemos obter os símbolos de transmissão OFDM de Apesar do escalar podemos chamar a transformação matricial de de operação IDFT DFT inversa Em outras palavras aplicamos IDFT aos dados da fonte de informação no transmissor OFDM para obtermos s antes da adição do prefixo cíclico Do mesmo modo podemos transformar o vetor de saída do canal com Correspondendo à IDFT essa operação também pode ser chamada de DFT Por fim reparemos que o vetor de ruído na saída do canal também passa pela DFT Agora podemos ver a relação simples que existe entre os dados da fonte e o vetor de saída do canal que passou pela DFT Como D H é diagonal esse produto de matrizes é essencialmente uma multiplicação elemento a elemento Isso mostra que agora temos N subcanais paralelos sendo cada um apenas um canal escalar de ganho Hn Cada vetor de N símbolos de dados na transmissão OFDM é conhecido como quadro OFDM OFDM frame ou símbolo OFDM Cada subcanal Hn também é conhecido como subportadora Com a aplicação da IDFT ao vetor de dados da fonte e da DFT ao vetor de saída do canal a OFDM converte um canal de ordem L com ISI em N subcanais paralelos sem ISI Com isso não há mais necessidade de tratarmos com a convolução complexa associada à resposta do canal no domínio do tempo Cada subcanal passa a ser apenas um ganho não seletivo em frequência Não há ISI em cada subcanal Os N subcanais paralelos são independentes pois seus ruídos são independentes Por isso a modulação é conhecida como modulação por divisão em frequências ortogonais OFDM O diagrama em blocos da implementação de um sistema OFDM de N pontos com canal FIR linear de ordem L é mostrado na Fig 1210 Ruído em Canal OFDM Segundo a Eq 1268b cada um dos N canais atua como uma portadora separada com frequência f nNT e ganho de canal Hn Com efeito os símbolos de dados originais são divididos em N sequências e transmitidos por N subportadoras Por essa razão aparente OFDM também é conhecida como sistema de comunicação por subportadoras Em resumo OFDM utiliza IDFT e prefixo cíclico para realizar comunicação multiportadora sem a necessidade de em realidade gerar e modular múltiplas subportadoras O real diagrama em blocos de OFDM é apresentado na Fig 1211 Agora estudemos a relação entre as amostras de ruído transformado na Fig 1211 Primeiro reparemos que Figura 1210 Ilustração de um sistema de transmissão OFDM de N pontos Figura 1211 N canais AWGN independentes gerados por OFDM sem ISI Essas são combinações lineares de amostras de ruído gaussiano conjuntamente distribuídas wN k Portanto permanece gaussiana Além disso como wn tem média zero 1273 Como têm média zero com correlação zero são descorrelacionadas segundo a Eq 1269 Adicionalmente são ruídos gaussianos Como variáveis aleatórias gaussianas descorrelacionadas também são independentes são ruídos independentes com média zero e variâncias idênticas A independência dos N canais de ruído demonstra que OFDM converte um canal FIR com ISI e ordem máxima L em N canais paralelos independentes e AWGN como mostrado na Fig 1211 OFDM com Preenchimento de Zeros Mostramos que com a introdução de um prefixo cíclico de comprimento L uma matriz de convolução cíclica de canal pode ser estabelecida Como qualquer matriz cíclica de ordem N N pode ser diagonalizada por IDFT e DFT Exercício 1272 o canal com ISI de ordem menor ou igual a L é transformado em N subcanais paralelos independentes Existe uma abordagem alternativa ao uso do prefixo cíclico o método conhecido como preenchimento com zeros O transmissor primeiro efetua a IDFT nos N dados de entrada A seguir em vez de repetir os últimos L símbolos como na Eq 1264b para transmitir o prefixo cíclico pode ser simplesmente substituído por L zeros para transmitir 1274 1275 Os passos restantes da transmissão OFDM permanecem inalterados No receptor podemos empilhar os símbolos recebidos em Podemos então mostrar que Exercício 1274 alcançaria a mesma relação multicanal da Eq 1268b Redundância de Prefixo Cíclico em OFDM Os dois passos mais críticos de OFDM no transmissor são a inserção do prefixo cíclico e o uso da IDFT de N pontos O necessário comprimento do prefixo cíclico L depende da ordem do canal FIR Como em sistemas práticos a ordem do canal pode variar o transmissor OFDM deve ter conhecimento a priori da máxima ordem do canal Embora seja aceitável que transmissores OFDM usem uma ordem de canal superestimada a grande desvantagem de inserir um prefixo cíclico mais longo que o necessário é o desperdício de largura de banda do canal Para entender essa desvantagem reparemos que em OFDM o prefixo cíclico permite a transmissão bemsucedida de N símbolos de dados com duração temporal N LT Os L símbolos do prefixo cíclico são introduzidos por OFDM como redundância para a remoção de ISI no canal seletivo em frequência original Hz Como N L períodos de símbolos são usados para transmitir os N dados de informação a taxa de dados efetiva de OFDM é igual a Se L for superestimado a taxa de dados efetiva será reduzida e a transmissão de um prefixo cíclico desnecessariamente longo desperdiçará alguma largura de banda do canal Por isso transmissores OFDM requerem conhecimento preciso do espalhamento do atraso do canal para que alcancem boa eficiência de largura de banda Se o prefixo cíclico tiver comprimento menor que L o receptor deve incluir um filtro no domínio do tempo conhecido como filtro de encurtamento do canal para que a resposta efetiva do filtro de canal seja reduzida a LT Equalização OFDM Mostramos que a OFDM converte um canal com ISI em N subcanais AWGN paralelos como ilustrado na Fig 1211 Cada um dos N subcanais tem ruído gaussiano branco aditivo de média zero e variância O ganho do subcanal é Hk que é a resposta de frequência FIR em kNT Hz Estritamente falando esses N canais paralelos não têm qualquer ISI Logo não há necessidade de equalização de canal Todavia como cada subcanal tem ganho diferente a detecção ótima de de 128 requereria o conhecimento do ganho do canal Hn O receptor OFDM resultante é mostrado na Fig 1212 Para cada subcanal uma derivação para ajuste de ganho pode ser aplicada para compensar a diferença de ganho Na verdade isso significa que precisamos implementar um banco de N derivações para ajuste de ganho O objetivo é compensar os N subcanais de modo que o ganho total de cada de símbolo de dado se torne unitário antes do dispositivo de decisão QAM Os equalizadores de ganho compensam igualmente o sinal e o ruído de subcanal Assim não afetam a SNR do subcanal e não alteram a precisão de detecção De fato os equalizadores são usados apenas para facilitar o emprego do mesmo dispositivo de decisão modular em todos os subcanais Surpreendentemente esse banco de elementos equalizadores de ganho no receptor é exatamente igual ao equalizador em um amplificador de áudio de alta fidelidade Essa estrutura é conhecida como equalizador de uma derivação onetap equalizer para receptor OFDM Figura 1212 Uso em OFDM de um banco de ajustadores de ganho de receptor para N canais AWGN independentes para alcançar equalização de ganho MODULAÇÕES MULTITONS DISCRETOS DMT Uma forma ligeiramente diferente de OFDM é conhecida como modulação multitom discreto DMT discrete multitone Na modulação DMT as operações básicas de processamento de sinal são essencialmente idênticas às de OFDM A única diferença entre DMT e OFDM padrão reside no fato de que transmissores DMT têm conhecimento da informação de subcanal Em consequência a DMT transmite sinais de diferentes constelações em diferentes subcanais conhecidos como subportadoras Como mostrado na Fig 1213 um único canal de RF é dividido em N subcanais ou subportadoras por OFDM e DMT Cada subportadora transporta uma distinta sequência de dados As constelações QAM das N sequências podem ser diferentes Como a distorção do canal original é seletiva em frequência os ganhos dos subcanais em geral variam ao longo da largura de banda Assim embora DMT ou OFDM converta o canal com distorção por ISI em N canais paralelos independentes sem ISI os símbolos transmitidos por diferentes subportadoras encontrarão diferentes SNRs no receptor Em DMT os receptores são responsáveis pela comunicação de informação dos subcanais ao transmissor Dessa forma transmissores podem implementar medidas compensatórias para otimizar várias métricas de desempenho Mencionamos duas abordagens comuns adotadas por transmissores DMT Carregamento alocação de potência de subportadoras para maximizar a SNR média no receptor Carregamento alocação de bits nas subportadoras para equalizar a taxa de erro de bit BER nas mesmas Carregamento de Potência do Transmissor para Maximizar a SNR no Receptor Para descrever a ideia de carregamento ou alocação de potência no transmissor para maximizar a SNR total no receptor seja s ik a sequência de dados transportada pelo iésimo subcanal e seja Figura 1213 Transmissão DMT de N diferentes sequências de símbolos em um único canal FIR s ik uma sequência de dados independentes no tempo k Admitamos ainda que todas as sequências de dados s ik também sejam independentes umas das outras Denotemos a potência média de s ik por A potência total de entrada do canal é e a correspondente potência de saída do canal no receptor é dada por Logo a SNR total de saída do canal é Para determinar a distribuição ótima de potência gostaríamos de maximizar a SNR de saída Como a potência de entrada do canal é limitada a otimização requer Mais uma vez podemos invocar a desigualdade de CauchySchwartz Com base na desigualdade de CauchySchwartz se Devido à restrição na potência de entrada P a distribuição ótima de potência de entrada seria Em outras palavras Substituindo a Eq 1273b na Eq 1272b podemos obter o carregamento ótimo de potência de entrada nos N subcanais como Essa distribuição ótima de potência em OFDM também conhecida como carregamento ou alocação de potência faz muito sentido Se tiver ganho elevado um canal é capaz de amplificar a potência de sua entrada de modo muito mais efetivo que um canal com ganho inferior Portanto os subcanais de alto ganho receberão maior carregamento de potência enquanto os subcanais de baixo ganho receberão carregamento muito menor Nenhuma potência deve ser desperdiçada no caso extremo de um canal com ganho zero pois a saída desse canal não contribuirá para a potência total de sinal recebida Além da perspectiva de maximizar a SNR média a teoria da informação também pode provar com rigor a otimalidade do carregamento de potência na maximização da capacidade de canais seletivos em frequência Isso será discutido posteriormente Seção 137 Carregamento de Bits nas Subportadoras em DMT Caso obtenha informação do canal Hi o transmissor passa a ser capaz de predizer a probabilidade de erro de detecção dos símbolos transmitidos em cada subportadora A SNR de cada subportadora é Portanto a BER dessa subportadora particular depende da SNR e da constelação QAM da subportadora Diferentes modulações nas diferentes subportadoras podem levar a diferentes potências Consideremos o caso geral em que o iésimo subcanal transporta K i bits em cada símbolo modulado Denotemos a BER do i ésimo subcanal por P bi Assim a taxa de erro de bit média levando em conta as N subportadoras é Caso todos os subcanais apliquem a mesma constelação QAM K i será constante para todo i e Claramente canais com baixa SNR gerarão muitos erros de detecção enquanto subcanais com alta SNR gerarão menor número de erros de detecção Se não houver carregamento de potência a SNR do iésimo subcanal será proporcional ao ganho do subcanal Hi 2 Em outras palavras BERs de subcanais pobres podem ser várias ordens de magnitude maiores que as BERs de bons subcanais Portanto a BER média P b será dominada pelas altas P bi dos subcanais pobres Com base nessa observação podemos perceber que para reduzir a BER média é desejável a equalização das BERs dos subcanais Tornando os subcanais igualmente confiáveis a BER média do sistema DMT melhorará Uma forma eficaz de equalizar as BERs dos subcanais consiste em aplicar a prática de carregamento ou alocação de bits 11 12 Para descrever o conceito de carregamento de bits a Tabela 121 ilustra a SNR necessária para alcançar uma probabilidade de erro de detecção de 10 6 para cinco constelações familiares Fica claro que constelações pequenas como BPSK QPSK requerem SNRs muito mais baixas que grandes constelações como QAM16 QAM32 Isso significa que subportadoras com ganhos baixos devem receber constelações menos complexas e carregar um número menor de bits por símbolo No caso extremo de subcanais com ganho próximo de zero nenhum bit deve ser atribuído aos mesmos e as subportadoras devem ser mantidas vazias As subportadoras com alto ganho por sua vez devem receber constelações mais complexas e carregar um número muito maior de bits por símbolo Essa distribuição de bits no transmissor segundo as condições das subportadoras é denominada carregamento ou alocação de bits Em alguns casos o ganho de uma subportadora pode ser muito baixo para transportar n bits por símbolo mas o transporte de n 1 bits por símbolo pode representar um grande desperdício Nesses casos o transmissor pode aplicar também o carregamento de potência a essa subportadora Portanto é comum que na modulação DMT os carregamentos de bits e de potência sejam complementares no transmissor 11 12 A Fig 1214 mostra um diagrama em blocos do altamente eficaz carregamento de bit e de potência em DMT Tabela 121 SNR necessária para alcançar probabilidade de erro de detecção de 10 6 Constelação E b para P e 10 6 dB BPSK 106 QPSK 106 8PSK 14 16QAM 145 32QAM 174 Prefixo Cíclico e Encurtamento de Canal Os princípios de OFDM e DMT requerem que o prefixo cíclico não seja menor que a ordem da resposta do canal de comunicação FIR Embora esse requisito possa parecer razoável em um ambiente bem definido em diversas aplicações a ordem do canal ou espalhamento do atraso pode variar bastante em um dado intervalo Se um prefixo cíclico longo for sempre fornecido tendo em vista o pior caso de maior espalhamento de atraso a eficiência de largura de banda total do sistema de comunicação OFDMDMT será muito baixa 129 Figura 1214 Carregamento de bits e de potência em um sistema de transmissão DMT OFDM com N subportadoras Figura 1215 Equalizador no domínio do tempo TEQ para encurtamento de canal em um sistema de transmissão DMT OFDM com N subportadoras Para superar esse problema é mais desejável aplicar um adicional equalizador no domínio do tempo TEQ time domain equalizer no receptor para encurtar a ordem de canal efetiva Vale notar que o objetivo dessa equalização no domínio do tempo TEQ não é a eliminação completa da ISI como na Seção 133 O propósito do filtro TEQ G TEQ z é encurtar a ordem efetiva da resposta conjunta do equalizador de canal tal que Essa tarefa de encurtamento de canal é menos exigente que a de completa remoção de ISI Ao forçar que L 1 seja aproximadamente menor que a ordem original L um prefixo cíclico mais curto pode ser usado para melhorar a eficiência de transmissão de OFDMDMT A inclusão de um TEQ para encurtamento de canal é ilustrada na Fig 1215 APLICAÇÕES PRÁTICAS DE OFDM E DMT A OFMD é possivelmente uma das mais bemsucedidas técnicas de sinalização para comunicação digital Combinada com carregamentos de potência e de bits no transmissor o benefício de OFDM inclui alta eficiência espectral e resiliência contra interferências de RF e distorção de multipercurso Como resultado das muitas vantagens há numerosos sistemas de comunicação OFDMDMT práticos desde o sistema de linha de assinante digital DSL digital subscriber line ao rádio sem fio de banda ultralarga UWB ultrawideband e à difusão por satélite Linha de Assinante Digital Assimétrica ADSL Nos últimos anos a ADSL asymmetric digital subscriber line substituiu a maioria de modems de voz e se tornou a tecnologia dominante para o provimento de serviços de internet a milhões de domicílios Modems convencionais para a banda de voz usam até 34 kHz de largura de banda analógica amostrada a 8 kHz pela rede de telefonia pública comutada PSTN public switched telephone Network Esses modems de linha discada convertem bits em formas de onda que devem caber nessa estreita banda de voz Devido à reduzida largura da banda modems de banda de voz são obrigados a utilizar constelações QAM muito grandes por exemplo QAM960 em V34 para 288 kbits Grandes constelações QAM por sua vez requerem altas potências de transmissão e equalização de alta complexidade Por essas razões modems de banda de voz rapidamente atingiram o teto de 56 kbits na recomendação ITUT V90 13 A ADSL no entanto não é limitada pela banda de voz da telefonia Na verdade a ADSL evita completamente o sistema de telefonia de voz pois se trata de um serviço de dados A ADSL utiliza as tradicionais linhas telefônicas de par trançado de cobre para prover conexão de última milha aos domicílios A ideia básica é que os canais a fio de cobre têm na verdade largura de banda muito maior que os 4 kHz da banda de voz Todavia à medida que a distância aumenta o canal a fio de cobre se degrada rapidamente nas frequências altas Assim a DSL pode explorar a grande largura de banda dos fios telefônicos de até 1 MHz apenas quando a distância de conexão é pequena 15 km 14 Figura 1216 Dados e voz compartilham a mesma linha telefônica pela divisão em frequência O serviço de dados é provido pela central DSL situada nas proximidades de modems DSL Figura 1217 Alocação de frequência e subportadora em serviços ADSL A banda de voz é às vezes referida como banda do velho serviço de telefone simples POTS plainoldtelephoneservice POTS e serviço de dados DSL são separados em frequência O tráfego de voz continua a usar a banda de voz abaixo de 34 kHz Os dados DSL usam a banda de frequências acima da banda de voz Como mostrado na Fig 1216 quando o serviço DSL está disponível a separação dos dois sinais é alcançada por um simples filtro passabaixas em linha inserido entre a saída de telefonia e cada aparelho telefônico A Fig 1217 ilustra a alocação de largura de banda e de subportadoras no sistema ADSL A partir do topo da banda POTS ao limite superior nominal de 1104 kHz de ADSL temos 255 subcanais subportadoras igualmente espaçados com largura de banda de 43175 kHz As subportadoras são numeradas de 1 a 255 As portadoras de baixa numeração entre 43175 e 25875 kHz também podem ser usadas por outros provedores de serviços Em geral os provedores de serviço ADSL utilizam a banda nominal entre 25875 e 1104 kHz da subportadora 6 à subportadora 255 Essas 250 portadoras são divididas entre transmissões de dados descendentes downstream do servidor DSL para os assinantes e ascendentes upstream do assinante para o servidor DSL Nas atuais aplicações de internet a maioria dos usuários tem maior necessidade na transmissão descendente que na ascendente Em contraste com o tráfego de negócios essa exigência de serviços de dados assimétricos define o objetivo da ADSL Portanto na ADSL o número de subportadoras descendentes é maior do que o de subportadoras ascendentes Na ADSL as subportadoras 6 a 32 correspondendo a 25875138 kHz são em geral alocadas aos dados ascendentes As subportadoras 64 e 96 são reservadas para pilotos ascendente e descendente respectivamente Excluindo essas duas subportadoras pilotos as subportadoras 33 a 255 correspondendo a 1381104 kHz são alocadas aos dados descendentes As típicas alocações de subportadoras e taxas de dados são resumidas na Tabela 122 Reparemos que essa tabela se aplica somente à recomendação ITUTT básica para DSL G9921 Dependendo da condição do canal provedores de serviços podem aumentar a taxa de dados usando maior largura de banda ou até mesmo subportadoras acima da subportadora 255 Na ADSL a taxa de transmissão de quadros DMT é 4 kHz O DMT ascendente utiliza IFFT real de 64 pontos o que equivale a uma IFFT complexa de 32 pontos O prefixo cíclico ascendente tem comprimento 4 Na transmissão descendente é aplicada uma IFFT real de 512 pontos equivalente a uma IFFT complexa de 256 pontos O prefixo cíclico descendente tem comprimento 32 o que equivale a 16 números complexos Como o espalhamento de atraso de canal é em geral muito maior que o prefixo cíclico prescrito encurtamento TEQ de canal é comumente empregado na ADSL com a ajuda de milhares de símbolos de treinamento por exemplo na transmissão descendente para adaptação de parâmetros TEQ Tabela 122 Alocações básicas de subportadoras e taxas de dados para enlaces ascendentes e descendentes em ADSL Ascendente Descendente Modulação carregamento de bits QPSK a 64QAM 26 bits por símbolo Taxa de transmissão de quadros DMT 4 kHz Subportadora piloto Nº 64 Nº 96 Subportadoras típicas 6 a 32 33 a 255 Bits por quadro típicos até 162 bits até 1326 bits Máximo número possível de portadoras 1 a 63 1 a 255 excluindo 64 e 96 Máximo número de bits por quadro até 378 bits até 1518 bits Máxima taxa de dados 4 kHz 378 1512 Mbits 4 kHz 1518 bits 6072 Mbits Difusão Digital Embora a América do Norte tenha decidido adotar o padrão ATSC para difusão de televisão digital a uma taxa máxima de 1939 Mbits usando modulação 8VSB o sistema DVBT digital video broadcastterrestrial ou difusão de vídeo digitalterrestre se tornou um padrão paneuropeu e ganhou aceitação em partes da Ásia América Latina e Austrália O sistema DVBT foi introduzido em 1997 15 e usa OFDM em canais com 6 7 ou 8 MHz de largura O DVBT especifica três diferentes modos de transmissão OFDM com crescente complexidade tendo em vista diferentes taxas de bit qualidade de vídeo O sistema pode usar 2048 subportadoras modo 2K 4096 subportadoras modo 4K ou 8196 subportadoras modo 8K O comprimento do prefixo cíclico pode ser 132 116 18 ou 14 do comprimento da FFT nos três diferentes modos Cada subportadora pode ter três formatos de modulação QPSK QAM16 ou QAM64 Quando a qualidade do subcanal é pobre uma constelação mais simples como QPSK é usada Quando a SNR do subcanal é alta a constelação QAM 64 é usada Canais com qualidades distintas oferecem diferentes qualidades de vídeo da TV com definição padrão SDTV standarddefinition TV à TV de alta definição HDTV highdefinition TV O padrão DVBH para recepção de vídeo por unidades portáteis móveis foi publicado em 2004 Os formatos de modulação em subportadora OFDM e DMT permanecem idênticos aos usados em DVBT Voltado a serviços multimídia com baixa qualidade de vídeo o sistema de difusão de multimídia digital DMB digital multimedia broadcasting também aplica OFDM mas se limita à modulação em subportadora QPSK diferencial DMB ocupa uma largura de banda menor que 17 MHz e pode usar até 1536 subportadoras Outras Aplicações de OFDM DSL e DVBT são apenas duas aplicações limitadas de OFDM em sistemas de comunicação digital A OFDM encontrou grande aplicação em numerosos sistemas de comunicação terrestre sem fio Uma lista que impressiona inclui difusão de áudio digital DAB digital audio broadcasting WiFi IEEE 80211a IEEE 80211g WiMAX IEEE 80216 rádio de banda ultralarga UWB IEEE 802153a 3rd Generation Partnership Project 3GPP evolução de longo prazo LTE long term evolution e acesso por pacote OFDM de alta velocidade HSOPA highspeed OFDM packet acce 1210 Apesar do sucesso do Eureka na Europa preocupações quanto a conflito espectral na banda L levaram os Estados Unidos a se decidirem contra o uso do Eureka 147 Na América do Norte a DAB foi dividida em difusão de rádio via satélite por XM e Sirius com base em tecnologias proprietárias e em difusão terrestre com base no padrão IBOC inband onchannel ou na banda no canal recomendado pela FCC XM e Sirius eram duas companhias competidoras e se fundiram em 2008 A nova companhia Sirius XM provê rádio via satélite para automóveis enquanto IBOC foca os tradicionais usuários domésticos de rádio A Sirius XM usa a banda S em 23 GHz para radiodifusão direta via satélite Sob o nome comercial de HD Radio desenvolvido por iBiquity Digital Corporation IBOC permite que estações de FM e AM analógicas usem a mesma banda para transmitir seus conteúdos na forma digital tirando proveito do espaçamento entre estações de radio FM e AM tradicionais Em outubro de 2008 mais de 15 milhão de chipsets de rádio HD havia sido vendido e havia mais de 1800 estações de rádio HD apenas nos Estados Unidos Na operação de rádio via satélite o sistema de rádio XM usa a largura de banda de 23325 a 23450 MHz Essa banda de 125 MHz é dividida em seis portadoras Quatro portadoras são usadas para transmissão via satélite O rádio XM usa dois satélites geoestacionários para transmitir o mesmo conteúdo Os sinais são transmitidos com modulação QPSK de cada satélite Para recepção confiável os sinais transmitidos em linha de visada direta pelo satélite 1 são recebidos reformatados a uma modulação em múltiplas portadoras OFDM e difundidos por transmissores terrestres Cada grupo de duas portadoras transmite 100 sequências de 8 kbits Essas sequênciais representam dados de áudio comprimidos e são combinadas por meio de um processo patenteado para formar um número variável de canais com diferentes taxas de bit O sistema de rádio via satélite de Sirius usa três satélites orbitais que operam na banda de 2320 a 2332 MHz Esses satélites estão em orbitais mais baixas e não são geoestacionários Na verdade seguem uma órbita terrestre elíptica altamente inclinada HEO highly inclined elliptical Earth orbit também conhecida como órbita Tundra Cada satélite completa uma órbita a cada 24 horas e portanto é dito ser geossíncrono Em qualquer instante de tempo dois dos três satélites cobrem a América do Norte Assim a largura da banda de 12 MHz é igualmente dividida entre três portadoras duas para a cobertura de dois satélites e uma para os repetidores terrestres A modulação QPSK altamente confiável é adotada para as transmissões Sirius Os repetidores terrestres são úteis em algumas áreas urbanas nas quais a cobertura de satélite pode ser bloqueada Quanto aos sistemas terrestres de rádio HD OFDM também é uma tecnologia importante em IBOC tanto para IBOC AM como para IBOC FM Em contraste com o sistema DAB via satélite que agrupa múltiplos programas de estações em uma única sequência de dados IBOC AM e IBOC FM permitem que cada estação use sua própria faixa espectral para transmissão como uma estação de rádio tradicional IBOC FM tem maior largura de banda por estação e provê taxa de dados mais elevada Com OFDM a largura de banda do subcanal IBOC FM é de 3634 Hz e o máximo número de portadoras 1093 Cada subportadora usa modulação QPSK A largura de banda do subcanal IBOC AM é de 1817 Hz metade da de IBOC FM e até 104 subportadoras podem ser usadas Cada subportadora pode aplicar QAM de 16 pontos subportadoras secundárias ou QAM de 64 pontos subportadoras principais Mais detalhes sobre IBOC podem ser encontrados no livro de Maxson 16 EQUALIZAÇÃO CEGA E IDENTIFICAÇÃO Equalização e identificação comuns no receptor requerem que um sinal conhecido de treinamento seja transmitido pelo transmissor para auxiliar na identificação do sistema Alternativamente a sequência de treinamento pode ser usada diretamente para determinar o necessário equalizador de canal A Fig 1218 ilustra como um sinal de treinamento pode ser usado na fase inicial de funcionamento do receptor Durante a fase de treinamento uma sequência conhecida é transmitida pelo transmissor de modo que a saída do equalizador seja comparada com a entrada desejada para formar um erro Os parâmetros do equalizador podem ser ajustados para minimizar o erro quadrático médio de símbolos Ao final da fase de treinamento os parâmetros do equalizador devem estar suficientemente próximos de seus valores ótimos de modo que a maior parte da interferência intersimbólica ISI seja removida Agora que a entrada do canal pode ser corretamente recuperada da saída do equalizador por meio de um dispositivo de decisão sem memória slicer ou fatiador a transmissão de dados reais pode ter início A saída de decisão pode ser usada como entrada correta do canal para formar o erro de símbolo para ajuste continuado do equalizador ou para rastrear variações lentas de canal O equalizador adaptativo obtém o sinal de referência da saída de decisão quando o equalizador estiver ligado no modo direcionado a decisão Fig 1218 É evidente que esse mecanismo de treinamento pode ser aplicado independentemente do equalizador em uso seja TSE FSE ou DPE 1211 Figura 1218 Equalização de canal baseada em uma fase de treinamento antes de comutação ao modo de realimentação Em muitas comunicações os sinais são transmitidos em canais variantes no tempo Em consequência um sinal de treinamento periódico se faz necessário para identificar ou equalizar a resposta do canal variante no tempo A deficiência dessa abordagem é aparente em muitos sistemas de comunicação nos quais o uso da sequência de treinamento pode representar custos adicionais significativos ou pode ser impraticável Por exemplo não existe um sinal de treinamento para receptores que tentam interceptar comunicações inimigas Em um sistema de multidifusão ou de difusão é altamente indesejável que o transmissor inicie uma sessão de treinamento para cada novo receptor suspendendo temporariamente a transmissão normal a todos os usuários existentes Portanto há grande necessidade prática para um tipo especial de equalizador de canal conhecido como equalizador cego que não requer a transmissão de uma sequência de treinamento TV a cabo e modems a cabo digitais são excelentes exemplos de sistemas que podem se beneficiar da equalização cega Há diversas abordagens ao problema de equalização cega Em geral métodos de equalização cega podem ser classificados como diretos e indiretos Na abordagem de equalização cega direta filtros equalizadores são deduzidos diretamente de estatísticas da entrada e do sinal de saída observado do canal desconhecido A abordagem de equalização cega indireta identifica a resposta ao impulso do canal antes do projeto de um filtro equalizador apropriado ou de métricas MLSE O entendimento dessas questões requer leitura cuidadosa da literatura incluindo artigos publicados na década de 1980 por Benveniste e outros 17 18 que introduziram a terminologia de equalização cega Outra fonte útil de informação são os artigos de Godard 19 Picchi e Prati 20 Shalvi e Weinstein 21 22 Rupprecht 23 Kennedy e Ding 24 Tong et al 25 Moulines et al 26 e Brillinger e Rosenblatt 28 Para uma cobertura sistemática o leitor é direcionado aos vários livros publicados sobre o assunto 6 28 29 DISTORÇÕES EM CANAL VARIANTE NO TEMPO DEVIDO À MOBILIDADE Até aqui focamos distorções em canais invariantes no tempo ou pelo menos invariantes no período de interesse Em comunicações móveis sem fio a mobilidade do usuário leva naturalmente à variação de canal Duas causas principais de canais variantes no tempo são 1 mudança de ambiente e 2 efeito Doppler Na maioria dos casos para um dado usuário uma mudança de ambiente se dá a uma taxa muito inferior à do efeito Doppler Por exemplo um transmissorreceptor que viaja a uma velocidade de 100 kmh se move a menos de 28 metros a cada 100 ms Para uma frequência portadora de 900 MHz o correspondente máximo desvio de frequência Doppler é de 83 Hz Isso significa que em um intervalo de 100 ms o canal sofreria 8 ciclos completos de alterações Assim a menos que a unidade móvel faça uma curva repentinamente ou entre em um túnel o efeito Doppler é em geral mais severo que o efeito de mudança de ambiente Deslocamentos Doppler e Canais com Desvanecimento Em comunicações móveis a mobilidade de transmissores e receptores pode levar ao que é conhecido como efeito Doppler descrito no século dezenove pelo físico austríaco Christian Doppler Ele observou que a frequência de ondas de luz e de som era afetada pelo movimento da fonte em relação ao receptor Ondas de rádio estão sujeitas ao mesmo efeito Doppler quando o transmissor ou o receptor está em movimento No caso da transmissão de um sinal de RF de banda estreita quando a velocidade relativa da alteração de distância entre a fonte e o receptor for v dz o sinal de RF recebido terá efetivamente uma nova portadora em que c é a velocidade da luz Notemos que v d e portanto ω d são negativas quando a distância entre fonte e receptor decresce e positivas quando essa distância aumenta Em um ambiente de multipercurso se o usuário móvel viajar a uma dada velocidade v d o percurso em linha de visada terá a maior taxa de variação Isso significa que se houver K 1 multipercursos no canal a distância do iésimo percurso de propagação variará a uma velocidade v i A cópia do iésimo sinal que viaja ao longo do iésimo percurso sofrerá um deslocamento Doppler Além disso como o máximo deslocamento Doppler é limitado por Com base na análise de Doppler cada percurso tem um deslocamento de frequência Doppler ω i atraso τ i e atenuação α i O sinal do iésimo percurso pode então ser escrito como Em consequência podemos escrever o sinal em bandabase recebido após demodulação como Desvanecimento de Canal Seletivo em Frequência Recordemos que a transmissão original em bandabase é Na saída do canal da Eq 1277 se a velocidade da unidade móvel for zero ω i 0 e todos os termos β it β i serão constantes No caso de mobilidade nula a saída do canal em bandabase se torna Isso significa que o correspondente canal é linear invariante no tempo com resposta ao impulso e função de transferência Esse é um canal seletivo em frequência com interferência intersimbólica ISI Quando a velocidade de mobilidade v d não for zero os termos β it variarão no tempo Em consequência o canal deixa de ser linear invariante no tempo e passa a ser um canal linear variante no tempo Suponhamos que a entrada do canal seja uma senoide pura xt expjω pt A saída desse canal variante no tempo segundo a Eq 1277 será Essa relação mostra que a resposta do canal a uma entrada senoidal é uma senoide com frequência igual à da entrada e amplitude variante no tempo Além disso essa amplitude variante no tempo também depende da frequência da entrada ω p Para esses canais de multipercurso a resposta do canal é variante no tempo e depende da frequência Em comunicações móveis canais variantes no tempo são conhecidos como canais com desvanecimento Quando comportamentos variantes no tempo dependem da frequência os canais são conhecidos como canais com desvanecimento seletivo em frequência Canais desse tipo caracterizados por ISI variante no tempo são grandes obstáculos às comunicações digitais sem fio Canais com Desvanecimento Plano Um caso especial a ser considerado é aquele em que os atrasos de multipercurso τ i não têm grande espalhamento Em outras palavras consideremos Se o espalhamento do atraso de multipercurso for pequeno τ K T e Nesse caso especial como pt τ i pt o sinal recebido yt é simplesmente 1212 em que definimos o ganho do canal variante no tempo como Portanto quando o espalhamento do atraso de multipercurso for pequeno a única distorção no sinal recebido yt é um ganho variante no tempo ρt Essa variação temporal da intensidade do sinal recebido é conhecida como desvanecimento Canais que exibem somente um ganho variante no tempo que depende do ambiente são conhecidos como canais com desvanecimento plano Canais desse tipo não introduzem ISI e portanto não requerem equalização Como canais com desvanecimento plano geram sinais de saída com intensidades variantes no tempo períodos sem erros de detecção tendem a serem seguidos por períodos com rajadas de erros Para superar as rajadas de erros devido a canais com desvanecimento plano o entrelaçamento de palavras de código para correção de erros à frente forward error correction codewords é uma ferramenta eficaz Conversão de Canais com Desvanecimento Seletivo em Frequência em Canais com Desvanecimento Plano Canais com rápido desvanecimento seletivo em frequência representam um sério desafio às comunicações móveis Esses canais não apenas introduzem ISI mas também têm características que variam no tempo Embora as técnicas de equalização no domínio do tempo discutidas nas Seções 123 a 126 possam efetivamente mitigar o efeito de ISI requerem dados de treinamento para identificar os parâmetros do canal ou estimar parâmetros do equalizador Em geral estimação de parâmetros de canais ou de equalizadores tem bom desempenho somente quando os parâmetros permanecem praticamente inalterados entre períodos sucessivos de treinamento Portanto equalizadores no domínio do tempo não são bem equipados para confrontar canais de variação rápida Por sorte temos uma alternativa Mostramos na Seção 127 que OFDM pode converter um canal seletivo em frequência em um grupo de canais planos paralelos Quando o canal em questão tiver desvanecimento rápido e for seletivo em frequência a OFDM pode convertêlo em um banco de canais planos com desvanecimento rápido Assim técnicas de combate a canais planos com desvanecimento rápido como entrelaçamento de código podem ser aplicadas a canais com desvanecimento rápido seletivo em frequência Devemos ressaltar que para canais com desvanecimento rápido outro meio eficaz de combate ao efeito de desvanecimento é a introdução de diversidade de canais Diversidade de canais permite que os mesmos dados de transmissão sejam enviados por vários canais Diversidade de canais pode ser alcançada no domínio do tempo por meio de repetição no domínio da frequência com uso de múltiplas bandas ou no espaço com o emprego de múltiplas antenas transmissoras e receptoras Como diversidades nos domínio do tempo e da frequência ocupam mais largura de banda diversidade espacial na forma de sistemas de múltiplas entradas e múltiplas saídas MIMO multipleinput multipleoutput se tornou particularmente atraente em anos recentes Dentre os vários padrões para comunicação sem fio WiFi IEEE 80211n WiMAX IEEE 80216e e LTE celular evolução de longo prazo adotaram as tecnologias de OFDM e MIMO para alcançar taxas de dados mais elevadas e maior cobertura Discutiremos os princípios básicos de MIMO no Capítulo 13 EXERCÍCIOS COM O MATLAB Nessa seção apresentamos três exercícios computacionais todos modelam um sistema de comunicação QAM que modula dados com uso de uma constelação QAM16 Os sinais QAM16 passam por canais lineares com ISI e encontram ruído gaussiano branco aditivo AWGN na saída do canal EXERCÍCIO COMPUTACIONAL 121 EQUALIZAÇÃO LINEAR DE QAM16 O primeiro programa MATLAB Ex121m gera 1000000 pontos de dados QAM16 para transmissão Cada QAM requer um período de símbolo T O formato do pulso transmitido é raiz de cosseno levantado com fator de decaimento de 05 Eq 1223 Assim a largura de banda em bandabase é 075T Hz Matlab Program Ex121m simula a equalização linear com transmissão QAM16 em bandabase e canal de multipercurso com AWGN Pressupomos portadora correta e sincronia Pulso raiz de cosseno levantado com fator de decaimento 05 é usado Filtro casado é aplicado no front end do receptor O programa estima a taxa de erro de símbolo SER para diferentes EbN L1000000 Número total de símbolos no experimento é 1 milhão Para exibir a forma do pulso o sinal é superamostrado por um fator fovsamp8 Fator de superamostragem versus taxa de dados delayrc4 Gera pulso raiz de cosseno levantado fator de decaimento 05 prcosrcosflt l l fovsamp sqrt 05 delayrc Pulso RRC prcosprcos1endfovsamp1 remove Os prcosprcosnormprcos normaliza MF pcmatchprcosend11 Gera dados aleatórios do sinal para sinalização polar sdata4roundrandL12roundrandL13 j4roundrandL12roundrandL13 amostras adicionais para igualar a taxa de superamostragem normalizar por 1t Igual a fovsampT T 1 é a duração do símbolo supupsamplesdatafovsamp Identifica os atrasos de decisão devido à formatação do pulso e filtros casados delayrc2delayrcfovsamp Gera sinalização polar de diferentes formatações de pulso xrcosconvsupprcos cnumcden cheby212201058 A próxima linha comentada determina a resposta de frequência Hfnlzfreqzcnumcden5128 o filtro passabaixas é o filtro TX antes de o sinal ser enviado ao canal xchoutfiltercnumcdenxrcos Agora podemos fazer os gráficos das densidades espectrais de potência dos dois sinais xrcos e xchout Isso mostra o efeito de filtragem do filtro Tx antes da transmissão em termos das densidades espectrais de potência dos sinais Mostra como a filtragem passabaixas no Tx pode ter distorcido pouco o sinal plotPSDComparaison A transmissão é feita por um canal de multipercurso de dois feixes com resposta ao impulso em que gt é a resposta de um canal passabaixas formado por aplicação de um filtro de Chebyshev do tipo II ordem 12 rejeição de 20 dB e largura de banda de 075T Hz A resposta ao impulso desse canal é mostrada na Fig 1219 O programa principal Ex121m chama uma subrotina plotPSDcomparisonm para primeiro gerar as densidades espectrais de potência do sinal transmitido antes e depois do filtro passabaixas de Chebyshev A comparação na Fig 1220 mostra que a configuração de raiz de cosseno levantado é quase limitada em banda pois o canal passabaixas introduz pouca alteração na banda passante do espectro do sinal transmitido Isso significa que o ambiente de multipercurso é o único responsável pela ISI Figura 1219 Resposta de canal de multipercurso com dois feixes para transmissão QAM Figura 1220 Densidades espectrais de potência de sinal QAM raiz de cosseno levantado antes e depois de canal passa baixas com largura de banda 075T espectro a na entrada e b na saída do filtro passabaixas Após a aplicação do filtro casado no receptor raiz de cosseno levantado o sinal QAM será amostrado equalizado e decodificado A subrotina lineareqm projeta um equalizador MMSE de comprimento finito e espaçamento T de ordem M 8 como descrito na Seção 123 Eq 1243b No projeto do equalizador os primeiros 200 símbolos QAM são usados como dados de treinamento O equalizador filtra a saída do filtro casado antes de uma tomada de decisão QAM16 segundo a região de decisão na Fig 1024b no Capítulo 10 Uma vez que os resultados da equalização linear estejam disponíveis o programa principal Ex121m chama outra sub rotina plotQAMresultsm para criar figuras ilustrativas Na Fig 1221 o diagrama de olho sem ruído da componente em fase na saída do filtro casado do receptor antes da amostragem exibe um forte efeito de ISI O olho do sinal QAM está fechado e sem equalização uma decisão QAM simples levaria a altas probabilidades de erro de símbolo também conhecidas como taxa de erro de símbolo Figura 1221 Diagrama de olho sem ruído da componente em fase real no receptor após o filtro casado antes da amostragem o olho está fechado e a ISI levaria a erros de decisão Podemos suprimir uma parcela significativa de ISI com a aplicação de um equalizador linear à saída amostrada do filtro casado A Fig 1222 compara os gráficos de espalhamento de amostras de sinal antes e depois da equalização com E b 26 dB O contraste demonstra que o equalizador de fato removeu a maior parte da ISI introduzida pelo canal de multipercurso O programa lineareqm também calcula estatisticamente a taxa de erro de símbolo SER para diferentes níveis de SNR O programa calcula ainda a SER ideal segundo o canal AWGN sem ISI Capítulo 10 e para efeitos de comparação a SER em equalização Os resultados mostrados na Fig 1223 demonstram a eficácia da equalização linear nesse exemplo Figura 1222 Gráficos de espalhamento de amostras de sinal antes a e depois b da equalização linear com E b 26 dB demonstrando a eficaz mitigação da ISI pela equalização linear Figura 1223 Comparação das taxas de erro de símbolo SER antes e depois de a equalização linear demonstrar a eficácia do combate à ISI devido a canal de multipercurso EXERCÍCIO COMPUTACIONAL 122 EQUALIZAÇÃO COM REALIMENTAÇÃO DE DECISÃO Neste exercício usamos o programa MATLAB principal Ex122m para gerar o mesmo tipo de dados que no exercício anterior A principal diferença é que adotamos um canal de multipercurso ligeiramente diferente no qual a ISI é muito mais severa No receptor em vez de equalizadores lineares usaremos e testaremos o equalizador com realimentação de decisão DFE como descrito na Seção 126 Para simplificar implementaremos apenas o filtro de realimentação DFE sem usarmos o filtro FFW No receptor uma vez que o sinal tenha passado pelo filtro casado ao pulso raiz de cosseno levantado as amostras espaçadas por T serão enviadas ao DFE A subrotina dfem implementa o projeto DFE e a equalização O projeto DFE requer que o receptor primeiro estime a resposta do canal discreto Usamos os primeiros 200 símbolos QAM como dados de treinamento para a estimação do canal A seguir calculamos a SER da saída do DFE em dfem A listagem do programa dfem é dada a seguir MATLAB PROGRAM dfem Esta é a parte do receptor do exemplo de equalização QAM que usa o equalizador com realimentação de decisão DFE Ntrain200 Número de símbolos de treinamento para equalização Nch3 Ordem do equalizador linear comprimento1 SERreq SERneqq for i113 Eb2Nii21 Eb2Nnum10Eb2Ni10 EbN numérico SNR é a variância do ruído VarnEs2Eb2Nnum desviopadrão signoissqrtVarn2 zloutmfsignoisnoiseamp ZtoeplitzsdataNch1NtrainsdataNch111 matriz de sinal para cálculo de R dveczlNch1Ntrain constrói vetor de dados de treinamento hhatpinvZZZdvec determina vetor de derivação da estimação do canal z1zlhhat1 equaliza a perda de ganho hhathhat2endhhat1 especifica a primeira derivação com 1 feedbackzeros1Nch for kj1L zfkz1kjzfk realiza dados dtempsignrealdsigkjsignrealdsigkj2 signrealdsigkj2 jsignimagdsigkjsignimagdsigkj2signimagdsigkj2 feedbackdtemp feedbackk1Nch1 atualiza dados de realimentação end Agora calcula a decisão completa FDE após realimentação de decisão dfeqsignrealdsigsignrealdsig2 signrealdsig2 jsignimagdsigsignimagdsig2signimagdsig2 dfeqreshapedfeqL1 Calcula SER após realimentação de decisão SERreqSERreqsumabssdata1LdfeqL toma decisão sem DFE dneqsignrealz11Lsignrealz11L2 signrealz11L2 jsignimagz11Lsignimagz11L2 signimagz11L2 Calcula SER sem equalização SERneqSERneqsumabssdata1LdneqL end Figura 1224 Comparação de taxas de erro de símbolo SER de DFE de equalização linear e de canal ideal Uma vez calculada a SER com DFE a mesma é comparada com a SER da equalização linear do exercício anterior com a SER de um canal AWGN ideal e com SER de um receptor sem equalização Os resultados são mostrados na Fig 1224 Da comparação podemos perceber que tanto o DFE como o equalizador linear são eficazes na mitigação da ISI do canal Para SNR menores o equalizador linear é ligeiramente melhor pois o DFE é mais suscetível a erro de propagação Seção 126 neste caso EXERCÍCIO COMPUTACIONAL 123 TRANSMISSÃO OFDM DE SINAIS QAM Neste exemplo utilizaremos OFDM para transmissão QAM Escolhemos o número de subportadoras e o tamanho da FFT como N 32 Escolhemos o canal com resposta ao impulso finita FIR como O comprimento do canal é 6 L 5 na Seção 127 Por essa razão podemos selecionar o comprimento do prefixo cíclico igual ao comprimento mínimo L 5 Matlab Program Ex123m Este exercício MATLAB Ex123m simula um sistema OFDM que emprega sinalização QAM16 em bandabase e canal de multipercurso com AWGN Pressupomos portadora correta e sincronia 32 subportadoras são usadas com comprimento de canal 6 e prefixo cíclico de comprimento 5 clearclf L1600000 Número total de símbolos no experimento é 1 milhão LfrL32 número de quadros de dados Gera dados aleatórios de sinal para sinalização polar sdata4roundrandL12roundrandL13 j4roundrandL12roundrandL13 channel03 05 0 1 2 03 canal no domíniot hffftchannel32 calcula canal no domíniof pdatareshapesdata32Lfr conversão SP ptdifftpdata pcycptdend4endptd adiciona prefixo cíclico scycreshapepcyc37Lfr1 conversão PS Psig1032 potência média de entrada do canal chsoutfilterchannel1scyc gera sinal de saída do canal clear ptd pcyc sdata scyc libera um pouco de memória noiserandn37Lfr1jrandn37Lfr1 SERreq for ii131 SNRiiii1 SNR em dB AsigsqrtPsig10SNRii10normchannel xoutchsoutAsignoiseq Adiciona ruído xoutreshapexout37Lfr conversão SP xparaxout637 descarta caudas xhatparafftxpara equalização no domíniof zdatainvdiaghfxhatpara calcula a decisão QAM após equalização deqsignrealzdatasignrealzdata2signrealzdata2 jsignimagzdatasignimagzdata2signimagzdata2 Agora compara com dados originais para calcular a SER SERreqSERreq sumpdatadeq2Lfr Calcula a BER analítica chama outro programa para exibir a análise OFDM ofdmAz O programa MATLAB principal Ex123m completa a modulação OFDM equalização e detecção Como as subportadoras subcanais têm ganhos diferentes e em consequência SNRs diferentes cada uma das 32 subportadoras pode ter uma SER distinta Assim a simples comparação das SERs não conta toda a história Por isso chamamos outro programa ofdmAzm para analisar os resultados desse sistema OFDM Primeiro na Fig 1225 mostramos o ganho de subcanal Hn Podemos ver claramente que dentre os 32 subcanais os 5 mais centrais têm piores ganhos e portanto SNRs mais baixas Esperamos então que esses canais exibam o pior desempenho Fixando a SNR média do canal em 30 dB podemos analisar as saídas equalizadas de diferentes subportadoras Em particular selecionamos os subcanais 1 10 e 15 pois representam canais moderado bom e pobre respectivamente Os gráficos de espalhamento das amostras de saída Fig 1226ac demonstram o contraste de qualidade entres esses subcanais Se não fizermos qualquer distinção entre subcanais vemos na Fig 1226d que o desempenho global de OFDM é dominado pelos subcanais pobres Figura 1225 Comparação do ganho no canal para as 32 subportadoras Figura 1226 Diferentes qualidades de canais como mostrado por gráficos de espalhamento das seguintes saídas de canais OFDM a subcanal 1 b subcanal 10 c subcanal 15 e d subcanais misturados Figura 1227 Taxa de erro de símbolos SER das 32 subportadoras em um canal de multipercurso 1 2 3 4 5 6 7 8 9 Figura 1228 SER média das subportadoras OFDM antes e depois da desabilitação dos cinco piores canais Podemos também analisar a SER de cada uma das 32 subportadoras como na Fig 1227 Vemos claramente que os 5 piores subcanais são responsáveis pelos 5 piores desempenhos de SER Naturalmente se considerarmos a SER média tomada entre os 32 canais a maior SER tende a dominar e a aumentar a SER global do sistema OFDM Para tornar o sistema OFDM mais confiável uma abordagem possível consiste em aplicar carregamento de bits Na verdade um caso extremo de carregamento de bit é a desabilitação de subcanais pobres ou seja nada enviar aos subcanais com ganho muito baixo Podemos ver da comparação de SERs na Fig 1228 que com a desabilitação dos 5 piores canais dentre as 32 subportadoras a SER global é reduzida melhorada de forma significativa REFERÊNCIAS G D Forney JrMaximum Likelihood Sequence estimation of Digital Sequences in the Presence of Intersymbol Interference IEEE Trans Inform Theory vol IT18 pp 363378 May 1972 Andrew J Viterbi Error Bounds for Convolutional Codes and an Asymptotically Optimum Decoding Algorithm IEEE Trans Inform Theory vol 13 no 2 pp 260269 April 1967 Richard Bellman Sequential Machines Ambiguity and Dynamic Programming J ACM vol 7 no 1 pp 2428 Jan 1960 R W Lucky Automatic Equalization for Digital Communication Bell Syst Tech J vol 44 pp 547588 April 1965 RW Lucky Techniques for Adaptive Equalization of Digital Communication Systems Bell Syst Tech J vol 45 pp 255286 Feb 1966 Z Ding and Y Li Blind Equalization and Identification CRC Press New York 2001 R D Gitlin and S BWeinstein FractionallySpaced EqualizationAnImproved Digital Transversal Equalizer Bell Syst Tech J vol 60 pp 275296 1981 T Kailath Linear Systems Chapter 5 Prentice Hall Englewood Cliffs NJ 1979 N AlDhahir and J Cioffi MMSE Decision Feedback Equalizers and Coding FiniteLength Results IEEE Trans Inform Theory vol 41 no 4 pp 961976 July 1995 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 1211 a b 1221 a b RA Kennedy and B D OAnderson Tight Bounds on the Error Probabilities of Decision Feedback Equalizers IEEE Trans Commun vol COM35 pp 10221029 Oct 1987 P Chow J Cioffi and J Bingham A Practical Discrete Multitone Transceiver Loading Algorithm for Data Transmission over Spectrally Shaped Channels IEEE Trans Commun vol 43 no 234 pp 773775 FebMarApr 1995 A Leke and J M Cioffi A Maximum Rate Loading Algorithm for Discrete Multitone Modulation Systems Proceedings of IEEE Globecom pp 15141518 Phoenix AZ 1997 International Telecommunication Union ITUT Recommendation V90 September 1998 International Telecommunication Union ITUT Recommendation G9921 June 1999 ETSI Digital Video Broadcasting Framing Structure Channel Coding and Modulation for Digital Terrestrial Television European Telecommunication Standard EN 300 744 V15 Nov 2004 D P Maxson The IBOC Handbook Elsevier Amsterdam 2007 A Benveniste M Goursat and G Ruget Robust Identification of a Nonminimum Phase System Blind Adjustment of a Linear Equalizer in Data Communications IEEE Trans Autom Control vol AC25 pp 385399 June 1980 A Benveniste and M Goursat Blind Equalizers IEEE Trans Commun vol 32 pp 871882 Aug 1982 D N Godard SelfRecovering Equalization and Carrier Tracking in TwoDimensional Data Communication Systems IEEE Trans Commun vol COM28 pp 18671875 Nov 1980 G Picchi and G Prati Blind Equalization and carrier Recovery Using a StopandGo DecisionDirected Algorithm IEEE Trans Commun vol COM35 pp 877887 Sept 1987 O Shalvi and EWeinstein New Criteria for Blind Deconvolution of Nonminimum Phase Systems Channels IEEE Trans Inform Theory vol IT36 pp 312321 March 1990 O Shalvi and E Weinstein Superexponential Methods for Blind Deconvolution IEEE Trans Inform Theory vol IT39 pp 504519 March 1993 W T Rupprecht Adaptive Equalization of Binary NRZSignals by Means of Peak Value Minimization In Proc 7th Eu Conf on Circuit Theory Design Prague 1985 pp 352355 R A Kennedy and Z Ding Blind Adaptive Equalizers for QAM Communication Systems Based on Convex Cost Functions Opt Eng pp 11891199 June 1992 L Tong G Xu and T Kailath Blind Channel Identification and Equalization Based on SecondOrder Statistics A Time Domain Approach IEEE Trans Inform Theory vol IT40 pp 340349 March 1994 E Moulines P Duhamel JF Cardoso and S Mayrargue Subspace Methods for the Blind Identification of Multichannel FIR Filters IEEE Trans Signal Process vol SP43 pp 516525 Feb 1995 D R Brillinger and M Rosenblatt Computation and Interpretation of kth Order Spectra In Spectral Analysis of Time Series B Harris EWiley New York 1967 CY Chi CC Feng CH Chen and CY Chen Blind Equalization and System Identification Springer Berlin 2006 Simon Haykin Ed Blind Deconvolution PrenticeHall Englewood Cliffts NJ 1994 EXERCÍCIOS Em uma transmissão QAM com taxa de símbolo 1T 1 MHz admita que pt seja um pulso raiz de cosseno levantado com fator de decaimento de 05 A frequência portadora em uso é de 24 GHz Deduza a parte qT do resultante pulso em bandabase quando o canal de multipercurso tiver a resposta ao impulso dada por Determine se o olho estará aberto para a transmissão QPSK na parte a quando as saídas do canal forem amostradas em t kT Considere o modelo de transmissão de sinal do Exercício 1211 Determine o filtro casado para o pulso equivalente em bandabase resultante do canal de multipercurso Determine a função de transferência do equivalente sistema linear em tempo discreto Hz entre os símbolos de entrada QAM e a saída do filtro casado amostrada em t kT 1222 a b c 1231 a b 1232 1233 1234 1235 1241 a b c 1242 a Em um sistema QAM digital a forma do pulso recebido em bandabase é O ruído de canal antes do filtro casado é AWGN com espectro 2 Determine a densidade espectral de potência do ruído wt na saída do filtro casado Determine a média e a variância do ruído amostrado wkT na saída do filtro casado Determine se as amostras de ruído wkT são independentes Em um sistema BPSK em bandabase o canal em tempo discreto é especificado por As amostras do sinal recebido são O sinal BPSK é s k 1 com igual probabilidade O ruído de canal discreto wk é gaussiano branco aditivo com média zero e variância 2 tal que E b 18 Calcule a probabilidade de erro quando zk é enviado diretamente a um dispositivo de decisão BPSK Calcule a probabilidade de erro quando zk passa primeiro por um equalizador de forçamento a zero antes de um dispositivo de decisão BPSK Refaça o Exercício 1232 para o canal discreto Compare os resultados de BER dos Exercícios 1231 e 1232 Observe as diferentes profundidades dos nulos espectrais do canal e com base na diferença entre os efeitos de amplificação de ruído explique as diferenças nas BERs Para o canal no Exercício 1231 determine a resposta de um equalizador MMSE de seis derivações Determine o resultante mínimo MSE Qual será o correspondente MSE se o equalizador ZF for usado no lugar do equalizador MMSE Refaça o Exercício 1233 para o canal FIR do Exercício 1232 Em um canal fracionalmente amostrado a frequência de amostragem é escolhida como 2T ou seja duas amostras são tomadas a cada símbolo s k transmitido As respostas dos dois subcanais amostrados são Os dois subcanais têm ruídos gaussianos brancos aditivos são independentes têm médias zero e variância 02 O símbolo de entrada s k é PAM4 com igual probabilidade de ser 1 3 Mostre que F 1 z 03 e F 2 z 1 formam um equalizador com forçamento a zero Mostre que F 1 z 1 e F 2 z 18 também formam um equalizador com forçamento a zero Qual dos dois anteriores equalizadores ZF com espaçamento fracionário tem melhor desempenho Esse resultado mostra que equalizadores ZF de atrasos diferentes podem levar a desempenhos diferentes Para o mesmo sistema no Exercício 1241 faça o que é pedido a seguir Determine os equalizadores ZF de atrasos 0 1 e 2 quando os filtros do equalizador ZF tiverem ordem 1 ou seja b c 1261 a b c 1271 1272 1273 1274 Determine a resultante distribuição de ruído na saída do equalizador de cada um dos três equalizadores ZF com espaçamento fracionário Calcule a probabilidade de erro de símbolo caso uma decisão abrupta PAM seja tomada na saída do equalizador Em um DFE para sinalização polar binária s k 1 com igual probabilidade A saída do filtro com alimentação à frente dk é dada por em que wk é branco gaussiano com média zero e variância 004 Determine o coeficiente do filtro DFE Determine a BER da saída DFE quando a decisões realimentadas não tiverem erro Caso o dispositivo de decisão não seja livre de erros haverá propagação de erro Determine a probabilidade de erro na próxima decisão no símbolo s k 2 sabendo que ocorreu erro na decisão anterior s k 3 Prove que Uma matriz cíclica é uma matriz completamente especificada por sua primeira linha ou coluna A linha i é um deslocamento cíclico dos elementos na linha i 1 Em outras palavras se a primeira linha da matriz C for a 1 a N 1 a N a segunda linha será a N a 1 a N 1 e assim por diante Prove que qualquer matriz cíclica de ordem N N pode ser diagonalizada por W N e ou seja Considere o canal FIR com resposta ao impulso O ruído de canal é gaussiano branco aditivo com espectro 2 Projete um sistema OFDM com N 16 a especificando o comprimento do prefixo cíclico b determinando os ganhos dos N subcanais c deduzindo a taxa de erro de bit de cada subcanal para modulações BPSK d determinando a taxa de erro de bit média de todo o sistema OFDM Considere um canal FIR de ordem máxima L Primeiro aplique a IDFT usual ao vetor de dados da fonte A seguir em vez de aplicar um prefixo cíclico como na Eq 1264b insira uma sequência de L zeros na frente de cada N dados antes da transmissão 1275 Esse vetor de dados preenchido com zeros é transmitido normalmente por um canal FIR hk No receptor empilhe os símbolos recebidos zn em Prove que Isso ilustra a equivalência entre preenchimento de zeros e prefixo cíclico em OFDM Mostre que em canais AWGN OFDM cíclica e OFDM com preenchimento com zeros alcançam idênticas SNRs para uma mesma potência de entrada do canal Forney provou 1 que estatística suficiente para a estimação de símbolos de entrada é mantida por amostragem da saída do filtro casado à taxa de baud em t nT Esse resultado forma a base do conhecido modelo SISO SingleInput SingleOutput de sistema com uma entrada uma saída obtido por amostragem com filtro casado No entanto quando qt é desconhecido a otimalidade deixa de ser aplicável A estatística suficiente mostrada por G D Forney 1 não é necessariamente retida Em um ambiente estacionário por exemplo linhas DSL os canais são muito estáveis e os receptores podem usar um canal de enlace reverso para passar ao transmissor informação sobre o canal direto Essa realimentação de informação do estado do canal CSI channel state information é normalmente realizada a uma baixa taxa de bit para assegurar a precisão e pode consumir recursos valiosos de largura de banda Além do uso de prefixo cíclico preenchimento com zeros é uma abordagem alternativa mas equivalente D 131 entre todos os meios de comunicação discutidos até aqui nenhum produz comunicação sem erro Podemos aumentar a precisão em sinais digitais reduzindo a probabilidade de erro P e Contudo parece que desde que ruído de canal exista a comunicação jamais será livre de erros Por exemplo em todos os sistemas digitais discutidos até agora P e varia assintoticamente como Se aumentarmos E b a energia por bit podemos reduzir P e a qualquer nível desejado A potência de sinal é S i E bR b em que R b é a taxa de bits Portanto aumentar E b significa aumentar a potência de sinal para uma dada taxa de bits reduzir a taxa de bits para uma dada potência ou as duas coisas Devido a limitações físicas não é possível S i aumentar além de certo limite Assim para reduzir P e ainda mais devemos reduzir R b a taxa de transmissão de dígitos de informação Ou seja o preço a ser pago pela redução de P e é uma redução na taxa de transmissão Para que P e se aproxime de zero R b deve se aproximar de zero Parece então que na presença de ruído é impossível alcançar comunicação sem erro Isso era o que pensavam engenheiros de comunicação até a publicação do artigo seminal de Shannon 1 em 1948 Shannon mostrou que para um dado canal desde que a taxa de dígitos de informação por segundo a ser transmitida fosse mantida dentro de certo limite determinado pelo canal físico conhecido como capacidade do canal seria possível alcançar comunicação sem erro Em outras palavras para obter P e 0 não é necessário fazer R b 0 O objetivo P e 0 pode ser alcançado mantendo R b abaixo de C a capacidade do canal por segundo A essência do artigo de Shannon é que a presença de uma perturbação aleatória em um canal por si só não impõe qualquer limite na precisão da transmissão mas define um limite sobre a taxa de informação para a qual uma probabilidade de erro arbitrariamente pequena P e 0 pode ser alcançada Usamos a frase taxa de transmissão de informação como se a informação pudesse ser medida De fato assim é A seguir discutiremos o conteúdo de informação de uma mensagem como entendido pelo senso comum e também como entendido pelo senso da engenharia Surpreendentemente as duas abordagens levam à mesma medida da informação em uma mensagem MEDIDA DE INFORMAÇÃO Medida de Informação pelo Senso Comum Consideremos as três manchetes hipotéticas em um jornal 1 Haverá luz do dia amanhã 2 Estados Unidos invadem o Irã 3 Irã invade os Estados Unidos O leitor dificilmente prestará atenção à primeira manchete a menos que viva nas proximidades do Polo Norte ou do Polo Sul O leitor ficará muito muito interessado na segunda Todavia a terceira manchete é que de fato prenderá a atenção do leitor Esse item despertará muito mais interesse que os outros dois Do ponto de vista do senso comum a primeira manchete praticamente não contém informação a segunda contém muita informação a terceira contém ainda mais informação Se analisarmos as probabilidades de ocorrência desses três eventos perceberemos que a probabilidade de ocorrência do primeiro é a unidade um evento certo a do segundo é baixa um evento de probabilidade pequena mas finita a do terceiro é praticamente zero um evento quase impossível Quando um evento de baixa probabilidade ocorre causa grande surpresa e portanto transporta mais informação que a ocorrência de um evento de maior probabilidade Assim a informação está associada ao elemento de surpresa que é um resultado da incerteza ou imprevisibilidade Quanto mais inesperado for um evento maior a surpresa e portanto a informação A probabilidade de ocorrência de um evento é uma medida de sua imprevisibilidade e assim está ligada ao conteúdo de informação Do ponto de vista do senso comum a quantidade de informação recebida de uma mensagem é diretamente proporcional à incerteza ou inversamente proporcional à probabilidade de ocorrência da mesma Se P for a probabilidade de ocorrência de uma mensagem e I a informação obtida da mensagem fica evidente por essa discussão que quando P 1 I 0 e que quando P 0 I e que quanto menor P maior I Isso sugere a seguinte medida de informação Medida de Informação no Senso da Engenharia A seguir mostraremos que do ponto de vista da engenharia o conteúdo de informação de uma mensagem é consistente com a medida intuitiva Eq 131 O que queremos dizer com ponto de vista da engenharia Um engenheiro é responsável pela transmissão eficiente de mensagens Por esse serviço o engenheiro cobrará do cliente uma quantia proporcional à informação a ser transmitida Na verdade o engenheiro cobrará do cliente uma quantia proporcional ao tempo que a largura de banda do canal ficar ocupada pela transmissão da mensagem Em resumo do ponto de vista da engenharia a quantidade de informação em uma mensagem é proporcional ao mínimo tempo necessário para transmitir a mensagem A seguir mostraremos que esse conceito de informação também leva à Eq 131 Isso implica que uma mensagem com maior probabilidade pode ser transmitida em um tempo mais curto que uma mensagem com probabilidade menor Esse fato pode ser comprovado pelo exemplo da transmissão de símbolos alfabéticos do inglês usando o código Morse Esse código consiste em várias combinações de dois símbolos traço e ponto como no código Morse ou pulsos de amplitudes A e A volts Cada letra é representada por certa combinação desses símbolos denominada palavra de código que tem certo comprimento Obviamente para transmissão eficiente palavras de código mais curtas são associadas às letras e i a e o que ocorrem com mais frequência Palavras de código mais longas são atribuídas às letras x k q e z que ocorrem com menor frequência Cada letra pode ser considerada uma mensagem É claro que letras que ocorrem com mais frequência com maior probabilidade de ocorrência requerem menor tempo para transmissão palavras de código mais curtas que aquelas com menor probabilidade de ocorrência Mostremos então que em média o tempo necessário para transmitir um símbolo ou uma mensagem com probabilidade de ocorrência P é de fato proporcional a log 1P Para simplificar iniciemos com o caso de mensagens binárias m 1 e m 2 com igual probabilidade de ocorrência Podemos usar dígitos binários para codificar essas mensagens e representar m 1 e m 2 pelos dígitos 0 e 1 respectivamente É óbvio que precisamos de no mínimo um dígito binário que pode assumir dois valores para representar cada uma das duas mensagens equiprováveis Consideremos agora o caso de quatro mensagens equiprováveis m 1 m 2 m 3 e m 4 Se essas mensagens forem codificadas na forma binária precisamos de no mínimo dois dígitos binários por mensagem Cada dígito binário pode assumir dois valores Logo uma combinação de dois dígitos binários pode formar quatro palavras de código 00 01 10 e 11 que podem ser atribuídas às quatro mensagens equiprováveis m 1 m 2 m 3 e m 4 respectivamente Fica claro que cada uma dessas mensagens ocupa o dobro do tempo de transmissão que no caso de duas mensagens equiprováveis e portanto contém o dobro de informação Da mesma forma podemos codificar qualquer uma de oito mensagens equiprováveis com um mínimo de três dígitos binários pois três dígitos binários formam oito palavras de código distintas Cada palavra de código pode ser associada a uma das oito mensagens Podemos perceber que em geral precisaremos de log 2 n dígitos binários para codificar cada uma de n mensagens equiprováveis Como as mensagens são equiprováveis P a probabilidade de ocorrência de qualquer uma delas é 1n Assim para codificar cada mensagem de probabilidade P precisamos de log 2 1P dígitos binários Portanto do ponto de vista da engenharia a informação I contida em uma mensagem de probabilidade de ocorrência P é proporcional a log 2 1P em que k é uma constante a ser determinada Mais uma vez concluímos do ponto de vista da engenharia que o conteúdo de informação de uma mensagem é proporcional ao logaritmo do recíproco da probabilidade da mensagem Definamos agora a informação transportada por uma mensagem segundo a Eq 132 A constante de proporcionalidade é por conveniência tomada como unitária e em termos de unidades binárias abreviadas por bit binary unit ou unidade binária a informação é dada por Segundo essa definição a informação I contida em uma mensagem pode ser interpretada como o mínimo número de dígitos binários necessário para a codificação da mesma Isso é dado por log 2 1P em que P é a probabilidade de ocorrência da mensagem Embora tenhamos obtido esse resultado considerando mensagens equiprováveis mostraremos na próxima seção que o mesmo também se aplica ao caso de mensagens não equiprováveis Consideremos agora o caso de dígitos rários em vez de binários para a codificação Cada um dos dígitos rários pode assumir r valores 0 1 2 r 1 Cada uma de n mensagens codificadas por dígitos rários pode então ser transmitida por uma sequência particular de sinais rários Como cada dígito rário pode assumir r valores k dígitos rários podem formar um máximo de r k palavras de código distintas Portanto para codificar cada uma das n mensagens precisamos de no mínimo k log r n dígitos rários Mas n 1P em que P é a probabilidade de ocorrência de cada mensagem Então precisaremos de no mínimo log r 1P dígitos rários Assim a informação I por mensagem é Das Eqs 133 e 134 fica evidente que Logo Nota sobre a Unidade de Informação Embora o uso da unidade rária como unidade genérica de informação seja tentador a unidade binária r 2 é comumente usada na literatura Não há obviamente qualquer perda de generalidade no uso de r 2 Essas unidades sempre podem ser convertidas em outras com emprego da Eq 135 Daqui em diante usaremos a unidade binária bit para informação Omitiremos a base para a função logarítmica ficando subentendido que é 2 Informação Média por Mensagem Entropia de uma Fonte Consideremos uma fonte sem memória m que emite mensagens m 1 m 2 m n com probabilidades P 1 P 2 P n respectivamente P 1 P 2 P n 1 Uma fonte sem memória implica que cada mensagem emitida independe das anteriores Pela definição na Eq 133 ou Eq 134 o conteúdo de informação da mensagem m i é I i dado por A probabilidade de ocorrência de m i é P i Logo a informação média por mensagem emitida pela fonte é dada por bits A informação média por mensagem de uma fonte m é denominada entropia e denotada por Hm Assim A entropia de uma fonte é uma função das probabilidades das mensagens É interessante que determinemos a distribuição de probabilidade de mensagens que fornece a máxima entropia Como a entropia é uma medida da incerteza a distribuição de probabilidade que gera a máxima incerteza terá máxima entropia Em termos qualitativos esperamos que a entropia seja máxima quando todas as mensagens forem equiprováveis Mostremos então que isso é verdade Como Hm é uma função de P 1 P 2 P n o valor máximo de Hm é determinado da equação dHmdP i 0 para i 1 2 n sujeita à condição Como a função a ser maximizada é precisamos usar o lagrangiano para formar uma nova função Logo Igualando as derivadas a zero obtemos Invocando a condição sobre as probabilidades na Eq 138 temos Com isso Para mostrar que a Eq 1310 fornece Hm max e não Hm min notemos que quando P 1 1 e P 2 P 3 P n 0 Hm 0 enquanto as probabilidades na Eq 1310 fornecem Interpretações Intuitiva do Senso Comum e de Engenharia da Entropia Anteriormente observamos que os pontos de vista intuitivo e de engenharia levavam à mesma definição da informação associada a uma mensagem Todavia as bases conceituais para os dois pontos de vista são completamente diferentes Em consequência temos duas interpretações físicas da informação Segundo o ponto de vista da engenharia o conteúdo de informação de qualquer mensagem é igual ao número mínimo de dígitos necessário para a codificação da mensagem e portanto a entropia Hm é igual ao número mínimo de dígitos por mensagem requerido em média para codificação Do ponto de vista intuitivo a informação é vista como tendo sincronia com a quantidade de surpresa ou incerteza associada ao evento mensagem Uma menor probabilidade de ocorrência implica mais incerteza em relação ao evento Incerteza obviamente está associada à surpresa Assim de modo intuitivo a informação associada a uma mensagem é uma medida da incerteza imprevisibilidade da mensagem Portanto log 1P i é uma medida da incerteza da mensagem log 1P i é a incerteza média por mensagem da fonte que gera as mensagens m 1 m 2 m n com probabilidades P 1 P 2 P n respectivamente As duas interpretações são úteis no entendimento qualitativo das definições matemáticas e resultados da teoria da informação A entropia também pode ser vista como uma função associada a uma variável aleatória m que assume os valores m 1 m 2 m n com probabilidades Pm 1 Pm 2 Pm n Assim podemos associar uma entropia a qualquer variável aleatória discreta Se a fonte não for sem memória ou seja caso uma mensagem emitida em qualquer instante de tempo dependa das mensagens emitidas anteriormente a entropia da fonte será menor que Hm na Eq 139 Isso se deve ao fato de que quando uma mensagem depende das anteriores sua incerteza fica reduzida 132 CODIFICAÇÃO DE FONTE Vimos que o número mínimo de dígitos binários requerido para a codificação de uma mensagem é igual à entropia da fonte log1P se todas as mensagens da fonte forem equiprováveis a probabilidade de cada mensagem é P A seguir generalizaremos esse resultado para o caso de mensagens não equiprováveis Mostraremos que para uma arbitrária distribuição de probabilidade das mensagens o número médio de dígitos binários por mensagem necessário para a codificação é dado por Hm em bits Consideremos uma fonte m que emite mensagens m 1 m 2 m n com probabilidades P 1 P 2 P n respectivamente Consideremos ainda uma sequência de N mensagens com N Seja k i o número de vezes em que a mensagem m i ocorre nessa sequência Segundo a interpretação da frequência relativa ou lei dos grandes números Assim a mensagem m i ocorre NP i vezes em uma sequência de N mensagens desde que N Portanto em uma típica sequência de N mensagens m 1 ocorrerá NP 1 vezes m 2 ocorrerá NP 2 vezes m n ocorrerá NP n vezes A ocorrência de todas as outras composições é extremamente improvável P 0 Dessa forma qualquer sequência típica com N tem a mesma proporção das n mensagens embora em geral a ordem seja diferente Admitamos uma fonte sem memória ou seja admitamos que a mensagem emitida pela fonte independa de mensagens anteriores Consideremos agora uma típica sequência S N de N mensagens da fonte Como as n mensagens de probabilidades P 1 P 2 P n ocorrem NP 1 NP 2 NP n vezes e como cada mensagem é independente a probabilidade de ocorrência de uma típica sequência S N é dada por Como todas as possíveis sequências de N mensagens desta fonte têm a mesma composição todas as sequências de N mensagens são equiprováveis com probabilidade PS N Podemos então considerar essas longas sequências como novas mensagens que são equiprováveis Para codificar uma dessas sequências precisaremos de L N dígitos binários em que Substituindo a Eq 1311 na Eq 1312 obtemos Notemos que L N é o comprimento número de dígitos binários da palavra de código necessária para codificar N mensagens na sequência Assim L o número médio de dígitos requerido por mensagem é L N N dado por Assim a codificação de N mensagens sucessivas permite a codificação de uma sequência de mensagens da fonte usando em média Hm dígitos binários por mensagem em que Hm é a entropia da mensagem da fonte em bits Além disso podemos mostrar que Hm é de fato em média o número mínimo de dígitos requerido para a codificação dessa fonte de mensagem É impossível encontrar qualquer código decodificável sem ambiguidade cujo comprimento médio seja menor que Hm 4 5 Código de Huffman O teorema da codificação de fonte diz que para a codificação de uma fonte de entropia Hm precisamos em média de um mínimo de Hm dígitos binários por mensagem O número de dígitos na palavra de código representa o comprimento da mesma Assim o comprimento de palavra médio de um código ótimo é Hm Desafortunadamente para alcançar esse comprimento em geral devemos codificar uma sequência de N mensagens N de cada vez Se desejarmos codificar cada mensagem diretamente sem usar longas sequências o comprimento médio de palavra de código por mensagem será maior que Hm Na prática não é desejável usar longas sequências pois causam atrasos de transmissão e aumentam a complexidade de equipamentos Portanto é preferível codificar as mensagens diretamente mesmo que o preço seja pago em termos de maior comprimento de palavra Na maioria dos casos o preço se revela pequeno A seguir apresentamos um procedimento dado sem prova para a determinação do código de fonte ótimo denominado código de Huffman A prova de que este código é ótimo pode ser encontrada na literatura 46 Ilustremos o procedimento com um exemplo que usa um código binário Primeiro organizemos as mensagens na ordem decrescente probabilidade como mostrado na Tabela 131 Aqui temos seis mensagens com probabilidades 030 025 015 012 008 e 010 Agreguemos as duas últimas mensagens em uma única com probabilidade P 5 P 6 018 Isso nos deixa com cinco mensagens de probabilidades 030 025 018 015 e 012 Essas mensagens são então organizadas na segunda coluna em ordem decrescente de probabilidade Repetimos esse procedimento de agregar as duas últimas mensagens na segunda coluna e reorganizálas em ordem decrescente de probabilidade Isso é feito até que o número de mensagens seja reduzido a dois A essas duas mensagens reduzidas são atribuídos 0 e 1 como seus primeiros dígitos na sequência de códigos Agora voltamos e atribuímos os números 0 e 1 ao segundo dígito para as duas mensagens agregadas no passo anterior Continuamos regredindo dessa forma até chegarmos à primeira coluna Pode ser mostrado que o código obtido para a primeira coluna é ótimo O procedimento completo é ilustrado nas Tabelas 131 e 132 Tabela 131 Tabela 132 O código ótimo de Huffman obtido por esse procedimento também é conhecido como código compacto O comprimento médio do código compacto no exemplo considerado é dado por A entropia Hm da fonte é dada por Portanto o mínimo comprimento possível alcançado por uma sequência infinitamente longa de mensagens é 2418 dígitos binários O uso de codificação direta código de Huffman permite alcançar um comprimento médio de 245 bits no exemplo considerado Essa é uma boa aproximação ao desempenho ótimo Assim nesse caso pouco é ganho com a complexa codificação de um número de mensagens O mérito de qualquer código é medido por seu comprimento médio em comparação a Hm o mínimo comprimento médio Definimos eficiência de código η como em que L é o comprimento médio do código Em nosso exemplo A redundância γ é definida como Embora seja um código de comprimento variável o código de Huffman pode ser decodificado sem ambiguidade Se recebermos uma sequência de mensagens codificadas com o código de Huffman a mesma poderá ser decodificada de uma única forma ou seja sem ambiguidade Por exemplo se neste exercício a fonte emitisse a sequência de mensagens m 1m 5m 2m 1m 4m 3m 6 a mesma seria codificada como 001101000011010111 O leitor pode comprovar que essa sequência de mensagens pode ser decodificada de uma única forma ou seja m 1m 5m 2m 1m 4m 3m 6 mesmo que não haja demarcação entre as mensagens individuais Esta unicidade é garantida pela propriedade especial de que nenhuma palavra de código é um prefixo de outra palavra de código mais longa Um procedimento semelhante é usado para determinar um código rário compacto Nesse caso organizamos as mensagens em ordem decrescente de probabilidade combinamos as r últimas em uma mensagem e reorganizamos o novo conjunto conjunto reduzido em ordem decrescente de probabilidade Repetimos o procedimento até que o conjunto final seja reduzido a r mensagens A cada uma dessas mensagens atribuímos um dos r números 0 1 2 r 1 A seguir regredimos como no caso binário até que a cada uma das mensagens originais tenha sido atribuído um código Para um código rário teremos exatamente r mensagens no último conjunto reduzido se e somente se o número total de mensagens originais for r kr 1 em que k é um inteiro pois cada redução diminui o número de mensagens em r 1 Portanto se houver um total de k reduções o número total de mensagens deve ser r kr 1 Caso essa condição não seja satisfeita pelas mensagens originais devemos adicionar algumas mensagens fictícias com probabilidade de ocorrência zero até que a mesma seja atendida Por exemplo se r 4 e o número de mensagens n for 6 devemos adicionar uma mensagem fictícia com probabilidade de ocorrência zero para que o número total de mensagens seja 7 ou 4 14 1 e procedemos como usual O procedimento é ilustrado no Exemplo 131 Exemplo 131 Uma fonte sem memória emite seis mensagens com probabilidades 03 025 015 012 01 e 008 Determinemos um código de Huffman 4ário quaternário Determinemos ainda o comprimento de palavra médio a eficiência e a redundância Nesse caso precisamos adicionar uma mensagem fictícia para satisfazer a condição de que o número de mensagens seja r kr 1 e então procedemos como usual O código de Huffman é determinado na Tabela 133 O comprimento L desse código é Tabela 133 E A eficiência do código η é calculada como A redundância é γ 1 η 007 Para alcançar a eficiência de código η 1 precisamos de N O código de Huffman usa N 1 e sua eficiência é em geral menor que 1 Existe um equilíbrio entre esses dois extremos N 1 e N Podemos codificar um grupo de N 2 ou 3 mensagens Na maioria dos casos o uso de N 2 ou 3 pode fornecer uma eficiência próxima de 1 como mostra o exemplo a seguir Exemplo 132 Uma fonte sem memória emite mensagens m 1 e m 2 com probabilidades 08 e 02 Determinemos o código binário ótimo código de Huffman para essa fonte assim como para suas extensões de segunda e terceira ordens ou seja N 2 e 3 Determinemos em cada caso a eficiência do código O código de Huffman para essa fonte é apenas 0 e 1 com L 1 e Logo Para a extensão de segunda ordem da fonte N 2 há quatro possíveis mensagens compostas m 1m 1 m 1m 2 m 2m 1 e m 2m 2 com probabilidades 064 016 016 e 004 respectivamente O código de Huffman é obtido na Tabela 134 Tabela 134 Tabela 135 Mensagens Probabilidades Código m 1m 1m 1 0512 0 m 1m 1m 2 0128 100 m 1m 2m 1 0128 101 m 2m 1m 1 0128 110 m 1m 2m 2 0032 11100 m 2m 1m 2 0032 11101 m 2m 2m 1 0032 11110 m 2m 2m 2 0008 11111 Nesse caso o comprimento de palavra médio L é Esse é o comprimento de palavra para duas mensagens da fonte original Portanto L o comprimento de palavra por mensagem é e Prosseguindo com N 3 extensão de terceira ordem da fonte temos oito mensagens possíveis e seguindo o procedimento do código de Huffman determinamos o código como mostrado na Tabela 135 O comprimento de palavra L é Logo 133 e COMUNICAÇÃO SEM ERRO EM UM CANAL RUIDOSO Como vimos na seção anterior mensagens de uma fonte com entropia Hm podem ser codificadas com o uso de em média Hm dígitos por mensagem Essa codificação tem redundância zero Portanto se transmitirmos essas mensagens codificadas por um canal ruidoso parte da informação será recebida erroneamente Não existe a possibilidade de comunicação sem erro em um canal ruidoso quando as mensagens são codificadas com redundância zero Em geral o uso de redundância ajuda a combater os efeitos do ruído Isso pode ser visto no exemplo de um código com teste de paridade simples single parity check code em que um dígito binário é adicionado a cada palavra de código para assegurar que o número total de 1s na palavra de código resultante seja sempre par ou ímpar Se ocorrer um único erro na palavra de código recebida a paridade será violada e o receptor solicitará retransmissão Esse é um exemplo bem simples para demonstrar a utilidade da redundância Procedimentos mais complexos de codificação capazes de corrigir até n dígitos serão discutidos no próximo capítulo A adição de um dígito aumenta o comprimento de palavra médio para Hm 1 resultando em η Hm Hm 1 e redundância 1 η 1 Hm 1 Portanto a adição de um dígito aumenta a redundância e assim também ajuda a combater o ruído Imunidade contra ruído de canal pode ser melhorada com o aumento da redundância Shannon mostrou ser possível alcançar comunicação sem erro com a adição de redundância suficiente Transmissão em Canais Simétricos Binários Consideremos um canal simétrico binário BSC binary symmetric channel com probabilidade de erro P e Para transmissão sem erro nesse canal mensagens de uma fonte com entropia Hm devem ser codificadas por códigos binários em que o comprimento de palavra seja pelo menos HmC s em que Figura 131 Cubo tridimensional no espaço de Hamming O parâmetro C s C s 1 é denominado capacidade de canal e será discutido na Seção 134 Devido à adição de redundância para proteção contra erros a eficiência desses códigos será sempre abaixo de C s 1 Para comunicação sem erro em um dado canal binário com C s 04 um código deverá ter pelo menos 25Hm dígitos binários por mensagem o que representa 25 vezes o número de dígitos correspondente ao caso sem redundância Isso significa que há 15Hm bits redundantes por mensagem Assim em média para cada 25 dígitos transmitidos um dígito é de informação e 15 dígito é redundante ou de verificação resultando em uma redundância 1 C s 06 Como discutido no início deste capítulo P e a probabilidade de erro da sinalização binária varia com de modo que para P e 0 é preciso que S i ou R b 0 Como S i deve ser finita P e 0 somente se R b 0 Contudo o resultado de Shannon assegura que para comunicação sem erro em uma largura de banda B não é de fato necessário ter R b 0 Basta manter R b abaixo de C a capacidade do canal por segundo C 2BC s Onde está a discrepância Para responder a essa pergunta investiguemos cuidadosamente o papel da redundância na comunicação sem erro Embora a discussão a seguir seja voltada ao esquema binário a mesma é geral e pode ser estendida ao caso Mário Consideremos um método simples de reduzir P e por meio da repetição de um dado dígito um número ímpar de vezes Por exemplo podemos transmitir 0 e 1 como 000 e 111 Para tomar uma decisão o receptor usa a regra da maioria ou seja se pelo menos dois dos três dígitos forem 1 a decisão será 1 e se pelo menos dois dos três dígitos forem 0 a decisão será 0 Assim se menos que dois dos três dígitos estiverem em erro a informação será recebida sem erro Do mesmo modo para corrigir dois erros precisamos de cinco repetições Em qualquer caso repetições causam redundância e melhoram P e Exemplo 88 Tentemos entender essa situação de um ponto de vista gráfico Consideremos o caso de três repetições Podemos mostrar as oito possíveis sequências de três dígitos binários graficamente como os vértices de um cubo Fig 131 É conveniente mapear as sequências binárias como ilustrado na Fig 131 e lançar mão do que é conhecido como distância de Hamming entre sequências binárias Se duas sequências binárias do mesmo comprimento diferirem em j posições j dígitos a distância de Hamming entre as sequências é j Assim a distância de Hamming entre 000 e 010 ou entre 001 e 101 é 1 e entre 000 e 111 3 No caso de três repetições transmitimos o binário 1 como 111 e o binário 0 como 000 A distância de Hamming entre essas duas sequências é 3 Observemos que dos oito vértices possíveis ocupamos apenas dois 000 e 111 com mensagens transmitidas Contudo no receptor devido ao ruído de canal podemos receber qualquer uma das oito sequências a regra da maioria para decisão pode ser interpretada como uma regra que decide a favor da mensagem 000 ou 111 que estiver à menor distância de Hamming da sequência recebida As sequências 000 001 010 e 100 estão a 1 unidade de distância de Hamming de 000 e a pelo menos 2 unidades de 111 Portanto quando recebemos qualquer uma dessas quatro sequências a decisão será o binário 0 Da mesma forma quando qualquer uma das sequências 110 111 011 ou 101 for recebida a decisão será o binário 1 Agora podemos ver por que a probabilidade de erro é reduzida nesse esquema Dos oito vértices possíveis usamos apenas dois que são separados por 3 unidades de Hamming Se desenharmos uma esfera de Hamming de raio unitário em torno de cada um desses dois vértices 000 e 111 as duas esferas de Hamming não se sobreporão O ruído de canal pode criar uma distância entre as sequências recebida e transmitida desde que essa distância seja igual ou menor que 1 unidade ainda será possível detectar a mensagem sem erro Do mesmo modo o caso de cinco repetições pode ser representado por um hipercubo de cinco dimensões As sequências transmitidas 00000 e 11111 ocupam dois vértices separados por cinco unidades e esferas de Hamming com raio de 2 unidades centradas nesses vértices não se sobrepõem Nesse caso mesmo que o ruído de canal cause dois erros ainda será possível detectar as mensagens corretamente Portanto a redução da probabilidade de erro se deve ao fato de não termos usado todos os vértices disponíveis para mensagens Caso ocupássemos todos os vértices disponíveis com mensagens como no caso sem redundância ou repetição se o ruído de canal causasse um erro a sequência recebida ocuparia um vértice atribuído a outra sequência transmitida e inevitavelmente tomaríamos uma decisão errada Justamente por não ocuparmos os vértices vizinhos aos das sequências transmitidas é que somos capazes de detectar a sequência corretamente apesar de erros de canal dentro de certo limite Quanto menor a fração de vértices utilizados menor será a probabilidade de erro Devemos ter em mente que a redundância ou repetição é o que permite manter vértices desocupados Repetição É Ineficiente Se continuarmos a aumentar n o número de repetições reduziremos P e mas também reduziremos R b pelo fator n Todavia não importa quão grande n seja feito a probabilidade de erro jamais será zero O problema desse esquema é ser ineficiente pois adicionamos dígitos redundantes ou de verificação a cada dígito de informação Como analogia dígitos redundantes ou de verificação são como guardas que protegem o dígito de informação Ter guardas para cada dígito de informação é um pouco parecido com o caso de famílias que vivem em uma rua onde ocorreram diversos roubos Cada família fica temerosa e contrata um guarda Obviamente isso é caro e ineficiente Uma solução melhor seria que todas as famílias na rua contratassem um guarda e dividissem os custos Um guarda pode vigiar todas as casas na rua supondo que a mesma seja razoavelmente curta Caso a rua seja muito longa pode ser necessário contratar uma equipe de guardas Contudo certamente não é necessário contratar um guarda por casa Ao usar repetições estamos em uma situação semelhante Dígitos redundantes ou repetidos foram usados para vigiar ou verificar apenas um dígito de mensagem Usando a analogia anterior poderia ser mais eficiente se usássemos dígitos redundantes não para verificar vigiar um dado dígito transmitido mas para um bloco de dígitos Essa é a solução de nosso problema Consideremos um grupo de dígitos de informação em certo intervalo de tempo de T segundos e adicionemos alguns dígitos redundantes para verificar todos esses dígitos Suponhamos que precisemos transmitir α dígitos binários de informação por segundo Em um período de T segundos temos um bloco de αT dígitos binários de informação Se a esse bloco de dígitos de informação adicionarmos β α dígitos de verificação isto é β α dígitos de verificação ou redundantes por segundo precisaremos transmitir βT β α dígitos a cada αT dígitos de informação Portanto em um intervalo de T segundos temos 134 Assim em vez de transmitirmos um dígito binário a cada 1α segundos deixamos que αT dígitos se acumulem em T segundos Consideremos isso como uma mensagem a ser transmitida Há um total de 2 αT dessas supermensagens Assim a cada T segundos devemos transmitir uma das possíveis 2 αT supermensagens Essas supermensagens são transmitidas por uma sequência de βT dígitos binários Há um total de 2 βT sequências possíveis de βT dígitos binários que podem ser representadas como vértices de um hipercubo de βT dimensões Como temos apenas 2 αT mensagens a serem transmitidas e existem 2 βT vértices disponíveis ocupamos somente uma fração 2 β αT dos vértices do hipercubo de βT dimensões Observemos que a taxa de transmissão foi reduzida por um fator αβ Este fator de redução αβ independe de T A fração de vértices ocupados fator de ocupação por mensagens transmitidas é 2 β αT e pode ser reduzida com o aumento de T No limite T o fator de ocupação tende a zero Isso forçará a probabilidade a cair a 0 nos dando a possibilidade de comunicação sem erro Contudo uma questão importante aguarda resposta Qual deve ser a razão de redução de taxa αβ para que esse sonho se torne realidade Para responder a essa pergunta observemos que o aumento de T aumenta o comprimento da sequência transmitida βT dígitos Se P e for a probabilidade de erro de dígito podemos ver a partir da definição de frequência relativa ou lei dos grandes números que à medida que T o número total de dígitos em erro em uma sequência de βT dígitos βT é exatamente βTP e Portanto as sequências recebidas estarão a uma distância de Hamming de βTP e das sequências transmitidas Para comunicação sem erro devemos então deixar desocupados todos os vértices nas esferas de raio βTP e desenhadas em torno de cada um dos 2 αT vértices ocupados Em resumo devemos ser capazes de empacotar 2 αT esferas que não se sobreponham cada uma de raio βTP e em um espaço de Hamming de βT dimensões Isto significa que para um dado β α não pode ser aumentado além de algum limite sem causar sobreposição das esferas e consequentemente falha no esquema de correção de erro O teorema de Shannon afirma que para que esse esquema funcione αβ deve ser menor que a constante capacidade de canal C s que fisicamente é uma função do ruído de canal e da potência de sinal Devemos estar cientes de que comunicação perfeita sem erro não é prática Nesse sistema acumulamos os dígitos de informação por T segundos antes de codificálos e como T para comunicação sem erro teríamos de esperar uma eternidade para iniciar a codificação Assim haverá um atraso infinito no transmissor e um atraso adicional de mesma duração no receptor Além disso o equipamento necessário para armazenagem codificação e decodificação da sequência de comprimento infinito seria monstruoso Como esperado o sonho de comunicação sem erro não pode ser realizado na prática Qual é então a utilidade do resultado de Shannon Uma é que esse resultado indica um limite superior para a taxa de comunicação sem erro que pode ser alcançada em um canal Isso por si só é notável Outra o resultado indica que podemos reduzir a probabilidade de erro abaixo de um nível arbitrariamente baixo se permitirmos apenas uma pequena redução da taxa de transmissão de dígitos de informação Podemos portanto buscar um equilíbrio entre comunicação sem erro com atraso infinito e comunicação quase sem erro com atraso finito CAPACIDADE DE CANAL DE UM CANAL DISCRETO SEM MEMÓRIA Esta seção trata de canais discretos sem memória Consideremos uma fonte que gera uma mensagem que contém r símbolos x 1 x 2 x r O receptor recebe símbolos y 1 y 2 y s O conjunto de símbolos y k pode ou não ser idêntico ao conjunto x k dependendo da natureza do receptor Se usarmos receptores dos tipos discutidos no Capítulo 10 o conjunto de símbolos recebidos será idêntico ao conjunto transmitido Ao receber um sinal o receptor ótimo decide qual dos r símbolos x 1 x 2 x r foi transmitido Aqui seremos mais genéricos e não restringiremos o conjunto y k a ser idêntico ao conjunto x k Se o canal não tiver ruído a recepção de algum símbolo y j determina sem ambiguidade o símbolo transmitido No entanto devido ao ruído quando y j for recebido haverá alguma incerteza em relação ao símbolo transmitido Denotemos por Px iy j a probabilidade condicional de que x i tenha sido transmitido quando y j foi recebido assim a incerteza em relação a x i quando y j for recebido será log 1Px iy j Tomando a média dessa incerteza para todos x i e y j obtemos Hxy a incerteza média em relação ao símbolo transmitido x quando um símbolo y for recebido Assim Para canais sem ruído a incerteza seria zero Obviamente essa incerteza Hxy é causada pelo ruído de canal e representa a perda média de informação sobre um símbolo transmitido quando um símbolo é recebido Chamamos Hxy de entropia condicional de x dado y isso é a quantidade de incerteza em relação a x uma vez que y seja conhecido Reparemos que Py jx i representa uma probabilidade a priori de que y j seja recebido quando x i é transmitido Essa é uma característica do canal e do receptor Assim um dado canal com seu receptor é especificado pela matriz de canal Podemos usar a regra de Bayes para obter as probabilidades condicionais a posteriori ou reversas Px iy j Assim se as probabilidades dos símbolos de entrada Px i e a matriz de canal forem conhecidas as probabilidades condicionais a posteriori podem ser calculadas das Eqs 1318 A probabilidade condicional a posteriori Px iy j é a probabilidade de que x i tenha sido transmitido quando y j foi recebido Para um canal sem ruído a quantidade média de informação recebida seria Hx bits entropia da fonte por símbolo recebido Reparemos que Hx é a informação média transmitida pelo canal por símbolo Devido ao ruído de canal mesmo ao receber y haverá uma incerteza em relação a x na quantidade média de Hxy bits de informação por símbolo Portanto na recepção de y a quantidade de informação que o receptor recebe é em média Ix y bits por símbolo recebido em que Ix y é denominada informação mútua de x e y Como temos E como temos Alternativamente usando a regra de Bayes na Eq 1320a podemos expressar Ix y como ou podemos substituir a Eq 1318c na Eq 1320a A Eq 1320d expressa Ix y em termos das probabilidades dos símbolos de entrada e da matriz de canal As unidades de Ix y devem ser estudadas com atenção Como Ix y é a quantidade média de informação recebida por símbolo transmitido suas unidades são bits por símbolo Se usarmos dígitos binários na entrada o símbolo será um dígito binário e as unidades de Ix y bits por dígito binário Como na Eq 1320b Ix y é simétrico em relação a x e y temos A grandeza Hyx é a entropia condicional de y dado x e é a incerteza média em relação ao símbolo recebido quando o símbolo transmitido é conhecido A Eq 1321b pode ser reescrita como Da Eq 1320d fica claro que Ix y é uma função das probabilidades dos símbolos transmitidos Px i e da matriz de canal Para um dado canal Ix y será máxima para algum conjunto de probabilidades Px i Esse valor máximo é a capacidade de canal C s Assim como permitimos que a entrada do canal escolha qualquer probabilidade Px i C s representa a máxima informação que pode ser transmitida por um símbolo pelo canal Esses conceitos ficarão mais claros com o exemplo de um canal simétrico binário BSC dado a seguir Exemplo 133 Determinemos a capacidade de canal do BSC mostrado na Fig 132 Figura 132 Canal simétrico binário A substituição dessas probabilidades na Eq 1320d fornece Figura 133 Gráfico de ρz Se definirmos com 1 z obtemos A Fig 133 mostra o gráfico de ρz em função de z Pode ser observado que ρz é máximo em z 12 Vale notar que a região de interesse é apenas 0 z 1 Para uma dada P e ρP e é fixa Com isso da Eq 1323 segue que Ix y é máxima quando ραP e for máxima Isso ocorre quando ou Esta equação é satisfeita quando Para esse valor de α ραP e 1 e Figura 134 Capacidade de canal simétrico binário em função da probabilidade de erro P e Da Fig 134 que mostra C s em função de P e vemos que o valor máximo de C s é a unidade Isso significa que podemos transmitir no máximo 1 bit de informação por dígito binário Esse é o resultado esperado pois um dígito binário pode transportar uma de duas mensagens equiprováveis O conteúdo de informação de uma das duas mensagens é log 2 2 1 bit Observamos ainda que C s é máxima quando a probabilidade de erro P e 0 ou P e 1 Quando a probabilidade de erro P e 0 o canal é sem ruído e esperamos que C s seja máxima Contudo surpreendentemente C s também é máxima quando P e 1 Isso é de fácil explicação o canal comete erros de forma consistente e certa de que se torna tão bom quanto um canal sem ruído Tudo o que devemos fazer para termos comunicação sem erro e inverter a decisão feita isso é se 0 for recebido decidimos que 1 foi transmitido e viceversa A capacidade de canal C s é zero mínima quando P e 12 Se a probabilidade de erro for 12 os símbolos transmitidos e os símbolos recebidos são estatisticamente independentes Se recebermos 0 por exemplo 1 ou 0 pode ter sido igualmente transmitido de modo que a informação recebida é zero Capacidade de Canal por Segundo A capacidade de canal C s na Eq 1322 representa a máxima quantidade possível de informação transmitida quando um símbolo dígito for transmitido Se K símbolos forem transmitidos por segundo a máxima taxa de transmissão de informação por segundo é KC s Esta é a capacidade em unidade de informação por segundo e será denotada por C em bits por segundo C KC s Comentário sobre Capacidade de Canal Capacidade de canal é uma propriedade de um particular canal físico pelo qual a informação é transmitida Isso é verdade desde que o termo canal seja interpretado corretamente Um canal significa não apenas o meio de transmissão mas também inclui as especificações do tipo de sinal binário rário etc ou ortogonal simplex etc e do tipo de receptor usado o receptor determina a probabilidade de erro Todas essas especificações são incluídas na matriz de canal Uma matriz de canal especifica completamente o canal Se por exemplo decidirmos usar dígitos 4ários em vez de dígitos binários em algum canal físico a matriz de canal é alterada se torna uma matriz 4 4 assim como a capacidade de canal Do mesmo modo uma alteração no receptor na potência de sinal ou na potência de ruído alterará a matriz de canal e portanto a capacidade de canal Medida de Capacidade de Canal A capacidade de canal C s é o máximo valor de Hx Hxy naturalmente C s max Hx pois Hxy 0 Contudo Hx é a informação média por símbolo de entrada logo C s sempre é menor que ou igual a a máxima informação média por símbolo de entrada Se usarmos símbolos binários na entrada o valor máximo de Hx é 1 bit e ocorrerá quando Px 1 Px 2 12 Logo para um canal binário C s 1 bit por dígito binário Se usarmos símbolos rários o valor máximo de H rx será 1 unidade rária Assim C s 1 unidade rária por símbolo Comprovação de Comunicação sem Erro em um BSC Mostramos que em um canal ruidoso C s bits de informação podem ser transmitidos por símbolo Se considerarmos um canal binário isso significa que para cada dígito símbolo binário transmitido a informação recebida é C s bits C s 1 Assim para transmitir 1 bit de informação precisamos transmitir pelo menos 1C s dígitos binários Isso corresponde a uma eficiência de código igual a C s e a uma redundância 1 C s Aqui transmissão de informação significa transmissão sem erro pois Ix y foi definida como a informação transmitida menos a perda de informação causada pelo ruído de canal O problema com essa dedução é o fato de ser baseada em certa definição especulativa de informação Eq 131 Com base nessa definição enunciamos a informação perdida durante a transmissão pelo canal Na verdade não temos qualquer prova concreta de que a informação perdida no canal se comportará dessa forma Portanto a única maneira de assegurarmos que toda essa estrutura especulativa faça sentido é comprovandoa Se conseguirmos mostrar que C s bits de informação sem erro podem ser transmitidos por símbolo em um canal a comprovação é feita Um caso geral será discutido posteriormente Aqui comprovaremos os resultados para um BSC Consideremos uma fonte binária que emite mensagens a uma taxa de α dígitos por segundo Acumulamos estes dígitos de informação por T segundos agrupando um total de αT dígitos Como αT dígitos formam 2 αT combinações possíveis nosso problema consiste em transmitir uma dessas 2 αT supermensagens a cada T segundos As supermensagens são transmitidas por um código cuja palavra tem comprimento de βT dígitos com β α para assegurar redundância Como βT dígitos podem formar 2 βT padrões distintos vértices de um hupercubo de βT dimensões e temos apenas 2 αT mensagens utilizamos somente uma fração 2 βαT dos vértices Os vértices remanescentes são deliberadamente mantidos desocupados para combater o ruído Se fizermos T a fração de vértices usados tenderá a 0 Como há βT dígitos em cada sequência transmitida o número de dígitos recebidos em erro será exatamente βTP e quando T Agora construímos esferas de Hamming de raio βTP e em torno de cada um dos 2 αT vértices usados para as mensagens Quando uma mensagem qualquer for transmitida a mensagem recebida estará na esfera de Hamming centrada no vértice correspondente àquela mensagem Usamos a seguinte regra de decisão se uma sequência recebida cair em uma esfera centrada na mensagem m i a decisão será m i foi transmitida Se T a decisão será sem erro se todas as 2 αT esferas não se sobrepuserem De todas as possíveis sequências de βT dígitos o número de sequências que diferem de uma dada sequência por exatamente j dígitos é ver Exemplo 86 Logo K o número total de sequências que diferem de uma dada sequência por βTP e dígitos ou menos é Agora usemos uma desigualdade muito útil na teoria da informação 4 7 Logo com a definição Dos possíveis 2 βT vértices escolhemos 2 αT para serem atribuídos às supermensagens Como selecionamos esses vértices O procedimento de decisão deixa claro que se atribuirmos um dado vértice a uma supermensagem nenhum dos outros vértices em uma esfera de raio βTP e centrada no vértice em questão pode ser atribuído a outra supermensagem Assim quando escolhemos um vértice para m 1 os correspondentes K vértices Eq 1326 se tornam inelegíveis Para m 2 escolhemos um dos restantes 2 βT K vértices Prosseguimos dessa forma até que todos os 2 βT vértices tenham sido varridos Esse é um processo tedioso Vejamos o que acontece quando escolhemos os necessários 2 αT vértices de forma aleatória dentre os 2 βT vértices disponíveis Nessa abordagem há o risco de selecionarmos mais que um vértice em uma distância βTP e Se no entanto αβ for suficientemente pequeno a probabilidade de fazer tal escolha será extremamente pequena à medida que T A probabilidade de escolher um particular vértice s 1 como um dos 2 αT vértices dentre os 2 βT vértices é 2 αT 2 βT 2 βαT Lembrando que K vértices estão a uma distância de βTP e dígitos de s 1 a probabilidade de que também possamos escolher outro vértice s 2 que esteja à distância βTP e de cada um desses K vértices que formam a esfera de Hamming em torno de s 1 é Da Eq 1327 temos Portanto à medida que T P 0 se ou seja Todavia 1 ρP e é C s a capacidade de canal de um BSC Eq 1325 Portanto 135 Assim a probabilidade de escolhermos aleatoriamente duas sequências a uma distância βTP e tende a 0 quando T desde que αβ C s e teremos comunicação sem erro Podemos escolher αβ C s ε onde ε é arbitrariamente pequeno CAPACIDADE DE CANAL DE UM CANAL CONTÍNUO SEM MEMÓRIA Para uma variável aleatória discreta x que assume valores x 1 x 2 x n com probabilidades Px 1 Px 2 Px n respectivamente a entropia Hx foi definida como Para dados analógicos temos que lidar com variáveis aleatórias contínuas Portanto devemos estender a definição de entropia a variáveis aleatórias contínuas Ficamos tentados a dizer que para variáveis aleatórias contínuas H x é obtida com a substituição do somatório na Eq 1329 por uma integral Veremos que a Eq 1330 é de fato a definição de entropia para uma variável aleatória contínua Contudo não podemos aceitar essa definição a menos que mostremos que seu significado possa ser interpretado como incerteza Uma variável aleatória x assume um valor no intervalo nx n 1x com probabilidade pnx x no limite x 0 Logo Hx a entropia de uma variável aleatória contínua x é dada por No limite x 0 log x Parece então que a entropia de uma variável aleatória contínua é infinita O que é verdade A magnitude da incerteza associada a uma variável aleatória contínua é infinita Essa conclusão também é obtida de modo intuitivo Uma variável aleatória contínua assume um número infinito de valores e portanto a incerteza é de ordem infinita Isso significa que não há uma definição razoável para entropia de uma variável aleatória contínua Ao contrário veremos que o primeiro termo na Eq 1331 funciona como uma medida razoável de entropia informação média de uma variável aleatória contínua x Podemos usar o seguinte raciocínio Podemos considerar px log1pxdx como uma entropia relativa com log x fazendo o papel de uma referência A informação transmitida por um canal é na verdade a diferença dos termos Hx e Hxy Obviamente se tivermos uma referência comum para Hx e Hxy a diferença Hx Hxy será igual à diferença entre suas entropias relativas Com isso justificamos o uso do primeiro termo na Eq 1331 como a entropia diferencial de x Contudo devemos sempre lembrar que isso é uma entropia relativa e não a entropia absoluta A falha em reconhecer esse ponto sutil gera muitas falácias uma das quais será explorada no Exemplo 134 Com base nesse argumento definimos Hx a entropia diferencial de uma variável aleatória contínua x como Embora Hx seja a entropia diferencial relativa de x por questão de brevidade a chamaremos de entropia da variável aleatória x Exemplo 134 A amplitude de um sinal x é uma variável aleatória uniformemente distribuída no intervalo 1 1 Esse sinal é passado por um amplificador de ganho 2 A saída y também é uma variável aleatória uniformemente distribuída no intervalo 2 2 Determinemos as entropias diferenciais Hx e Hy Temos Logo A entropia da variável aleatória y é 1 bit maior que a de x Esse resultado pode parecer uma surpresa pois o conhecimento de x determina y sem ambiguidade e viceversa pois y 2x Portanto as incertezas médias de x e y devem ser iguais Amplificação por si só não é capaz de adicionar ou subtrair informação Por que então Hy é o dobro de Hx Isso fica claro se recordarmos que Hx e Hy são entropias diferenciais relativas e podem ser iguais se e somente se suas entropias de referência forem iguais A entropia de referência R 1 para x é log x e a entropia de referência R 2 para y é log y no limite quando x y 0 e Portanto R 1 a entropia de referência para x é maior que a R 2 a entropia de referência para y Logo se x e y tiverem entropias absolutas iguais suas entropias diferenciais relativas devem diferir por 1 bit Máxima Entropia para um Dado Valor Quadrático Médio de x No caso de variáveis aleatórias discretas observamos que a entropia era máxima quando os resultados mensagens eram equiprováveis distribuição de probabilidade uniforme Para funções aleatórias contínuas também existe uma PDF px que maximiza Hx nas Eqs 1332 No entanto no caso de uma distribuição contínua x deve atender condições adicionais O valor máximo de x ou o valor médio quadrático de x deve ser conhecido A seguir determinemos a PDF px que produzirá a máxima entropia quando for dado por uma constante σ 2 O problema então consiste em maximizar Hx com a condição Para resolver esse problema usemos um teorema do cálculo de variações Dada a integral I sujeita às seguintes condições em que λ 1 λ 2 λ k são constantes conhecidas O resultado do cálculo de variações diz que a forma de px que maximiza I na Eq 1335 sujeita às condições na Eq 1336 é obtida da solução da equação As grandezas α 1 α 2 σ k são constantes ajustáveis chamadas de multiplicadores indeterminados que podem ser calculados com a substituição de px obtida da Eq 1337 na Eq 1336 No caso em consideração Logo a solução para p é dada por ou Resolvendo para p temos Substituindo a Eq 1338 na Eq 1334a obtemos desde que α 2 seja negativo ou A seguir substituímos as Eqs 1338 e 1339 na Eq 1334b ou e Com a substituição da Eq 1340 na Eq 1338 temos Concluímos portanto que para um dado valor quadrático médio a máxima entropia ou máxima incerteza é obtida quando a distribuição de x for gaussiana Essa entropia ou incerteza máxima é dada por Reparemos que Logo Em resumo para um dado valor quadrático médio a entropia é máxima para uma distribuição gaussiana e a correspondente entropia é Usando raciocínio semelhante o leitor pode mostrar Exercício 1351 que se x for limitado a algum valor de pico M M x M a entropia será máxima quando x for uniformemente distribuído Entropia de Ruído Gaussiano Branco Limitado em Banda Consideremos um ruído gaussiano branco limitado em banda nt com densidade espectral de potência PSD Como sabemos que sinc 2πBτ é zero em τ k2B k inteiro Portanto E Como nt e nt k2B k 1 2 são amostras de Nyquist de nt todas as amostras de Nyquist de nt são descorrelacionadas Como nt é gaussiana descorrelação implica independência Então todas as amostras de Nyquist de nt são independentes Notemos que Assim a variância de cada amostra de Nyquist é B Da Eq 1342b temos que a entropia Hn de cada amostra de Nyquist de nt é Como nt é completamente especificada por 2B amostras de Nyquist por segundo a entropia por segundo de nt é a entropia de 2B amostras de Nyquist Como todas as amostras são independentes o conhecimento de uma amostra não fornece qualquer informação sobre qualquer outra amostra Assim a entropia de 2B amostras de Nyquist é a soma das entropias das 2B amostras e em que Hn é a entropia por segundo de nt Do resultado obtido até aqui podemos tirar uma importante conclusão Dentre todos os sinais limitados em banda a B Hz e com certo valor quadrático médio σ 2 o sinal gaussiano branco limitado em banda tem a maior entropia por segundo Para entender a razão para isso recordemos que para um dado valor quadrático médio amostras gaussianas têm a maior entropia além disso todas as 2B amostras de um processo gaussiano limitado em banda são independentes Logo a entropia por segundo é a soma das entropias de todas as 2B amostras No caso de processos que não sejam brancos as amostras de Nyquist são correlacionadas e portanto a entropia por segundo é menor que a soma das entropias das 2B amostras Se o sinal não for gaussiano suas amostras não serão gaussianas e consequentemente a entropia por amostra também será menor que a máxima entropia possível para um dado valor quadrático médio Em resumo para uma classe de sinais limitados em banda e que tenham certo valor quadrático médio o sinal gaussiano branco tem a maior entropia por segundo ou a maior quantidade de incerteza Essa também é a razão por que na transmissão de sinais o ruído gaussiano branco é em termos de interferência o pior ruído possível Informação Mútua Ix y O teste definitivo de qualquer conceito é sua utilidade A seguir mostraremos que quando consideramos Ix y a informação mútua das variáveis aleatórias contínuas x e y a entropia relativa definida nas Eqs 1332 leva a resultados que fazem sentido Desejamos transmitir uma variável aleatória x por um canal Cada valor de x em um dado intervalo contínuo é uma mensagem que pode ser transmitida por exemplo como um pulso de altura x A mensagem recuperada pelo receptor será uma variável aleatória contínua y Se o canal não tivesse ruído o valor recebido y seria determinado sem ambiguidade do valor transmitido x Contudo o ruído de canal introduz uma incerteza em relação ao verdadeiro valor de x Consideremos o evento em que no transmissor um valor de x no intervalo x x x tenha sido transmitido x 0 A probabilidade desse evento é pxx no limite x 0 Assim a quantidade de informação transmitida é log 1pxx Denotemos o valor de y no receptor por y e a densidade de probabilidade condicional de x quando y y por pxy Assim pxyx é a probabilidade de que x esteja no intervalo x x x quando y y desde que x 0 Obviamente existe uma incerteza em relação ao evento x no intervalo x x x Como essa incerteza log 1pxyx é a informação perdida ao longo do canal a informação recebida é Ix y dada por Notemos que essa relação é verdadeira no limite x 0 Portanto Ix y representa a informação transmitida ao longo de um canal se recebermos y y y quando x x x foi transmitido Desejamos determinar a informação média transmitida pelo canal quando algum x é transmitido e algum y recebido Devemos então calcular a média de Ix y para todos os valores de x e y A informação média transmitida será denotada por Ix y em que Notemos que Logo A integral no lado direito é a média de log 1pxy tomada em x e y Contudo log 1pxy representa a incerteza em relação a x quando y é recebido Como vimos essa é a informação perdida ao longo do canal O valor médio de log 1pxy é a perda de informação média quando algum x é transmitido e algum y recebido Por definição isso é Hxy a entropia condicional diferencial de x e y dada por Assim Portanto quando algum valor de x é transmitido e algum valor de y recebido a informação média transmitida pelo canal é Ix y dada pela Eq 1348 Podemos definir a capacidade de canal C s como a máxima quantidade de informação que pode ser transmitida em média por amostra ou valor transmitido Para um dado canal Ix y é uma função apenas da densidade de probabilidade de entrada px Isso pode ser mostrado da seguinte maneira Substituindo as Eqs 1350 e 1351 na Eq 1345b obtemos A densidade de probabilidade condicional pyx é característica de um dado canal Assim para um dado canal especificado por pyx Ix y é uma função apenas da densidade de probabilidade de entrada px Logo Se o canal permitir a transmissão de K valores por segundo C a capacidade de canal por segundo será dada por Para variáveis aleatórias contínuas como no caso de variáveis discretas Ix y é simétrica em relação a x e y Isso pode ser visto reescrevendo a Eq 1345b como Essa equação mostra que Ix y é simétrica em relação a x e y Assim Da Eq 1348 temos Capacidade de um Canal AWGN Limitado em Banda A capacidade de canal C é por definição a máxima taxa de transmissão de informação por um canal A informação mútua Ix y é dada pela Eq 1355 A capacidade de canal C é o valor máximo da informação mútua Ix y por segundo Determinemos primeiro o valor máximo de Ix y por amostra Nosso objetivo é determinar a capacidade de um canal limitado em banda a B Hz e perturbado por ruído gaussiano branco de PSD 2 Adicionalmente limitaremos a potência de sinal ou seu valor quadrático médio a S Admitimos que perturbação é aditiva ou seja que o sinal recebido yt é dado por Como o canal é limitado em banda tanto o sinal xt como o ruído nt são limitados em banda a B Hz Obviamente yt também é limitado em banda a B Hz Todos esses sinais podem então ser completamente especificados por amostras colhidas à taxa uniforme de 2B amostras por segundo Determinemos a máxima informação que pode ser transmitida por amostra Sejam x n e y amostras de xt nt e yt respectivamente A informação Ix y transmitida por amostra é dada pela Eq 1356 Agora determinemos Hyx Por definição Eq 1347 Como para um dado x y é igual a n mais uma constante x Logo a distribuição de y quando x tem um dado valor é idêntica à de n exceto por uma translação por x Seja p n a PDF da amostra de ruído n então Fazendo y x z temos O lado direito é a entropia Hn da amostra de ruído n Logo Na dedução da Eq 1359 não fizemos qualquer hipótese a respeito do ruído Assim a Eq 1359 é muito geral e se aplica a todos os tipos de ruído A única condição é que o ruído perturbe o canal de modo aditivo Com isso Admitimos que o valor quadrático médio do sinal xt tenha um valor S e que o valor quadrático médio do ruído seja N Suponhamos também que o sinal xt e o ruído nt sejam independentes Nesse caso o valor quadrático médio de y será a soma dos valores quadráticos médios de x e n Para um dado ruído dada Hn Ix y é máxima quando Hy for máxima Vimos que para um dado valor quadrático médio de y S N Hy será máxima se y for gaussiana e então a máxima entropia H maxy será dada por Como e n é gaussiano y será gaussiano se e somente x for gaussiano Como o valor quadrático médio de x é S e Para ruído gaussiano branco com valor quadrático médio N e A capacidade de canal por segundo é a informação máxima que pode ser transmitida por segundo As Eqs 1362 representam a máxima informação transmitida por amostra Se todas as amostras forem estatisticamente independentes a informação total transmitida por segundo será 2B vezes C s Se as amostras não forem independentes a informação total será menor que 2BC s Como a capacidade de canal C representa a máxima possível informação transmitida por segundo As amostras de um sinal gaussiano limitado em banda são independentes se e somente se a densidade espectral de potência PSD do sinal for uniformemente distribuída na banda Exemplo 92 e Exercício 923 Obviamente para transmitir informação à máxima taxa Eq 1363 a PSD do sinal yt deve ser uniforme A PSD de y é dada por Como S nf a PSD de xt também deve ser uniforme Assim a máxima taxa de transmissão C bits é alcançada quando xt também for um sinal gaussiano branco Em resumo quando o ruído de canal for aditivo branco e gaussiano com valor quadrático médio N N B a capacidade de canal C de um canal limitado em banda sujeito à condição de uma dada potência de sinal S é dada por em que B é a largura de banda do canal em hertz A máxima taxa de transmissão C bits pode ser realizada somente se o sinal de entrada for gaussiano branco Capacidade de um Canal de Largura de Banda Infinita À primeira vista a Eq 1363 parece indicar que a capacidade de canal tende a à medida que a largura de banda B do canal tende a Isso no entanto não é verdade Para ruído branco a potência de ruído é N B Logo se B aumentar N também aumenta Pode ser mostrado que no limite B C tende ao limite Esse limite pode ser calculado ao notarmos que Logo Assim para ruído de canal gaussiano branco quando B a capacidade de canal C tende a um limite de 144S A variação de C com B é mostrada na Fig 135 Fica evidente que a capacidade pode ser feita infinita somente se a potência de sinal S for aumentada até o infinito Para potências finitas de sinal e de ruído a capacidade de canal permanece finita Figura 135 Capacidade de canal em função da largura de banda para um canal com ruído gaussiano branco e potência de sinal fixa Figura 136 a Sinais transmitido recebido e de ruído representados no espaço de sinais b Escolha de sinais para comunicação sem erro Comprovação de Comunicação sem Erro em um Canal Contínuo Usando conceitos da teoria da informação mostramos que é possível transmitir informação sem erro a uma taxa B log 2 1 SN bits em um canal limitado em banda a B Hz A potência de sinal é S e o ruído de canal é gaussiano branco com potência N Esse teorema pode ser comprovado por raciocínio semelhante ao usado para comprovar a capacidade de canal no caso discreto A comprovação baseada no espaço de sinais é tão geral que na verdade representa uma prova alternativa do teorema da capacidade Consideremos uma comunicação Mária com M mensagens equiprováveis m 1 m 2 m M transmitidas por sinais s 1t s 2t s M t Todos os sinais são limitados no tempo com duração T e têm largura de banda essencial de B Hz Suas potências são menores ou iguais a S O canal é limitado em banda a S e o ruído de canal é gaussiano branco com potência N Todas as formas de onda de sinais e ruído têm 2BT 1 dimensões No limite faremos T Assim 2BT 1 e na discussão a seguir o número de dimensões será tomado como 2BT Como a potência de ruído é N a energia da forma de onda de ruído com duração de T segundos é NT Dada uma potência de sinal S a máxima energia de sinal é ST Como os sinais e ruído são independentes a máxima energia recebida é S NT Logo todos os sinais recebidos estarão em um hiperesfera de 2BT dimensões e raio Fig 136a Um típico sinal recebido s it nt tem energia S i NT e o ponto r que representa esse sinal está a uma distância da origem Fig 136a O vetor de sinal s i o vetor de ruído n e o vetor recebido r são mostrados na Fig 136a Como os vetores s i n e r formam um triângulo retângulo Além disso n está em uma esfera de raio centrada em s i Notemos que por ser aleatório n pode cair em qualquer lugar na esfera centrada em s i Temos M possíveis vetores transmitidos localizados no interior de uma grande esfera Para cada s possível desenhamos uma esfera de raio centrada em S Se o vetor recebido r estiver em uma das esferas pequenas o centro dessa esfera é a forma de onda transmitida Se preenchermos a grande esfera com M esferas que não se sobrepõem e não se tocam cada uma de raio Fig 136b e usarmos os centros dessas M esferas para as formas de onda transmitidas seremos capazes de detectar corretamente todas as M formas de onda no receptor com o simples emprego do receptor de máxima verossimilhança O receptor de máxima verossimilhança olha o ponto r do sinal recebido e decide que o sinal transmitido é dentre os possíveis M pontos transmitidos o mais próximo de r menor vetor de erro Cada ponto recebido r estará na superfície de uma das M esferas que não se sobrepõem com uso do critério da máxima verossimilhança o sinal transmitido será escolhido corretamente como o ponto no centro da esfera em que estiver r Portanto nossa tarefa consiste em determinar quantas pequenas esferas que não se sobrepõem cabem na grande esfera Para calcular esse número devemos determinar o volume de uma esfera de D dimensões Volume de uma Esfera de D Dimensões Uma esfera de D dimensões é descrita pela equação em que R é o raio da esfera Podemos mostrar que o volume VR de uma esfera de raio R é dado por em que V1 é o volume de uma esfera de D dimensões e raio unitário sendo portanto uma constante Para provar isso temos por definição Fazendo y j x jR temos Assim a razão entre os volumes das duas esferas de raios e R é Uma consequência direta desse resultado é que quando D é grande quase todo o volume da esfera está concentrado na superfície pois se R 1 então R D 0 à medida que D Essa razão tende a zero mesmo que difira de R por uma pequena quantidade Fig 137 Isso significa que não importa quão pequeno seja o volume no interior do raio é uma fração desprezível do volume total em um raio R desde que D seja suficientemente grande Portanto para D grande quase todo o volume de uma esfera de D dimensões fica concentrado na superfície Esse resultado parece estranho mas um pouco de reflexão mostra que faz sentido O volume é proporcional à Désima potência do raio Assim para G grande um pequeno aumento em R pode aumentar enormemente o volume e todo esse aumento advém de um pequeno aumento em R nas proximidades da superfície da esfera Isso significa que a maior parte do volume deve estar concentrada na superfície Figura 137 Volume de uma casca de uma hiperesfera de D dimensões O número de esferas de raio que não se sobrepõem e que podem ser empacotadas em uma esfera de raio é limitado pela razão entre os volumes das esferas de sinal e de ruído Assim Cada um dos sinais Mários transporta informação de log 2 M dígitos binários Logo a transmissão de um dos M sinais a cada T segundos equivale à taxa de informação C dada por Essa equação fornece um limite superior para C Para mostrar que podemos de fato receber informação sem erro à taxa B log 1 SN usemos o argumento proposto por Shannon 8 Em vez de escolher as M mensagens transmitidas nos centros das esferas que não se sobrepõem Fig 136b Shannon propôs a escolha aleatória dos M pontos na esfera de sinal I s de raio Fig 138 Consideremos um particular sinal transmitido s k Como admitimos que a energia de sinal seja S o ponto s k estará em algum ponto no interior da esfera de sinal I s de raio Como todos os M sinais são escolhidos aleatoriamente dessa esfera a probabilidade de encontrar um sinal em um volume V é min 1 MVV s em que V s é o volume de I s Contudo como para D grande todo o volume da esfera está concentrado na superfície todos os M pontos selecionados aleatoriamente estariam nas proximidades da superfície de I s A Fig 138 mostra o sinal transmitido s k o sinal recebido r e o ruído n Desenhamos uma esfera de raio centrada em r Essa esfera se cruza com a esfera I s e forma uma região comum com formato de lente O sinal s k está na superfície das duas esferas Usemos o receptor de máxima verossimilhança Isso significa que quando r for recebido tomaremos a decisão s k foi transmitido desde que nenhum dos M 1 pontos de sinal remanescentes estejam mais próximo de r que s k A probabilidade de que qualquer outro sinal seja encontrado na lente é V lente V s Portanto P e a probabilidade de erro na detecção de s k quando r é recebido é Figura 138 Dedução da capacidade de canal Da Fig 138 observamos que V lente Vh em que Vh é o volume de uma esfera de D dimensões e raio h Como r s k e n formam um triângulo retângulo Logo Assim e Se escolhermos então Se fizermos k 1 em que é um número positivo escolhido arbitrariamente pequeno Isso significa que P e pode ser feito arbitrariamente pequena com o aumento de T desde que M seja escolhido arbitrariamente próximo de 1 SN BT Assim na qual é um número positivo arbitrariamente pequeno Isso leva a k 2 T e prova o resultado desejado Uma dedução mais rigorosa desse resultado pode ser encontrada em Wozencraft e Jacobs 9 Por serem selecionados aleatoriamente de uma grande esfera de sinal os M sinais tendem a adquirir a estatística de ruído branco 8 isto é de processo aleatório gaussiano branco Comentário sobre Capacidade de Canal Segundo o resultado deduzido neste capítulo teoricamente podemos ter comunicação sem erro até C bits Há no entanto dificuldades práticas à obtenção dessa taxa Na prova da fórmula de capacidade admitimos que a comunicação é efetuada por sinais de duração T Isso significa que devemos esperar T segundos para acumular dados de entrada e então codificálos por uma das formas de onda de duração T Como a taxa de capacidade é alcançada somente no limite T teremos uma longa espera no receptor até obtermos a informação Além disso como o número de mensagens possíveis que podem ser transmitidas no intervalo T aumenta exponencialmente com T a complexidade das estruturas do transmissor e do receptor aumenta além da imaginação quando T A capacidade de canal indicada pela Equação de Shannon Eq 1369 é a máxima taxa de comunicação sem erro alcançável em um sistema ótimo sem nenhuma restrição exceto largura de banda B potência de sinal S e potência de ruído de canal gaussiano branco N Se tivermos qualquer outra restrição essa taxa máxima não será alcançada Por exemplo se considerarmos um canal binário canal restrito a transmitir somente sinais binários não seremos capazes de alcançar a taxa de Shannon mesmo que o canal seja ótimo Na Seção 139 o Exercício Computacional 132 fornecerá confirmação numérica disso A fórmula de capacidade de canal Eq 1363 indica que a taxa de transmissão é uma função que aumenta monotonamente com a potência 136 de sinal S Contudo se usarmos um canal binário veremos que o aumento da potência transmitida além de certo ponto resulta em pouca vantagem Assim em um canal binário o aumento de S não aumenta a taxa de comunicação sem erro acima de certo valor Isso não significa que a fórmula da capacidade de canal falhou simplesmente significa que quando dispomos de grande quantidade de potência com largura de banda finita o esquema binário não é o esquema de comunicação ótimo Um último comentário os resultados de Shannon nos dão o limite superior teórico de comunicação sem erro Contudo não nos dizem exatamente como esse limite pode ser alcançado Citando palavras de Abramson escritas em 1963 Esse é um dos problemas que continua a debochar dos especialistas em teoria da informação desde o artigo original de Shannon em 1948 Apesar do enorme esforço dedicado desde então à busca deste Santo Graal da teoria da informação um método determinístico para a geração dos códigos prometidos por Shannon ainda não foi descoberto 4 Surpreendentemente 30 anos mais tarde a introdução de códigosturbo e a redescoberta de códigos de teste de paridade de baixa densidade LDPC LowDensity Parity Check alterariam a paisagem completamente Apresentaremos esses códigos no Capítulo 14 EQUAÇÃO DE SHANNON E SISTEMAS DE COMUNICAÇÃO PRÁTICOS É interessante determinar a lei ideal para a barganha entre SNR e largura de banda de transmissão com o uso da equação de capacidade de canal Consideremos uma mensagem com largura de banda B usada para modulação ou codificação e o resultante sinal modulado com largura de banda B T Esse sinal é recebido na entrada de um demodulador ideal com potências de sinal e de ruído S i e N i respectivamente Fig 139 A largura de banda da saída do demodulador é B e a SNR S oN o Como idealmente uma SNR SN e uma largura de banda B podem transmitir B log 1 SN bits de informação as taxas de informação ideais dos sinais na entrada e na saída do demodulador são respectivamente B T log 1 S iN i e B log 1 S oN o bits Como o demodulador não cria nem destrói informação as duas taxas devem ser iguais ou seja e Na prática para a maioria dos sistemas S oN o e S iN i 1 de modo que Figura 139 Barganha ideal entre SNR e largura de banda E Logo as Eqs 1370 se tornam As Eqs 1370 e 1371 fornecem a lei ideal de troca entre SNR e largura de banda A Fig 1310 mostra a SNR de saída S oN o em função de γ para diversos valores de B T B A SNR de saída aumenta com o fator de expansão de largura de banda B T B Isso significa que para manter uma dada SNR de saída a potência do sinal transmitido pode ser reduzida exponencialmente com o fator de expansão de largura de banda Assim para um pequeno aumento na largura de banda devemos reduzir a potência transmitida consideravelmente Para uma pequena redução na largura de banda podemos aumentar a potência transmitida consideravelmente Investiguemos agora como dois sistemas digitais se comparam com o sistema ideal PCM Como vimos PCM Mária exibe um efeito de saturação a menos que à medida que γ aumenta passemos a maiores valores de M Se o sinal de mensagem for quantizado em L níveis cada amostra pode ser codificada por log M L pulsos Mários Seja B a largura de banda do sinal de mensagem precisamos então transmitir 2B amostras por segundo Em consequência R M o número total de pulsos Mários por segundo é Figura 1310 Comportamento ideal de SNR em função de γ para diversas razões entre B T e B A largura de banda de transmissão B T é a metade do número de pulsos Mários por segundo Logo Da Eq 1098a a potência S i é calculada como E Cada pulso Mário transporta a informação de log 2 M bits e transmitimos 2B log M L pulsos Mários por segundo Ou seja a taxa de transmissão de informação é R b bits por segundo em que A substituição das Eqs 1372b e 1373 nessa última equação leva a Transmitimos a informação equivalente a R b dígitos binários por segundo no canal PCM Mário No entanto a recepção não é sem erro Os pulsos são detectados com a probabilidade de erro P eM dada na Eq 1099c Se P eM for da ordem de 10 6 podemos considerar que a detecção é essencialmente sem erros Da Eq 1099c Logo Substituindo esse valor na Eq 1374 obtemos Portanto em um canal com largura de banda B T e SNR de S iN i um sistema PCM pode transmitir informação à taxa R b na Eq 1375 O canal ideal com largura de banda B T e SNR S iN i pode transmitir informação à taxa de C bits em que Assim o sistema PCM usa cerca de oito vezes 9 dB mais potência que o sistema ideal Esse desempenho ainda é muito superior ao do sistema FM A Fig 1311 mostra R bB T em função de S iN i Para o sistema ideal temos No limiar PCM é 9 dB inferior à curva ideal 137 Figura 1311 Comparação entre os comportamentos do sistema ideal e de PCM Quando PCM está sob saturação a probabilidade de erro de detecção tende a 0 Cada pulso Mário transmite log 2 M bits e há 2B T bits por segundo Logo ou Isso fica claro na Fig 1311 linhas cheias horizontais Sinalização Ortogonal No caso de sinalização ortogonal mostramos na Eq 10122 que a taxa de comunicação sem erro é Vimos na Eq 1364 que essa é precisamente a taxa de comunicação sem erro em um canal ideal com largura de banda infinita Portanto à medida que M a largura de banda de um esquema Mário também tende ao infinito e a taxa de comunicação tende à de um canal ideal CAPACIDADE DE CANAL SELETIVO EM FREQUÊNCIA Até aqui limitamos a discussão à capacidade de canais sem distorção com largura de banda finita e sujeitos a ruído gaussiano Este modelo de canal é aplicável quando canais têm ganho ou desvanecimento plano Na prática muitas vezes nos deparamos com muitos tipos de canais complexos Em particular vimos no Capítulo 12 que na presença de multipercurso significativo a maioria dos canais de comunicação sem fio tende a ser seletiva em frequência A seguir analisemos a capacidade de canais seletivos em frequência que não exibem espectro sem distorção plano Primeiro consideremos um canal AWGN limitado em banda cuja saída aleatória é Esse canal tem ganho constante H na largura de banda Com base na Eq 1363 esse canal AWGN limitado em banda passa baixas com largura de banda B tem capacidade em que S e N são as potências de sinal e de ruído respectivamente Nos Capítulos 4 e 9 demonstramos a equivalência via modulação entre canais em bandabase e passafaixa Portanto dados o mesmo espectro e largura de banda de ruído canais AWGN passabaixas limitados em banda e canais AWGN passafaixa possuem idênticas capacidades de canal Agora estamos aptos a descrever a capacidade de canais seletivos em frequência Consideremos um canal passafaixa de largura de banda infinitesimal f centrada em uma frequência f i Nessa estreita banda sejam Hf i o ganho do canal S xf i a densidade espectral de potência PSD do sinal e S nf i a PSD de ruído gaussiano Como essa pequena largura de banda é essencialmente um canal AWGN limitado em banda segundo a Eq 1363 sua capacidade é Isso significa que podemos dividir um canal seletivo em frequência Hf em estreitos canais AWGN passafaixas disjuntos de largura de banda f Assim a capacidade de canal total é aproximada por Na verdade o sistema prático OFDM ou DMT discutido no Capítulo 12 é um sistema desse tipo e consiste em um banco de canais planos paralelos com ganhos diferentes Essa capacidade é aproximada porque a resposta do canal a PSD de sinal ou a PSD de ruído pode não ser constante em uma banda f não nula Fazendo f 0 podemos determinar a real capacidade do canal como Carregamento de Potência para Máxima Capacidade Na Eq 1383 estabelecemos que a capacidade de um canal seletivo em frequência com resposta Hf e sujeito a ruído gaussiano colorido de densidade espectral de potência PSD S nf depende da PSD de entrada S xf Para que o transmissor utilize toda a capacidade do canal precisamos determinar a densidade espectral de potência PSD de entrada S xf ótima que maximize a capacidade integral Para isso reparemos que não seria justo considerarmos uma PSD de entrada S xf arbitrária pois diferentes densidades espectrais de potência podem levar a diferentes valores da potência de entrada total Dados dois sinais com mesma forma de PSD o sinal mais forte com maior potência tem uma vantagem desleal e tem transmissão mais cara Assim uma abordagem justa para a maximização da capacidade do canal deve limitar a potência de entrada total de sinal a um limite de potência de transmissor P x A determinação da melhor PSD de entrada sujeita à limitação de potência total é conhecida como o problema de carregamento ou alocação de potência para máxima capacidade A PSD que alcança o carregamento de potência para máxima capacidade é a solução do problema da otimização de Para a solução desse problema de otimização mais uma vez dividimos o canal de largura de banda B em K estreitos canais planos centrados em f i i 1 2 K e com largura de banda f BK Definindo o problema de otimização se torna um problema discreto O problema da determinação de N ótimos valores de potência S i é a essência do problema de carregamento ótimo de potência Esse problema pode ser tratado com a introdução de um multiplicador de Lagrange padrão λ para formar uma funçãoobjetivo modificada Tomando a derivada parcial de GS 1 S K em relação a S j e igualandoa a zero temos Reescrevamos essa condição de otimalidade como Definindo uma nova variável W λ ln 2 1 asseguramos que a atribuição ótima de potência entre os K subcanais é A condição de carregamento ótimo de potência na Eq 1387 ainda não está completa pois se não tomarmos cuidado alguns dos S i podem ser negativos Portanto devemos aplicar a condição adicional para assegurar que S i 0 As duas relações na Eq 1388 descrevem a solução do problema da otimização do carregamento de potência Devemos notar que permanece desconhecido o parâmetro W que deve ser especificado Aplicando a condição de potência total ΣS i P podemos determinar o parâmetro W Por fim tomamos o limite f 0 e K Como S i S xf if e N i S nf if a PSD do sinal de entrada ótimo fica dada por Notemos novamente que não há uma solução em forma fechada para a constante ótima W que é obtida da condição sobre a potência de entrada total ou A substituição da PSD ótima da Eq 1389 na fórmula de capacidade fornece a máxima capacidade de canal como Interpretação do Carregamento Ótimo de Potência como Enchimento com Água A PSD de entrada ótima do canal deve satisfazer a restrição de potência na Eq 1389c Uma vez que a constante W tenha sido determinada o transmissor pode ajustar sua PSD de transmissão segundo a Eq 1389a maximizando a capacidade do canal Essa solução ótima para o problema da otimização da PSD de entrada do canal é conhecida como solução do enchimento com água waterfilling or waterpouring solution 5 A interpretação da PSD ótima como enchimento com água é ilustrada na Fig 1312 Primeiro traçamos o gráfico da resposta de frequência S nfHf 2 Observemos que essa curva tem o formato de um recipiente de água Consideremos a potência total como um balde dágua com volume total P Podemos então despejar todo o balde dágua no recipiente para obtermos igual nível de água O nível final de água atingirá o valor W quando o balde estiver vazio Em cada frequência f profundidade de água é a desejada PSD ótima S xf especificada na Eq 1389a É claro que quando a PSD do ruído for grande tal que S nfHf 2 seja grande para alguma f nenhuma quantidade de água será despejada nessa frequência Em outras palavras para tais frequências a PSD ótima será zero Reparemos que um alto valor de S nfHf 2 significa um baixo valor da SNR do canal Hf 2S nf Reciprocamente quando S nfHf 2 for baixo ou quando a SNR for alta o valor ótimo da PSD S xf será alto Em resumo o enchimento com água aloca mais potência de sinal às frequências em que a SNR do canal Hf 2S nf for alta e pouca potência às frequências em que a SNR do canal Hf 2S nf for baixa Essa solução é semelhante mas não igual ao de carregamento de potência para máxima SNR no receptor do sistema DMT discutido na Seção 128 138 1381 Figura 1312 Ilustração do princípio de enchimento com água para alocação de potência que maximize a capacidade de um canal seletivo em frequência Carregamento Ótimo de Potência em OFDMDMT Como mostra a ilustração do enchimento com água é impossível determinar uma expressão em forma fechada para W Uma vez que P tenha sido especificada um algoritmo iterativo de enchimento com água pode ser usado para determinar W e assim o carregamento ótimo da PSD S xf Na prática essa abordagem para a determinação do nível de água W requer a determinação numérica de W A solução numérica a largura de banda do canal é dividida em bandas suficientemente estreitas de largura f que não se sobrepõem Em sistemas de comunicação práticos OFDM e DMT o algoritmo iterativo de enchimento com água serve como uma luva para a determinação da capacidade de canal A máxima capacidade pode ser realizada em canais OFDM com a alocação de diferentes potências S i às distintas portadoras ortogonais Em particular a potência alocada à subportadora f i deve ser com ΣS i P Essa alocação ótima de potência ou carregamento ótimo de potência pode ser determinada com a adição de potência incremental às subportadoras uma de cada vez até que ΣS i P SISTEMAS DE COMUNICAÇÃO COM MÚLTIPLAS ENTRADAS E MÚLTIPLAS SAÍDAS Na última década uma das mais importantes inovações em comunicações móveis foi o advento de tecnologias de múltiplas entradas múltiplas saídas MIMO multipleinputmultipleoutput Na verdade os padrões para WiFi IEEE 80211n e WiMAX IEEE 80216e incorporaram transmissores e receptores ou transceptores MIMO A principal vantagem de sistemas de comunicações móveis com MIMO é a capacidade dos mesmos em aumentar significativamente a capacidade de canal sem fio sem aumento correspondente na largura de banda ou na potência de sinal no transmissor É interessante ressaltar que o desenvolvimento da tecnologia MIMO tem origem em fundamentos da teoria da informação A seguir explicaremos essa conexão Capacidade de Canais MIMO Até aqui consideramos apenas uma variável de sinal para transmissão agora trataremos com vetores de sinais de entrada e de saída Em outras palavras cada vetor de sinal consiste em múltiplos símbolos de dados a serem transmitidos ou recebidos simultaneamente em sistemas MIMO Consideremos um vetor de sinal aleatório x x 1 x 2 x N T Se o vetor de sinal for discreto com probabilidades a entropia de x é determinada por Da mesma forma quando x é distribuído continuamente com função de densidade de probabilidade px 1 x 2 x N sua entropia diferencial é definida por Consideremos um vetor aleatório de valor real x que consiste em N variáveis aleatórias gaussianas independentes e igualmente distribuídas i i d Admitamos que x tenha média vetorial μ e matriz de covariância Sua entropia diferencial pode ser calculada 5 como Fica claro que a entropia de um vetor aleatório não é afetada pela média μ Portanto por conveniência podemos considerar somente vetores com médias zero De agora em diante admitiremos Dentre todos os vetores aleatórios de valor real que têm média zero e satisfazem a condição temos 11 Isso significa que entre todos os vetores aleatórios reais com igual matriz de covariância a distribuição vetorial gaussiana tem máxima entropia Consideremos agora um canal MIMO com desvanecimento plano e matriz de ganho H A matriz de canal N M conecta o vetor de entrada M 1 x ao vetor de saída y em que w é o vetor de ruído gaussiano branco aditivo N 1 com média zero e matriz de covariância C w Como mostrado na Fig 1313 um sistema MIMO consiste em M antenas transmissoras no lado do transmissor e N antenas receptoras no lado do receptor Cada antena transmissora pode transmitir a todas as N antenas receptoras Dado um canal H de dimensões N M isto é M antenas transmissoras e N antenas receptoras a informação mútua entre os vetores de entrada e de saída é Recordemos que sob a condição de que x seja conhecido Hx é uma média constante Portanto a entropia condicional de y dado x é e Figura 1313 Sistema MIMO com M antenas transmissoras e N antenas receptoras Podemos usar o resultado da Eq 1394 para obter Como a entrada do canal x independe do vetor de ruído w temos Assim a capacidade do canal por vetor de transmissão é Dado um canal simétrico passabaixas com largura de banda de B Hz 2B amostras de x podem ser transmitidas resultando em uma capacidade de canal em que para matrizes A e B de dimensões adequadas invocamos a igualdade det I AB det I B A Podemos ver claramente da Eq 13101 que a capacidade de canal depende da matriz de covariância C x do vetor de sinal de entrada gaussiano Esse resultado mostra que conhecido o canal MIMO no transmissor um sinal de entrada ótimo pode ser determinado se C x for projetada para maximizar a capacidade de canal total CH Agora devemos considerar dois cenários 1 transmissores MIMO sem conhecimento do canal MIMO e 2 transmissores MIMO com conhecimento de canal que permita a otimização de C x Discutamos a capacidade do canal MIMO para esses dois casos separados 1382 Transmissor sem Conhecimento do Canal Para transmissores sem conhecimento do canal a matriz de covariância de entrada C x deve ser escolhida sem qualquer preferência Em consequência a escolha padrão deve ser feita Nesse caso a capacidade do sistema MIMO é simplesmente Consideremos a autodecomposição de em que U é uma matriz quadrada unitária N N tal que U U H I N e D é uma matriz diagonal com elementos diagonais não negativos em ordem decrescente Reparemos que d r 0 é o menor autovalor não zero de cujo posto é limitado por r min N M Como det I A B det I B A e U H U I temos No caso especial de ruído de canal aditivo branco e gaussiano e em que γ i é o iésimo maior autovalor de H T H que admitimos ter posto r Por conseguinte a capacidade de canal para esse sistema MIMO é Em resumo essa capacidade de canal é a soma das capacidades de r canais AWGN paralelos Cada subcanal tem SNR igual a A Fig 1314 demonstra o sistema equivalente que consiste em r canais AWGN paralelos com r sinais de 1383 entrada ativos x 1 x r No caso especial em que o canal MIMO é tão bem condicionado que todos seus autovalores não zero sejam idênticos γ i γ a capacidade de canal é Para efeito de comparação com o canal com uma entrada e uma saída SISO para o qual H é um escalar e r 1 a capacidade do canal SISO é simplesmente Figura 1314 Sistema de comunicação com r canais paralelos equivalente a um sistema MIMO sem conhecimento do canal no transmissor Portanto com a aplicação de transceptores MIMO a capacidade de canal é aumentada a r vezes a capacidade do canal SISO original Esse resultado demonstra as significativas vantagens da tecnologia MIMO para prover a necessária melhora de capacidade de sistemas de comunicação sem fio Transmissor com Conhecimento do Canal Em numerosos sistemas de comunicação sem fio o transmissor pode adquirir conhecimento do canal MIMO por meio de um mecanismo de realimentação Nesses casos para maximizar a capacidade do sistema MIMO o transmissor pode otimizar a matriz de covariância C x do sinal de entrada 12 Primeiro observemos que a capacidade de canal da Eq 13101 pode ser aumentada com a simples multiplicação da matriz C x por uma constante grande k Isso obviamente significaria aumentar a potência de transmissão k vezes o que seria desleal Portanto para ser leal o projeto da matriz de covariância C x deve ser baseado em alguma restrição de ordem prática Em um típico sistema de comunicação sabemos que o transmissor com maior potência de sinal levará a maior SNR e em consequência a maior capacidade Assim como no projeto da PSD baseado no enchimento com água para canais seletivos em frequência devemos restringir a potência total de transmissão do transmissor MIMO a um limite P Para mostrar como essa restrição na potência afetaria a matriz de covariância de entrada C x primeiro precisamos introduzir o operador traço Tr de matrizes quadradas Consideremos uma matriz quadrada M M F cujo elemento na iésima linha e j ésima coluna é denotado por F ij O traço da matriz F é a soma de seus elementos diagonais Como o operador traço é linear da propriedade do operador valor esperado E Eq 859 temos Introduzimos agora uma propriedade muito útil do operador traço Se os produtos matriciais AB e BA forem matrizes quadradas de dimensões adequadas terão o mesmo traço ou seja Essa igualdade se revela muito importante Na aplicação da Eq 13110 sabemos que para o vetor x Para o vetor de sinal x x 1 x 2 x M podemos aplicar as Eqs 13109 e 13111 para mostrar que a potência de soma média do vetor de sinal x é Com isso estabelecemos que a restrição de potência se traduz em uma restrição de traço Portanto dado que o transmissor conheça a matriz de covariância ótima do sinal de entrada que maximiza a capacidade do canal é definida por Esse problema de otimização é bem definido Para determinar C x ótima recordemos a autodecomposição Aplicando a propriedade do traço na Eq 13110 podemos reescrever o projeto da matriz de covariância ótima como Como matrizes de covariância são positivas semidefinidas Apêndice D7 podemos definir uma nova matriz positiva semidefinida Segundo a Eq 13110 sabemos que Na verdade a Eq 13116 nos diz que os traços de C x e x são idênticos Essa igualdade nos permite simplificar o problema de maximização da capacidade como O problema na Eq 13117b é mais simples pois D é uma matriz diagonal Além disso podemos invocar a ajuda de uma ferramenta muito útil e comumente empregada na diagonalização de matrizes conhecida como desigualdade de Hadamard Desigualdade de Hadamard Seja a ij o elemento na iésima linha e jésima coluna de uma matriz complexa A n n A é positiva semidefinida e hermitiana ou seja conjA T A Logo a seguinte desigualdade é válida e a igualdade ocorre se e somente se A for diagonal Podemos comprovar com facilidade que I D 12 x x D 12 é positiva semidefinida pois x é positiva semidefinida Exercício 1383 Invocando a desigualdade de Hadamard na Eq 13117b fica claro que para máxima capacidade de canal precisamos ter Em outras palavras a entrada de canal ótima requer A Eq 13118 estabelece que a estrutura ótima de x é diagonal Esse resultado simplifica grandemente o problema de maximização da capacidade Denotemos a estrutura ótima da matriz de covariância por Assim a capacidade é maximizada por uma matriz x positiva semidefinida segundo Em outras palavras nossa tarefa consiste em encontrar os elementos positivos ótimos c i para maximizar a Eq 13119b sujeita à condição Σ ic i P Seguindo a abordagem lagrangeana definimos uma funçãoobjetivo modificada Tomando a derivada da funçãoobjetivo modificada em relação a c j j 1 2 M e igualando a zero temos ou Figura 1315 Interpretação do carregamento de potência no transmissor MIMO com conhecimento do canal como enchimento com água Figura 1316 Interpretação do carregamento ótimo de potência no transmissor MIMO com conhecimento do canal como enchimento com água Os elementos diagonais ótimos c i são sujeitos à condição 139 Como no problema de alocação de potência para canal com ruído gaussiano colorido podemos definir um nível de água W Bλ ln 2 Aplicando o mesmo procedimento iterativo do enchimento com água podemos determinar a alocação ótima de potência em cada autovetor como com a restrição sobre a potência total A Fig 1315 ilustra a interpretação do carregamento ótimo de potência no transmissor MIMO com conhecimento do canal como enchimento com água A matriz de covariância ótima do sinal de entrada é portanto determinada por Em outras palavras o vetor de sinal de entrada pode ser formado por uma transformação unitária U após determinarmos c i com base no enchimento com água Na verdade c i é a quantidade de potência carregada na alocada à iésima coluna de U ou seja iésimo autovetor de Suponhamos que desejemos transmitir m sequências de sinais independentes s 1 s 2 s m de média zero e variância unitária A entrada ótima do canal MIMO é formada por meio de em que U 1 é a primeira das m colunas de U A Fig 1316 mostra um diagrama em blocos desse transmissor MIMO ótimo que maximiza a capacidade de canal com base no conhecimento do canal MIMO O multiplicador matricial U 1 diag no transmissor é conhecido como précodificador linear ótimo EXERCÍCIOS COM O MATLAB Nesta seção apresentamos exercícios MATLAB para reforçar os conceitos de codificação de fonte e capacidade de canal discutidos neste capítulo EXERCÍCIO COMPUTACIONAL 131 CÓDIGO DE HUFFMAN O primeiro programa huffmancodem é uma função codificadora de Huffman O usuário precisa apenas fornecer um vetor de probabilidade que consiste em todas as probabilidades de símbolos da fonte Não é necessário que as entradas de probabilidade sejam ordenadas O segundo programa huffmanExm gera um exemplo muito simples de codificação de Huffman Nesse exercício fornecemos um vetor de probabilidade de entrada de comprimento 8 O programa huffmanExm gera a lista de palavras de código para todos os símbolos de entrada A entropia Hx dessa fonte é calculada e comparada com o comprimento de palavra de código Huffman médio A razão entre esses valores mostra a eficiência do código Com a execução do programa huffmanExm obtemos os seguintes resultados EXERCÍCIO COMPUTACIONAL 132 CAPACIDADE DE CANAL E INFORMAÇÃO MÚTUA Este exercício fornece uma oportunidade para calcular a capacidade de canal com uma entrada e uma saída SISO sujeito a ruído gaussiano branco aditivo O programa MATLAB mutualinfom contém uma função que pode calcular a informação mútua média entre duas sequências de dados x e y de mesmo comprimento Usamos um histograma para estimar a função densidade de probabilidade conjunta px y antes do cálculo da informação mútua segundo a definição na Eq 1345a No programa MATLAB principal capacityplotm calculamos a capacidade de canal AWGN para razão SN de 0 5 10 15 e 20 dB A capacidade de canal para diferentes SNRs é mostrada na Fig 1317 Adicionalmente podemos testar a informação mútua Ix y entre a entrada do canal x e a correspondente saída do canal y para um dado nível de SNR Nesse programa estimamos Ix y para cinco diferentes sinais de entrada de média zero e variância unitária Entrada gaussiana Entrada binária equiprovável Entrada PAM4 equiprovável Entrada PAM8 equiprovável Entra uniforme no intervalo A correspondente informação mútua Ix y é estimada pela média tomada em 1000000 amostras de dados Figura 1317 Capacidade de canal comparada com informação mútua entre saída do canal e diferentes sinais de entrada O gráfico da informação mútua estimada é traçado em função da capacidade de canal para diferentes SNRs para cinco distribuições de entrada 1 Gaussiana 2 Binária 1 3 PAM nível 4 ou PAM4 4 PAM nível 8 ou PAM8 e 5 Uniforme Todas as cinco distribuições uniformes são normalizadas para terem média zero e potência variância unitária Como mostrado na Fig 1317 a informação mútua obtida com a entrada gaussiana concorda muito bem com a capacidade de canal teórica Esse resultado confirma a conclusão da Seção 135 de que entrada de canal gaussiana alcança a capacidade de canal A Fig 1317 mostra que a informação mútua de todas as outras entradas fica abaixo da informação mútua obtida pela entrada gaussiana Dentre as cinco distribuições a entrada binária produz a menor informação mútua enquanto PAM8 produz informação mútua muito próxima da capacidade de canal para SNR abaixo de 20 dB Essa observação indica que informação mútua mais alta pode ser obtida quando a distribuição da entrada do canal for próxima da gaussiana EXERCÍCIO COMPUTACIONAL 133 CAPACIDADE DE CANAL MIMO Neste exercício mostramos como a capacidade de canal MIMO varia para diferentes números de antenas transmissoras e antenas receptoras O programa MATLAB mimocapm calcula a capacidade MIMO teórica de 200 canais MIMO aleatórios de diferentes tamanhos para uma SNR de 3 dB Consideremos o caso de um transmissor que não tem conhecimento do canal MIMO Portanto às antenas de transmissão é alocada a mesma potência de sinal Adicionalmente admitimos que os ruídos de canal sejam gaussianos brancos aditivos e independentes com variância As entradas na matriz do canal MIMO H são geradas aleatoriamente de uma distribuição gaussiana de média zero e variância unitária Como os canais são aleatórios para M antenas transmissoras e N antenas receptoras a capacidade MIMO por transmissão é Como as entradas na matriz do canal MIMO H são geradas aleatoriamente a correspondente capacidade também é aleatória Dos 200 canais cada configuração MIMO N M deve gerar 200 valores distintos de capacidade Figura 1318 Função de distribuição cumulativa CDF de diferentes configurações MIMO Na Fig 1318 ilustramos a função de distribuição cumulativa CDF da capacidade de canal C MIMO 1 2 3 4 5 6 7 8 9 10 11 12 1311 a b 1312 1313 1314 a b de cada configuração MIMO estimada dos 200 canais aleatórios Calculamos a CDF da capacidade de canal para seis diferentes configurações MIMO 1 1 2 2 2 4 4 2 4 4 e 8 4 Os resultados mostram claramente que sistemas MIMO com mais antenas transmissoras e antenas receptoras têm distribuições CDF concentradas na capacidade ou taxa mais alta Por exemplo sistemas MIMO 2 2 têm capacidade abaixo de 4 bitsamostra com probabilidade de 1 Contudo para sistemas MIMO 4 4 a probabilidade cai a apenas 02 Considerando sistemas MIMO 8 4 a probabilidade cai abaixo de 005 Esses exemplos numéricos demonstram claramente a maior capacidade alcançada pela tecnologia MIMO REFERÊNCIAS C E Shannon Mathematical Theory of Communication Bell Syst Tech J vol 27 pp 379423 July 1948 pp 623656 Oct 1948 R V L Hartley Transmission of Information Bell Syst Tech J vol 7 pp 535563 July 1928 H Nyquist Certain Factors Affecting Telegraph Speed Bell Syst Tech J vol 3 pp 324346 April 1924 N Abramson Information Theory and Coding McGrawHill New York 1963 R G Gallager Information Theory and Reliable Communication Wiley New York 1968 D A Huffman A Method for Construction of Minimum Redundancy Codes Proc IRE vol 40 pp 10981101 Sept 1952 R W Hamming Coding and Information Theory 2nd ed PrenticeHall Englewood Cliffs NJ 1986 C E Shannon Communication in the Presence of Noise Proc IRE vol 37 pp 1021 Jan 1949 J M Wozencraft and I A Jacobs Principles of Communication Engineering Wiley New York 1965 Chapter 5 A J Viterbi Principles of Coherent Communication McGrawHill New York 1966 A Paulraj R Nabar and D Gore Introduction to SpaceTimeWireless Communications Cambridge University Press Cambridge 2003 T M Cover and J A Thomas Elements of Information Theory WileyInterscience NewYork 1991 EXERCÍCIOS Uma fonte gera quatro mensagens aleatoriamente a cada microssegundo As probabilidades dessas mensagens são 04 03 02 e 01 Cada mensagem emitida independe das outras na sequência Qual é a entropia da fonte Qual é a taxa de informação gerada por essa fonte em bits por segundo Uma imagem padrão de televisão é composta aproximadamente por 300000 elementos básicos de imagem cerca de 600 elementos de imagem em uma linha horizontal e 500 linhas por quadro Cada um desses elementos pode assumir 10 níveis distintos de tonalidade como preto e escalas de cinza Determine o conteúdo de informação de um quadro de imagem de televisão Um locutor de rádio descreve uma imagem de televisão em 1000 palavras de seu vocabulário de 10000 palavras Admita que cada uma das 10000 palavras no vocabulário do locutor tenha uma mesma probabilidade de ocorrência na descrição dessa imagem uma aproximação grosseira mas suficientemente boa para dar uma ideia Determine a quantidade de informação difundida pelo locutor na descrição da imagem Você diria que o locutor faz justiça à imagem em 1000 palavras O velho ditado Uma imagem vale mais que mil palavras é uma visão exagerada ou suavizada da realidade Use os dados do Exercício 1312 para estimar a informação em uma imagem Da cidade de Old North Church Igreja Velha do Norte em Boston em 1775 o amigo de Paul Revere devia mostrar uma lanterna caso o exército inglês avançasse por terra e duas lanternas caso cruzasse a baia em botes Admita que Revere não tinha como saber antecipadamente que rota os ingleses tomariam Quanta informação ele recebeu quando viu duas lanternas E se Revere tivesse 90 de certeza de que os ingleses marchariam por terra Nesse caso quanta informação duas lanternas transportariam 1315 a b Estime por diferentes métodos a informação por letra na língua inglesa admitindo que cada caractere independe dos outros Isso não é verdade mas serve para dar uma ideia No primeiro método suponha que todos os 27 caracteres 26 letras e um espaço são equiprováveis Essa é uma aproximação grosseira mas boa para uma resposta rápida No segundo método use a tabela de probabilidades de vários caracteres Tabela E1315 Tabela E1315 Probabilidade de ocorrência de letras na língua inglesa Letra Probabilidade log P i Espaço 0187 246 E 01073 322 T 00856 384 A 00668 390 O 00654 394 N 00581 411 R 00559 416 I 00519 427 S 00499 433 H 004305 454 D 003100 502 L 002775 517 F 002395 538 C 002260 545 M 002075 560 U 002010 564 G 001633 594 Y 001623 595 P 001623 595 W 001620 632 B 001179 642 V 000752 706 K 000344 820 X 000136 954 c 1321 1322 1323 a b c 1324 1325 1326 a b c d 1341 J 000108 985 Q 000099 998 Z 000063 1063 Use a regra de Zipf que relaciona o posto de uma palavra à sua probabilidade Na prosa em inglês se ordenarmos as palavras segundo a frequência de uso de modo que a palavra usada com maior frequência the seja a palavra de número 1 posto 1 a segunda palavra mais provável of é a de número 2 posto 2 e assim por diante a probabilidade da palavra de número r posto r é calculada empírica e aproximadamente como Use a lei de Zipf para calcular a entropia por palavra Admita que há 8727 palavras A razão para esse número é que as probabilidades Pr somam 1 para r de 1 a 8727 A lei de Zipf surpreendentemente dá resultados razoavelmente bons Supondo que em média há 55 letras incluindo espaço por palavra calcule a entropia ou informação por letra Uma fonte emite sete mensagens com probabilidades 12 14 18 116 132 164 e 164 respectivamente Determine a entropia da fonte Obtenha um código binário compacto e determine o comprimento médio da palavra de código Calcule a eficiência e a redundância do código Uma fonte emite sete mensagens com probabilidades 13 13 19 19 127 127 e 127 Determine a entropia da fonte Obtenha um código 3ário compacto e determine o comprimento médio da palavra de código Calcule a eficiência e a redundância do código Uma fonte emite quatro mensagens aleatoriamente a cada microssegundo As probabilidades dessas mensagens são 05 03 01 e 01 As mensagens são geradas de forma independente Qual é a entropia da fonte Obtenha um código binário compacto e determine comprimento médio da palavra de código a eficiência e a redundância do código Refaça a parte b para um código compacto terciário Para as mensagens no Exercício 1321 obtenha o código compacto 3ário e determine o comprimento médio da palavra de código Calcule a eficiência e a redundância do código Para as mensagens no Exercício 1322 obtenha o código compacto binário e determine o comprimento médio da palavra de código Calcule a eficiência e a redundância do código Uma fonte emite três mensagens aleatórias equiprováveis e independentes Determine a entropia da fonte Determine um código compacto terciário o comprimento médio da palavra de código a eficiência e a redundância do código Refaça a parte b para um código binário Para aumentar a eficiência de um código binário codificamos a segunda extensão da fonte Determine um código binário compacto o comprimento médio da palavra de código a eficiência e a redundância do código Uma matriz de canal binário é dada por 1342 a b 1343 Isso significa P yx y 1 x 1 23 P yx y 2 x 2 13 etc Sabendo que P x x 1 13 e P x x 2 23 determine Hx Hxy Hy Hyx e Ix y Para o canal terciário na Fig E1342 P x x 1 P e P x x 2 P x x 3 Q Nota P 2Q 1 Figura E1342 Determine Hx Hxy Hy e Ix y Mostre que a capacidade de canal C s é dada por em que β 2 p log p 1p log 1p Considere o canal simétrico binário BSC mostrado na Fig E1343a A matriz de canal é dada por A Fig E1343b mostra uma cascata de dois desses BSCs Figura E1343 a b c d 1344 1345 Determine a matriz de canal para a cascata de canais na Fig E1343b Mostre que essa matriz é M 2 Se os dois canais BSC na Fig E1343b tiverem probabilidades de erro P e 1 e P e 2 com matrizes de canal M 1 e M 2 respectivamente mostre que a matriz de canal da cascata desses dois canais é M 1 M 2 Use os resultados da parte b para mostrar que a matriz de canal para uma cascata de n canais BSCs idênticos cada um com matriz de canal M é M k Comprove sua resposta para n 3 confirmando os resultados no Exemplo 87 Use os resultados da parte c para determinar a capacidade de canal para uma cascata de k canais BSCs idênticos cada um com probabilidade de erro P e Em comunicação de dados com o emprego de código de detecção de erro assim que um erro é detectado uma solicitação automática de retransmissão ARQ Automatic ReQuest for retransmission habilita a retransmissão de dados em erro Em um canal desse tipo dados em erro são apagados Portanto há uma probabilidade de apagamento p mas a probabilidade de erro é zero Um canal desse tipo denominado canal com apagamento binário BEC binary erasure channel pode ser modelado como mostrado na Fig E1344 Determine Hx Hxy e Ix y admitindo que as duas mensagens transmitidas sejam equiprováveis Figura E1344 Uma cascata de dois canais é mostrada na Fig E1345 Os símbolos na fonte na saída do primeiro canal e na saída do segundo canal são denotados por x y e z respectivamente Mostre que e Isso mostra que a informação que pode ser transmitida por uma cascata de canais não pode ser maior que a transmitida em um canal Na verdade canais de informação tendem a vazar informação Sugestão Para uma cascata de canais observe que Logo pela regra de Bayes Figura E1345 1351 1352 1353 1371 Para uma variável aleatória contínua x restrita a uma amplitude de pico M M x M mostre que a entropia é máxima quando x é uniformemente distribuída no intervalo M M e tem densidade de probabilidade zero fora desse intervalo Mostre que a máxima entropia é dada por log 2M Para uma variável aleatória contínua x restrita a valores positivos 0 x com valor médio A mostre que a entropia é máxima quando Mostre que a correspondente entropia é Uma transmissão de televisão requer 30 quadros cada um com 300000 elementos de imagem sejam transmitidos por segundo Use os dados no Exercício 1312 para estimar a largura de banda teórica do canal AWGN se a SNR no receptor tiver de ser de pelo menos 50 dB Em um sistema de comunicação em um canal seletivo em frequência com função de transferência a PSD do sinal de entrada é O ruído de canal é AWGN com espectro S n f 10 2 Determine a informação mútua entre a entrada e a saída do canal Aqui assumimos que o número n é tal que log 2 n seja um inteiro Mais adiante observaremos que esta restrição não é necessária Aqui mais uma vez assumimos que o número n é tal que log 2 n seja um inteiro Como veremos mais adiante essa restrição não é necessária Em geral A unidade 10ária de informação é denominada hartley em homenagem a R V L Hartley 2 um dos pioneiros juntamente com Nyquist 3 e Carson na área de transmissão de informação na década de 1920 A base matemática rigorosa da teoria da informação no entanto foi estabelecida por C E Shannon 1 em 1948 Algumas vezes é usada a unidade nat Notemos que a esfera de Hamming não é uma verdadeira hiperesfera geométrica pois a distância de Hamming não é uma verdadeira distância geométrica por exemplo as sequências 001 010 e 100 estão em uma esfera de Hamming centrada em 111 com raio 2 Isso pode ser comprovado do fato de que para um canal sem ruído todas as probabilidades na Eq 1317 são 0 ou 1 Se Px i y j 1 então log 1Px i y j 0 e se Px i y j 0 Px i y j Py j Px i y j 0 Isto mostra que Hxy 0 Em toda a discussão a PDF p xx será abreviada por px isso não causa ambiguidade e aumenta a clareza das equações Como N é a potência média de ruído a energia média em um intervalo T é NT em que 0 à medida que T Assim podemos assumir que n esteja na esfera Assumimos ruído de canal gaussiano branco aditivo C 141 142 omo discutido no Capítulo 13 a chave para alcançar comunicação digital sem erro na presença de distorção ruído e interferência é a adição de redundância apropriada aos bits de dados originais Um bom exemplo é adição de um dígito de paridade para a detecção de um número ímpar de erros Desde a publicação do pioneiro trabalho de Shannon 1 muito foi feito na área de códigos corretores de erros à frente FEC Forward Error Correcting codes Neste capítulo apresentaremos uma introdução a esse tema uma cobertura muito mais detalhada pode ser encontrada no clássico livro de Lin e Costello 2 VISÃO GERAL Em geral há duas importantes classes de códigos FEC códigos de blocos e códigos convolucionais Nos códigos de blocos cada bloco de k dígitos de dados é codificado em uma palavra de código mais longa de n dígitos n k Cada sequência individual de k dígitos de dados determina completamente uma única palavra de código de n dígitos Nos códigos convolucionais a sequência codificada de n dígitos depende não apenas dos k dígitos de dados mas também dos anteriores N 1 N 1 dígitos de dados Assim a sequência codificada para certos k dígitos de dados não é única mas depende dos anteriores N 1 dígitos de dados Em resumo o codificador tem memória Nos códigos de blocos k dígitos são acumulados e então codificados em uma palavra de código de n dígitos Nos códigos convolucionais a codificação é feita em uma base contínua e não em blocos de k dígitos de dados O trabalho pioneiro de Shannon 1 sobre a capacidade de canais ruidosos produziu um famoso resultado conhecido como teorema da codificação de canal ruidoso Esse resultado afirma que para um canal ruidoso de capacidade C existem códigos de taxa R C tais que a decodificação de máxima verossimilhança pode levar à probabilidade de erro em que E bR é a energia por bit de informação definida como uma função da taxa de código R Esse resultado notável mostra que uma probabilidade de erro arbitrariamente pequena pode ser alcançada com o aumento do comprimento n do código de blocos mantendo constante a taxa de código Um resultado similar para códigos convolucionais também foi mostrado na Ref 1 Reparemos que esse resultado estabelece a existência de bons códigos mas não nos diz como determinálos Na verdade não é apenas uma questão de projetar bons códigos Esse resultado requer para a redução da probabilidade de erro que n seja grande e para as longas palavras de código de comprimento n que decodificadores tenham grande capacidade de armazenagem e alta complexidade Portanto o principal problema no projeto de códigos é a dupla tarefa de buscar códigos corretores de erro com grande comprimento n para reduzir a probabilidade de erro e decodificadores que sejam de simples implementação Os melhores resultados até o momento são a recente descoberta de códigosturbo e a redescoberta de códigos verificadores de paridade de baixa densidade LDPC lowdensity parity check codes a serem discutidos mais adiante Os primeiros são derivados de códigos convolucionais e os últimos são uma forma de códigos de blocos Códigos corretores de erros requerem uma forte base matemática Para prover uma introdução suficientemente detalhada de vários tópicos importantes associados a esse assunto organizamos este capítulo segundo a base matemática necessária ao entendimento Iniciamos com o estudo dos códigos de blocos que são mais simples intuitivos e requerem menor quantidade de análise probabilística A seguir introduzimos os conceitos e princípios de códigos convolucionais e de sua decodificação Por fim focamos o conceito mais sofisticado de autodecodificação que estabelece uma fundação para o estudo de progressos recentes em códigosturbo de alto desempenho e códigos verificadores de paridade de baixa densidade REDUNDÂNCIA PARA CORREÇÃO DE ERRO Em códigos FEC uma palavra de código é uma unidade de bits que pode ser decodificada de modo independente O número de bits em uma palavra de código é conhecido como comprimento do código Se k dígitos de dados forem transmitidos por uma palavra de código de n dígitos o número de dígitos de verificação será m n k Nesse caso a taxa de código será R kn Esse tipo de código é conhecido como código n k Dígitos de dados d 1 d 2 d k formam uma kupla ou seja um vetor d de k dimensões Da mesma forma uma palavra de código c 1 c 2 c n é um vetor de n dimensões Inicialmente determinaremos o número mínimo de dígitos de verificação a serem usados para detectar ou corrigir um número t de erros em um código n k Se o comprimento do código binário for n haverá um total de 2 n palavras de código ou vértices de um hipercubo de n dimensões disponíveis para serem atribuídas a 2 k palavras de dados Suponhamos que desejemos determinar um código que seja capaz de corrigir até t dígitos em erro Nesse caso se transmitirmos uma palavra de dados d j por meio de uma das palavras de código ou um dos vértices c j devido aos erros de canal a palavra recebida não será c j mas algum c j Se o ruído de canal causar erro em t ou menos dígitos estará em algum ponto no interior da esfera de Hamming de raio t e centro em c j Se tiver de corrigir até t erros o código deve ter a seguinte propriedade não deve haver sobreposição entre quaisquer esferas de Hamming de raio t centradas nas palavras de código Isso significa que não devemos usar como palavras de códigos os vértices que estiverem a uma distância de Hamming t de qualquer palavra de código Caso uma palavra de código recebida esteja no interior de uma esfera de Hamming de raio t e centro em c j decidimos que a palavra de código transmitida foi c j Esse esquema é capaz de corrigir até t erros e a distância mínima d min entre t palavras corretoras de código que não se sobrepõem é dada por A seguir para determinar uma relação entre n e k observamos que há 2 n vértices ou palavras disponíveis para 2 k palavras de dados Assim há 2 n 2 k vértices redundantes Quantos vértices ou palavras estão no interior de uma esfera da Hamming de raio t O número de sequências de n dígitos que diferem de uma dada sequência por j dígitos corresponde ao número de possíveis combinações de n coisas tomadas j a j o que é dado por Eq 816 Portanto o número de maneiras em que até t erros podem ocorrer é Assim para cada palavra de código devemos deixar vértices ou palavras sem uso Como temos 2 k palavras de código devemos deixar um total de palavras sem uso Portanto o número total de palavras deve ser de pelo menos Todavia o número total de palavras ou vértices disponíveis é 2 n Assim devemos ter ou Observemos que n k m é o número de dígitos de verificação Logo a Eq 143a pode ser expressa como 143 Portanto códigos de Hamming são códigos n k com n 2 m 1 k 2 m 1 m e distância mínima d min m Em geral escrevemos um código de Hamming como um código 2 m 1 2 m 1 m m Um dos mais conhecidos códigos de Hamming é o código 7 4 3 Outra forma de corrigir erros consiste em projetar um código para detectar e não corrigir até t erros Quando o detector detecta um erro pode solicitar retransmissão Esse mecanismo é conhecido como solicitação automática de repetição ou ARQ automatic repeat request Como a detecção de erro requer um menor número de dígitos de verificação esses códigos operam a taxas eficiências mais elevadas Para detectar t erros as palavras de códigos devem estar separadas por uma distância de Hamming de pelo menos t 1 Caso contrário uma sequência de bits recebida erroneamente com até t bits em erro poderia ser outra palavra de código transmitida Suponhamos que uma palavra de código transmitida c j contenha α erros de bits α t Assim a palavra de código recebida está a uma distância α de c j Todavia como α t jamais pode ser outra palavra de código válida pois todas as palavras de código estão separadas por pelo menos t 1 Logo a recepção de imediatamente indica que um erro foi cometido Portanto a mínima distância d min entre t palavras de código detectoras de erro é Na apresentação da teoria de codificação usaremos adição em módulo 2 definida por Em lógica digital isso também é conhecido como operação OR exclusivo XOR Reparemos que a soma em módulo 2 de qualquer dígito binário com ele próprio é sempre zero No desenvolvimento de códigos binários a ser feito de aqui em diante todas as adições apresentadas serão em módulo 2 CÓDIGOS DE BLOCOS LINEARES Uma palavra de código consiste em n dígitos c 1 c 2 c n enquanto uma palavra de dados consiste em k dígitos d 1 d 2 d k Como as palavras de código e de dados são respectivamente uma nupla e uma kupla são vetores de n e k dimensões Usaremos vetoreslinha para representar essas palavras Para o caso geral de códigos de blocos lineares todos os n dígitos de c são formados por combinações lineares adições em módulo 2 de k dígitos de dados Um caso especial em que c 1 d 1 c 2 d 2 c k d k e os dígitos remanescentes de c k 1 a c n são combinações lineares de d 1 d 2 d k é conhecido como código sistemático Em um código sistemático os primeiros k dígitos de uma palavra de código são os dígitos de dados ou informação e os restantes m n k dígitos são dígitos de verificação de paridade formados por combinações lineares dos dígitos de dados d 1 d 2 d k ou em que A matriz G k n é denominada matriz geradora Para códigos sistemáticos G pode ser dividida em uma matriz identidade I k k k e uma matriz P k m Os elementos de P são 0 ou 1 A palavra de código pode ser expressa como em que os dígitos de verificação também conhecidos como bits checksum ou bits de paridade são Portanto conhecendo os dígitos de dados podemos calcular os dígitos de verificação da Eq 148 e em consequência a palavra de código c p O peso da palavra de código c é o número de 1s na mesma A distância de Hamming entre duas palavras de código c a e c b é o número de elementos pelos quais diferem Exemplo 141 Para um código 6 3 a matriz geradora G é Para todas as oito possíveis palavras de dados determinemos as correspondentes palavras de código e comprovemos que esse código corrige um erro A Tabela 142 lista as oito palavras de dados e as correspondentes palavras de código formadas de C dG Tabela 142 Palavra de Dados d Palavra de Código c 111 111000 110 110110 101 101011 100 100101 011 011101 010 010011 001 001110 000 000000 Reparemos que a distância entre quaisquer duas palavras de código é pelo menos 3 Portanto o código pode corrigir pelo menos um erro O possível codificador para esse código mostrado na Fig 141 usa um registrador de deslocamento shift register de três dígitos e três somadores em módulo 2 Figura 141 Codificador para códigos de blocos lineares Códigos Lineares Um código de blocos é um código de blocos linear se para todo par de palavras de código c a e c b de um código de blocos também for uma palavra de código Por essa razão códigos lineares devem ter uma palavra de código toda de zeros 00000 Para códigos lineares a distância mínima é igual ao peso mínimo Decodificação Consideremos algumas propriedades de palavras de código que possam ser usadas para o propósito de decodificação Da Eq 148 e do fato de que a soma em módulo 2 de qualquer sequência com ela própria é zero obtemos em que I m é a matriz identidade de ordem m m m n k Assim em que e sua transposta é denominada matriz de verificação de paridade Cada palavra de código deve satisfazer a Eq 1410a Essa é nossa chave para a decodificação Consideremos a palavra recebida r Devido a possíveis erros causados pelo ruído de canal em geral r difere da palavra de código transmitida c em que a palavra de erro ou vetor de erro e também é um vetorlinha de n elementos Por exemplo se a palavra de dados 100 no Exemplo 141 for transmitida como a palavra de código 100101 Tabela 142 e o ruído de canal causar um erro de detecção no terceiro dígito e Portanto um elemento 1 em e indica um erro na posição correspondente e 0 indica que não houve erro A distância de Hamming entre r e c é apenas o número de 1s em e Suponhamos que a palavra de código transmitida tenha sido c i e que o ruído de canal cause um erro e i de modo que a palavra recebida seja r c i e i Se não houvesse erro ou seja se e i fosse 000000 teríamos rH T 0 Todavia por causa de possíveis erros de canal rH T é em geral um vetorlinha não nulo s denominado síndrome Ao receber r podemos calcular a síndrome s Eq 1411a e possivelmente podemos calcular e i da Eq 1411b Infelizmente o conhecimento de s não nos permite calcular e i sem ambiguidade pois r também pode ser expressa em termos de outras palavras de códigos diferentes de c i Assim Logo Como há 2 k palavras de código possíveis é satisfeita por 2 k vetores de erro Em outras palavras a síndrome s por si só não é capaz de definir um único vetor de erro Por exemplo se uma palavra de dados d 100 for transmitida por uma palavra de código 100101 no Exemplo 141 e se um erro de detecção for causado no terceiro dígito a palavra recebida será 101101 Nesse caso temos c 100101 e e 001000 Contudo a mesma palavra poderia ser recebida se c 101011 e e 000110 ou se c 010011 e e 111110 e assim por diante Portanto há oito possíveis vetores de erro 2 k vetores de erro que satisfazem a Eq 1411b Qual deles devemos usar Por isso devemos definir nosso critério de decisão Um critério razoável é a regra de máxima verossimilhança segundo a qual se recebermos r decidimos a favor da palavra de código c para qual r tem maior possibilidade de ser recebida Em outras palavras decidimos c i foi transmitida se No caso de um canal simétrico binário BSC essa regra produz uma resposta muito simples Suponhamos que a distância de Hamming entre r e c i seja d isso implica que o canal causa erros em d dígitos Portanto denotando a probabilidade de erro de dígito de um BSC por P e temos Se P e 05 for satisfeita por um canal razoável Prc i será uma função monotonamente decrescente de d pois P e 1 P e 1 Assim para maximizar Prc i devemos escolher a palavra c i mais próxima de r ou seja devemos escolher o vetor de erro e com o menor número de 1s Um vetor e com o menor número de 1s é denominado vetor de peso mínimo Esse vetor de peso mínimo e min será usado para corrigir o erro em r por meio de Exemplo 142 Um código 6 3 linear é gerado segundo a matriz geradora no Exemplo 141 O receptor recebe r 100011 Admitindo que o canal seja BSC e que a regra de detecção de máxima verossimilhança seja usada determinemos a correspondente palavra de dados Temos Devido à operação em módulo 2 subtração é o mesmo que adição de modo que a correspondente palavra de código transmitida c é dada por em que e satisfaz Vemos que e 001000 satisfaz essa equação No entanto a equação é igualmente satisfeita por e 000110 ou 010101 ou 011011 ou 111110 ou 101101 ou 100011 A escolha adequada o vetor de peso mínimo e min é 001000 Logo Tabela 143 Tabela de Decodificação para o Código na Tabela 142 e s 000000 000 100000 101 010000 011 001000 110 000100 100 000010 010 000001 001 100010 111 O procedimento de decodificação que acabamos de descrever é muito desorganizado Para tornálo sistemático deveríamos considerar todas as síndromes possíveis e a cada uma associarmos um vetor de erro de peso mínimo Por exemplo o código corretor de um erro no Exemplo 141 tem uma síndrome com três dígitos Portanto há oito síndromes possíveis Preparemos uma tabela de vetores de erro de peso mínimo correspondentes a cada síndrome Tabela 143 Para preparar essa tabela consideramos todos os possíveis vetores de erro de peso mínimo e usamos a Eq 1411b para calcular s para cada um O primeiro vetor de erro de peso mínimo 000000 é um caso trivial cuja síndrome é 000 A seguir consideramos todos os possíveis vetores de erro de peso unitário Há seis desses vetores 100000 010000 001000 000100 0000010 e 000001 A síndrome associada a cada um deles pode ser calculada da Eq 1411b e é listada na tabela Tabela 143 Com isso falta ainda uma síndrome 111 que não está associada a um vetor de erro Como todos os vetores de erro de peso unitário foram considerados devemos buscar vetores de erro com peso 2 Concluímos que para as primeiras sete síndromes Tabela 143 há um único vetor de peso mínimo e Contudo para s 111 o vetor de erro e tem um peso mínimo 2 e não é único Por exemplo cada um dos vetores e 100010 ou 010100 ou 001001 tem s 111 e os três vetores e são de peso mínimo peso 2 Nesse caso escolhemos um e qualquer como sendo o padrão de erro correto Isso significa que o presente código pode corrigir todos os padrões de um erro e um padrão de dois erros 100010 Por exemplo se c 101011 for transmitido se o ruído de canal causar o erro duplo 100010 o vetor recebido for r 001001 então Da Tabela 143 vemos que o vetor correspondente a s 111 é e 100010 e imediatamente decidimos c r e 101011 Reparemos contudo que esse código não corrigirá outros padrões de erro duplo além de 100010 Portanto esse código corrige não apenas todos os erros simples mas também um padrão de erro duplo Esse bônus adicional de correção de um erro duplo ocorre porque n e k sobressatisfazem o limite de Hamming Eq 143b Caso n e k satisfizessem o limite exatamente teríamos apenas a capacidade de correção de erro simples Esse é o caso do código 7 4 capaz de corrigir somente todos os padrões de erro simples Portanto para decodificação sistemática preparamos uma tabela de todos os padrões de erros corrigíveis e as correspondentes síndromes Para decodificação precisamos apenas calcular s rH T e da tabela de decodificação determinar o correspondente vetor e A decisão é c r e Como s tem m n k dígitos existe um total de 2 nk síndromes cada uma consistindo em n k dígitos Existe o mesmo número de vetores de erro corrigíveis cada um com n dígitos Logo para fins de decodificação precisamos armazenar 2n k2 nk 2n k2 m bits Essa necessidade de armazenagem cresce exponencialmente com m de modo que o número de dígitos de verificação de paridade pode se tornar enorme mesmo para códigos de complexidade moderada Construção de Códigos de Hamming Ainda não está claro como projetar ou escolher os coeficientes da matriz geradora ou verificadora de paridade Infelizmente não existe uma forma sistemática para o projeto de códigos exceto para poucos casos especiais como os códigos cíclicos e a classe de códigos corretores de erro simples conhecida como códigos de Hamming Consideremos um código corretor de erro simples 7 4 Esse código satisfaz o limite de Hamming exatamente e comprovaremos que um código adequado pode ser construído Nesse caso m 3 e há sete síndromes não nulas como n 7 há exatamente sete padrões de erro simples Portanto podemos corrigir todos os padrões de erro simples e nada além disso Consideremos o padrão de erro simples e 1000000 Como eH T será simplesmente a primeira linha de H T Do mesmo modo para e 0100000 s eH T será a segunda linha de H T e assim por diante Para decodificação sem ambiguidade é necessário que todas as sete síndromes correspondentes aos sete padrões de erro simples sejam distintas Reciprocamente se todas as sete síndromes forem distintas poderemos decodificar todos os padrões de erro simples Isso significa que a única exigência sobre H T é que todas suas sete linhas sejam distintas e não nulas Reparemos que H T é uma matriz n n k no caso em questão 7 3 Como existem sete padrões não nulos de três dígitos é possível encontrarmos sete linhas não nulas de três dígitos cada uma Há diversas maneiras para ordenar essas linhas Vale enfatizar que as três linhas inferiores devem formar a matriz identidade I m Eq 1410b Uma possível forma para H T é A correspondente matriz geradora G é Logo d 1011 a correspondente palavra de código é c 1011001 e assim por diante Um código linear genérico n k tem vetores de síndrome de m dimensões m n k Portanto há 2 m 1 distintos vetores de síndrome não nulos que podem corrigir 2 m 1 padrões de erro simples Como em um código n k há exatamente n padrões de erro simples todos os erros simples podem ser corrigidos se Essa é precisamente a condição na Eq 144 para t 1 Assim para qualquer n k que satisfaça essa condição o procedimento que acabamos de discutir permite a construção de um código corretor de erros simples Em resumo um código de Hamming 2 m 144 1 2 m 1 m m tem os seguintes atributos Número de bits de paridade m 3 Comprimento de código n 2 m 1 Número de bits de mensagem k 2 m m 1 Distância mínima d min 3 Capacidade de correção de erro t 1 Para mais detalhes sobre códigos de blocos o leitor pode consultar os livros de Peterson e Weldon 3 e de Lin e Costello 2 CÓDIGOS CÍCLICOS Códigos cíclicos são uma subclasse de códigos de blocos lineares Como vimos no caso de códigos corretores de erros simples um procedimento para a seleção da matriz geradora é relativamente simples No entanto esse procedimento não nos leva muito longe quando se trata da construção de códigos corretores de erros de ordens mais altas Códigos cíclicos satisfazem uma interessante estrutura matemática que permite o projeto de códigos corretores de erros de ordens mais altas Além disso no caso de códigos cíclicos os cálculos da codificação e de síndromes podem ser implementados com facilidade com o uso de registradores de deslocamento Em códigos cíclicos as palavras de código são simples deslocamentos laterais uma das outras Por exemplo se c c 1 c 2 c n 1 c n for uma palavra de código c 2 c 2 c n c 1 e c 3 c 4 c n c 2 c 2 também serão palavras de códigos Usaremos a seguinte notação se for um vetor de código de um código C c i denota c deslocado ciclicamente de i posições para a esquerda ou seja Códigos cíclicos podem ser descritos em uma forma polinomial Essa propriedade é de extrema utilidade na análise e implementação desses códigos O vetor de código c na Eq 1412a pode ser expresso como o polinômio de grau n 1 Os coeficientes do polinômio são 0 ou 1 e obedecem as seguintes propriedades O polinômio de código c i x para o vetor de código c i na Eq 1412b é Uma das interessantes propriedades de polinômios de código é o fato de c i x ser o resto da divisão de x icx por x n 1 Podemos comprovar esta propriedade da seguinte forma Fica claro que o resto é c 1 x Na dedução desse resultado usamos o fato de que quando se trata de operações em módulo 2 subtração é o mesmo que adição Prosseguindo dessa forma podemos mostrar que o resto da divisão de x icx por x n 1 é c i x A seguir introduzimos o conceito de polinômio gerador de código gx Como cada palavra de código n k pode ser representada por um polinômio de código gx será um polinômio gerador de código de grau n k se para um polinômio de dados dx de grau k 1 pudermos gerar um polinômio de código como Reparemos que há 2 k polinômios de código ou palavras de código distintos No caso de códigos cíclicos o deslocamento cíclico de uma palavra de código ainda é uma palavra de código A seguir provaremos um importante teorema relativo a códigos cíclicos Teorema de Código de Blocos Linear Cíclico Se gx for um polinômio de grau n k e for um fator de x n 1 em módulo 2 então gx é um polinômio gerador que gera um código de blocos linear cíclico n k Prova Para um vetor de dados d 1 d 2 d k o polinômio de dados é Consideremos k polinômios com graus n k n k 1 n 1 respectivamente Então uma combinação linear desses polinômios é igual a Independentemente dos valores dos dados d i dxgx terá grau n 1 ou menor e será um múltiplo de gx Portanto uma palavra de código é formada com o uso da Eq 1416 Há um total de 2 k polinômios palavras de código distintos do polinômio de dados dx correspondentes a 2 k vetores de dados Logo temo um código linear n k gerado pela Eq 1414 Para provar que esse código é cíclico seja um polinômio de código nesse código Eq 1416 Então Como xcx é xdxgx e gx é um fator de x n 1 c 1 x também deve ser um múltiplo de gx e para algum vetor de dados d pode ser expresso como dxgx Portanto c 1 x também é um polinômio de código Prosseguindo dessa forma vemos que c 2 x c 3 x são polinômios de código gerados pela Eq 1416 Assim o código linear n k gerado por dxgx é de fato cíclico Exemplo 143 Determinemos um polinômio gerador gx para um código cíclico 7 4 e determinemos vetores de código para os seguintes vetores de dados 1010 1111 0001 e 1000 Neste caso n 7 e n k 3 logo Para um código 7 4 o polinômio gerador deve ser de grau n k 3 Nesse caso há duas escolhas possíveis para gx x 3 x 1 ou x 3 x 2 1 Escolhamos o último como possível polinômio gerador Para d 1 0 1 0 e o polinômio de código é Logo Tabela 144 d c 1010 1110010 1111 1001001 0001 0001101 1000 1101000 Do mesmo modo palavras de código para outras palavras de dados podem ser determinadas Tabela 144 Reparemos a estrutura das palavras de código Os primeiros k dígitos não são necessariamente os bits de dados Portanto este não é um código sistemático Em um código sistemático os k primeiros dígitos são bits de dados enquanto os últimos m n k dígitos são bits de verificação de paridade Códigos sistemáticos são um caso especial de códigos genéricos Até aqui nossa discussão se aplica a códigos cíclicos genéricos dos quais códigos cíclicos sistemáticos são um caso especial A seguir desenvolveremos um método para a geração de códigos cíclicos sistemáticos Códigos Cíclicos Sistemáticos Agora mostraremos que para um código sistemático o polinômio de palavra de código cx correspondente ao polinômio dx é dado por em que ρx é o resto da divisão de x n k dx por gx Para provar isso observemos que em que qx tem grau k 1 ou menor Adicionamos ρxgx aos dois lados da Eq 1418a e como fx fx 0 na adição em módulo 2 obtemos ou Como qx tem grau k 1 ou menor qxgx é um polinômio de código Como x n k dx representa dx deslocado para a esquerda por n k dígitos os primeiros k dígitos dessa palavra de código são precisamente d e os últimos n k dígitos correspondentes a ρx devem ser dígitos de verificação de paridade Isso ficará claro ao considerarmos um exemplo específico Exemplo 144 Construamos um código cíclico 7 4 sistemático usando um polinômio gerador Exemplo 143 Usemos Considerando um vetor de dados d 1010 e Logo Portanto da Eq 1417a e Tabela 145 d c 1111 1111111 1110 1110010 1101 1101000 1100 1100101 1011 1011100 1010 1010001 1001 1001011 1000 1000110 0111 0111001 0110 0110100 0101 0101110 0100 0100011 0011 0011010 0010 0010111 0001 0001101 0000 0000000 Também poderíamos ter determinado a palavra de código c diretamente da Eq 1418c Assim cx qxgx x 3 x 2 1 x 3 x 2 1 x 6 x 4 1 Dessa forma construímos então toda a tabela de código Tabela 145 Esse procedimento é muito tedioso Há no entanto um atalho por meio da matriz geradora de código G Podemos usar o procedimento anterior para calcular as palavras de código correspondentes às palavras de dados 1000 0100 0010 0001 Essas palavras de código são 1000110 0100011 0010111 0001101 Agora observamos que essas quatro palavras de código são as quatro linhas de G Isso ocorre porque c d G e quando d 1000 d G é a primeira linha de G e assim por diante Logo Agora podemos usar c dG para construir o restante da tabela de código Esse é um método eficiente pois nos permite a construção de toda a tabela de código a partir do conhecimento de apenas k palavras de código A Tabela 145 lista o código completo Reparemos que d min a distância mínima entre duas palavras de código é 3 Portanto esse é um código corretor de erros simples e 14 dessas palavras de código podem ser obtidas por sucessivos deslocamentos cíclicos das duas palavras de código 1110010 e 1101000 As restantes duas palavras de código 1111111 e 0000000 permanecem inalteradas sob deslocamento cíclico Polinômio Gerador e Matriz Geradora de Códigos Cíclicos Códigos cíclicos também podem ser descritos por uma matriz geradora G Exercícios 1436 e 1437 Pode ser mostrado que códigos de Hamming são códigos cíclicos Uma vez que o polinômio gerador gx seja dado é uma tarefa simples determinar a matriz geradora de código sistemático G I P por meio da determinação da submatriz de paridade P Consideremos um código de Hamming 7 4 3 com polinômio gerador Portanto a matriz geradora de código cíclico é Com isso uma forma da matriz verificadora de paridade é Geração de Código Cíclico Uma das vantagens de códigos cíclicos é o fato de suas codificação e decodificação poderem ser implementadas por meio de elementos simples como registradores de deslocamento e somadores em módulo 2 Um código gerado de forma sistemática é descrito nas Eqs 1417 A necessária divisão de x nk dx por gx pode ser implementada por um circuito divisor que consiste em um registrador de deslocamento com conexões de realimentação segundo o polinômio gerador gx x nk g 1x nk1 g nk1x 1 Os ganhos g k são 0 ou 1 Um circuito codificador com n k registradores de deslocamento é mostrado na Fig 142 O entendimento desse circuito divisor requer alguma base em redes sequenciais lineares Uma explicação do funcionamento desse circuito pode ser encontrada em Peterson e Weldon 3 Os k dígitos de dados são deslocados um de cada vez na entrada com o comutador s na posição p 1 O símbolo D representa um atraso de um dígito À medida que os dígitos de dados se movem pelo codificador também são deslocados para a linha de saída pois os primeiros k dígitos da palavra de código são os próprios dígitos de dados Assim que o último késimo dígito de dados passar pelo último n késimo registrador todos os registradores conterão os dígitos de verificação de paridade O comutador s passa à posição p 2 e os n k dígitos de verificação de paridade são deslocados um de cada vez para a linha Decodificação Cada polinômio de código válido cx é um múltiplo de gx Em outras palavras cx é divisível por gx Quando ocorrer um erro durante a transmissão o polinômio de palavra recebido rx não será um múltiplo de gx se o número de erros em r for corrigível Assim Figura 142 Codificador para código cíclico sistemático e em que o polinômio de síndrome sx tem grau n k 1 ou menor Se ex for o polinômio de erro então Recordando que cx é um múltiplo de gx Novamente uma palavra recebida r poderia resultar em qualquer uma das 2 k palavras de código e um erro adequado Por exemplo para o código na Tabela 145 se r 0110010 isso poderia significar c 1110010 e e 1000000 ou c 1101000 e e 1011010 ou 14 outras combinações Como vimos o padrão de erro mais provável é aquele com mínimo peso ou mínimo número de 1s Assim aqui c 1110010 e e 1000000 é a decisão correta É conveniente que preparemos uma tabela de decodificação ou seja listemos as síndromes para todos os erros corrigíveis Para qualquer r calculamos a síndrome da Eq 1424 e da tabela determinamos o correspondente erro corrigível e A seguir calculamos c r e Reparemos que o cálculo de sx Eq 1424 envolve exatamente a mesma operação necessária ao cálculo de ρx durante a codificação Eq 1418a Portanto o circuito na Fig 142 também pode ser suado para calcular sx Exemplo 145 Construamos a tabela de decodificação para o código 7 4 corretor de erros simples na Tabela 145 Determinemos os vetores de dados transmitidos para os seguintes vetores recebidos r a 1101101 b 0101000 c 0001100 Tabela 146 e s 1000000 110 0100000 011 0010000 111 0001000 101 0000100 100 0000010 010 0000001 001 O primeiro passo consiste em construir a tabela de decodificação Como n k 1 2 o polinômio de síndrome é de segundo grau e há sete síndromes não nulas Também há sete possíveis padrões de erro simples corrigíveis pois n 7 Podemos usar para calcular a síndrome para cada um dos sete padrões de erro corrigíveis Reparemos que Exemplo 144 Podemos agora calcular as síndromes com base em H Por exemplo para e 1000000 Do mesmo modo calculamos as síndromes para os restantes padrões de erro Tabela 146 Quando a palavra recebida r for 1101101 podemos calcular sx pela Eq 1424 ou simplesmente pelo produto matricial Logo da Tabela 146 obtemos e 0001000 e Como esse código é sistemático Da mesma forma para r 0101000 determinamos s 110 e e 1000000 logo c r e 1101000 e d 1101 Para r 0001100 obtemos s 001 e e 0000001 logo c r e 0001101 e d 0001 Códigos de BoseChaudhuriHocquenghen BCH e Códigos de ReedSolomon Códigos BCH são talvez a classe mais estudada de códigos cíclicos corretores de erros aleatórios Além disso o procedimento para decodificação desses códigos pode ser implementado com simplicidade O código de Hamming é um caso especial dos códigos BCH Esses códigos são descritos da seguinte forma para quaisquer inteiros positivos m e t t 2 m1 existe um código n k corretor de t erros com n 2 m 1 e n k mt A distância mínima d min entre palavras de código é limitada pela desigualdade 2t 1 d min 2t 2 Como um caso especial de códigos BCH não binários códigos de ReedSolomon são sem dúvida os mais bem sucedidos códigos corretores de erro à frente FEC em uso atualmente Códigos de ReedSolomon encontram aplicações variadas como na armazenagem digital DVD CDROM modems de alta velocidade sistemas sem fio de banda larga e HDTV entre outras A análise detalhada de códigos BCH e de ReedSolomon requer o intenso uso de álgebra moderna e está além do escopo desse capítulo introdutório Para uma discussão detalhada de códigos BCH e de ReedSolomon o leitor é direcionado ao texto clássico de Lin e Costello 2 Códigos Verificadores de Redundância Cíclica CRC para Detecção de Erros Um dos códigos cíclicos mais largamente empregados é o código verificador de redundância cíclica CRC Cyclic Redundancy Check codes para detecção de erros de transmissão de dados Códigos CRC são cíclicos e projetados para detectar pacotes de dados em erro no receptor em geral após correção de erro Para verificar a integridade do bloco de dados de carga pacote cada pacote de dados é codificado por códigos CRC de comprimento n 2 m 1 Os códigos CRC mais comuns têm m 12 16 ou 32 com polinômio gerador da forma Para selecionar uma matriz geradora de código o critério de projeto consiste em controlar a probabilidade de eventos de erro não detectados Em outras palavras códigos CRC devem ser capazes de detectar os padrões de erro mais prováveis de modo que a probabilidade de erros não detectados satisfaça em que é especificado pelo usuário segundo suas exigências de qualidade Os códigos CRC mais comuns são listados na Tabela 147 juntamente com as correspondentes matrizes geradoras Para cada quadro de bits de dados no transmissor o codificador CRC gera para detecção de erros uma sequência verificadora de quadros FCS FrameChecking Sequence com 8 12 16 ou 32 bits de comprimento Por exemplo pacotes IEEE 80211 e IEEE 80211b são verificados pela sequência de 16 bits de CRC CCITT enquanto pacotes IEEE 80211a são verificados pela sequência CRC32 145 Tabela 147 Códigos CRC de Uso Comum e os Correspondentes Polinômios Geradores Código Número de bits na FCS Polinômio Gerador gx CRC8 8 x 8 x 7 x 6 x 4 x 2 1 CRC12 12 x 12 x 11 x 3 x 2 x 1 CRC16 16 x 16 x 15 x 2 1 CRCCCITT 16 x 16 x 12 x 5 1 CRC32 32 x 32 x 26 x 23 x 22 x 16 x 12 x 11 x 10 x 8 x 7 x 5 x 4 x 2 x 1 EFEITOS DA CORREÇÃO DE ERRO Comparação entre Sistemas Codificados e Não Codificados É interessante compararmos as probabilidades de erro de bit ou taxa de erro de bits quando sistemas codificados e não codificados estão sujeitos a restrições semelhantes quanto à potência e à taxa de informação Consideremos um código n k corretor de t erros Nesse caso k dígitos de informação são codificados em n dígitos Para uma comparação adequada admitamos que os k dígitos de informação sejam transmitidos nos dois sistemas no mesmo intervalo de tempo e que a potência transmitida S i seja a mesma para os dois sistemas A taxa de bits R b do sistema não codificado é um fator kn menor que a do sistema codificado pois o sistema não codificado requer a transmissão de apenas k dígitos em contraste com o sistema codificado que deve transmitir n dígitos Isso significa que a razão entre as larguras de banda dos sistemas não codificado e codificado é kn Fica claro que o sistema codificado sacrifica largura de banda a favor de maior confiabilidade O sistema codificado envia n bits de código para k bits de informação Para sermos justos a energia total usada pelos n bits de código deve ser igual à energia total usada pelo sistema não codificado para os k bits de informação Assim no sistema codificado cada bit de código tem energia E b kn vezes menor que a de bit no sistema não codificado Desejamos esclarecer como a correção de erro pode reduzir a taxa de erro de bits BER originalmente mais alta apesar desta perda de energia do bit de código Sejam P bu e P bc as probabilidades brutas de erro de bit nos casos não codificado e codificado respectivamente No caso não codificado a probabilidade bruta de erro de bit é a taxa final de erro de bits P eu Para um código n k corretor de t erros a BER bruta pode ser reduzida pois o decodificador é capaz de corrigir até t bits errados a cada n bits Consideremos o caso ideal em que o decodificador não tentará corrigir a palavra de código quando houver mais que t erros em n bits Essa ação do decodificador ideal com correção de erro pode reduzir a BER média Seja Pj n a probabilidade de j erros em n dígitos Assim o número médio de erros de bit em cada palavra de código após correção de erros é Portanto a BER média após correção de erros deve ser Como há maneiras em que j erros podem ocorrer em n dígitos Exemplo 86 temos Com base na Eq 1427a Para P bc 1 o primeiro termo no somatório na Eq 1428b domina todos os outros de modo que podemos desprezálos Com isso Para prosseguirmos com a comparação é necessário que especifiquemos algum esquema de transmissão Consideremos um esquema PSK coerente Nesse caso para ruído de canal gaussiano branco aditivo AWGN Como E b para o caso codificado é kn vezes a energia no caso não codificado temos Logo Para comparar sistemas codificado e não codificado poderíamos desenhar gráficos de P eu e de P ec em função da taxa bruta E b para o sistema não codificado Como as Eqs 1431 envolvem parâmetros t n e k uma comparação adequada requer uma família de gráficos Para o caso de um código 7 4 corretor de erro simples t 1 n 7 e k 4 a Fig 143 mostra gráficos de P ec e P eu nas Eqs 1431 em função de E b Observemos que para altos valores de E b o esquema codificado é superior ao esquema não codificado mas a melhora de cerca de 1 dB não é muito significativa No entanto para maiores valores de n e k o esquema codificado pode ser tornar significativamente superior ao não codificado No caso de canais práticos afetados por desvanecimento e ruído impulsional códigos mais poderosos podem produzir ganhos substanciais como mostra nosso próximo exemplo Figura 143 Comparação de desempenho de sistemas codificado linha tracejada e não codificado linha cheia Vale ressaltar que na Fig 143 o desempenho do sistema codificado é na verdade uma aproximação ligeiramente otimista A razão é que na análise da taxa de erro de bits admitimos que o decodificador não tomará qualquer ação quando o número de erros em cada palavra de código for maior que t Na prática o decodificador jamais sabe quantos erros existem em uma palavra de código Assim o decodificador sempre tentará corrigir a palavra de código supondo que não existam mais que t erros de bit Isso significa que quando há mais que t erros de bit o processo de decodificação pode até aumentar o número de erros Esse efeito contraprodutivo da decodificação é mais provável para alta P e em baixa E b Esse efeito será explorado mais adiante na Seção 1413 um exercício com o MATLAB Exemplo 146 Comparemos o desempenho de um BSC com AWGN que usa um código 15 11 corretor de erro simples com o de um sistema similar que usa transmissão não codificada dado que o sistema não codificado tem E b 90946 e PSK coerente é usada na transmissão dos dados nos dois casos Da Eq 1431b e da Eq 1431a Reparemos que no sistema codificado a probabilidade de erro de palavra é reduzida por um fator de 50 Se com o sistema não codificado desejarmos alcançar a mesma probabilidade de erro da transmissão codificada 203 10 7 devemos aumentar a potência transmitida Seja o novo valor de E b para alcançar P eu 203 10 7 O que requer 135022 Em comparação com o valor original de 90946 isso significa o aumento por um fator 14846 ou 1716 dB Códigos para Detecção e Correção de Erros em Rajada Até aqui consideramos a detecção ou correção de erros que ocorrem em posições de dígitos de modo independente ou aleatório Em alguns canais perturbações podem eliminar todo um bloco de dígitos Por exemplo uma queda de raio ou uma perturbação elétrica produzida pelo homem pode afetar vários dígitos transmitidos adjacentes Em sistemas de armazenamento magnético defeitos em materiais magnéticos podem afetar um bloco de dígitos Erros em rajada são aqueles que apagam alguns ou todos os dígitos de um conjunto sequencial Em geral códigos corretores de erros aleatórios não são eficientes para a correção de erros em rajada Portanto códigos corretores de erros em rajada especiais são usados para esse propósito Uma rajada de comprimento b é definida como uma sequência de dígitos em que o primeiro e o bésimo dígitos estão seguramente em erro e os b 2 dígitos intermediários podem ser corretos ou estar em erro Por exemplo um vetor de erro e 0010010100 tem uma rajada de comprimento 6 Figura 144 Detecção de erros em rajada Pode ser mostrado que para a detecção de todos os erros em rajada de comprimento b ou menor com um código de blocos linear de comprimento n b bits de verificação de paridade são necessários e suficientes 3 Para provar a suficiência desse teorema construamos um código de comprimento n com b dígitos de verificação de paridade que detecte uma rajada de comprimento b Para construir um código como esse agrupemos k dígitos de dados em segmentos de b dígitos de comprimento Fig 144 A isso adicionamos um último segmento de b dígitos de verificação de paridade determinados como mostrado a seguir A soma em módulo 2 dos iésimos dígitos de cada segmento incluindo o segmento de verificação de paridade deve ser zero Por exemplo os primeiros dígitos nos cinco segmentos de dados são 1 0 1 1 e 1 Portanto para que a soma em módulo 2 seja zero devemos adicionar um 0 como o primeiro dígito de verificação de paridade Prosseguimos dessa forma com o segundo dígito com o terceiro dígito e assim por diante até o bésimo dígito Como os dígitos de verificação de paridade são uma combinação linear de dígitos de dados esse é um código de blocos linear Além disso é um código sistemático É uma tarefa simples comprovar que se uma sequência de comprimento b ou menor estiver em erro a paridade será violada e o erro será detectado mas não será corrigido e o receptor pode solicitar retransmissão dos dígitos perdidos Uma das interessantes propriedades desse código é que b o número de dígitos de verificação de paridade independe de k ou de n o que o torna um código muito útil para sistemas como comutação por pacotes em que os dígitos de dados podem variar de pacote a pacote Pode ser mostrado que um código linear com b dígitos de verificação de paridade detecta não apenas todas as rajadas de comprimento b ou menor mas também uma alta porcentagem de rajadas mais longas 3 Caso nosso interesse seja a correção e não a detecção de erros em rajada precisaremos do dobro do número de dígitos de verificação de paridade Segundo o raciocínio baseado na esfera de Hamming para corrigir todos os erros em rajada de comprimento b ou menor um código de blocos linear deve ter pelo menos 2b dígitos de verificação de paridade 3 146 1461 CÓDIGOS CONVOLUCIONAIS Códigos convolucionais ou recorrentes introduzidos em 1955 4 diferem de códigos de blocos pelos aspectos comentados a seguir Em um bloco de código o bloco de n dígitos de código gerado pelo codificador em uma dada unidade de tempo depende apenas do bloco de k dígitos de dados de entrada na unidade de tempo em questão Em um código convolucional o bloco de n dígitos de código gerado pelo codificador em uma dada unidade de tempo depende não apenas do bloco de k dígitos de mensagem na unidade de tempo em questão mas também dos dígitos de dados em um intervalo anterior de N 1 N 1 unidades de tempo Em códigos convolucionais k e n são em geral pequenos A codificação é implementada com facilidade por meio de registradores de deslocamento Como uma classe códigos convolucionais são de codificação mais simples Codificador Convolucional Um codificador convolucional com comprimento de restrição N consiste em um registrador de deslocamento de N estágios e ℓ somadores em módulo 2 A Fig 145 mostra um codificador para o caso N 3 e ℓ 2 Os dígitos de mensagem são aplicados à entrada do registrador de deslocamento A sequência de dígitos codificados é obtida na saída do comutador O comutador amostra os ℓ somadores em módulo 2 em sequência uma vez a cada intervalo de bit de entrada Para explicar essa operação consideremos 11010 como dígitos de entrada Inicialmente todo o conteúdo do registrador é de 0s No tempo k 1 o primeiro dígito de dado 1 entra no registrador O conteúdo d k mostra 1 e todos os outros conteúdos d k 1 0 e d k 2 0 permanecem inalterados Os dois somadores em módulo 2 mostram a saída do codificador v k 1 1 e v k 2 1 para esse dado de entrada O comutador amostra essa saída Assim a saída do codificador é 11 Em k 2 o segundo bit de mensagem 1 entra no registrador Esse bit entra no registrador no estágio d k o conteúdo anterior 1 de d k é agora deslocado para d k 1 e d k 2 permanece 0 Com isso os somadores em módulo 2 mostram v k 1 0 e v k 2 1 Logo a saída do codificador é 01 Da mesma forma quando o dígito seguinte 0 entra no registrador temos d k 0 d k 1 1 e d k 2 1 de modo que a saída do decodificador é 01 Observemos que cada dígito de dado influencia N grupos de ℓ dígitos na saída no caso em consideração três grupos de dois dígitos O processo continua até que o último dígito de dado entre no estágio d k No entanto não podemos parar por aqui Adicionamos N 1 0s à sequência de entrada dados fictícios ou aumentados para garantir que o último dígito de dado 0 nesse exemplo siga todo o caminho pelo registrador de deslocamento e influencie N grupos de v dígitos Assim quando os dígitos de entrada forem 11010 aplicamos da esquerda para a direita 1101000 que contém N 1 zeros aumentados à entrada do registrador de deslocamento Podemos ver que quando o último dígito da sequência de mensagem aumentada entrar em d k o último dígito da sequência de mensagem terá passado por todos os N estágios do registrador O leitor pode comprovar que a saída do codificador é dada por 11010100101100 Portanto para cada k dígitos de dados existe um total de n N k 1ℓ dígitos na saída codificada Na prática k N e há então aproximadamente kℓ dígitos de saída codificada para cada k dígitos de dados o que corresponde a uma taxa η 1ℓ Pode ser visto que em contraste com o codificador de blocos o codificador convolucional opera de modo contínuo e cada dígito de dado influencia N grupos de ℓ dígitos na saída Árvore de Código O processo de codificação e decodificação é consideravelmente facilitado pela chamada árvore de código que mostra a saída codificada para qualquer sequência possível de dígitos de dados A árvore de código para o codificador na Fig 145 com k 5 é mostrada na Fig 146 Quando o primeiro dígito for 0 a saída do codificador será 00 quando for 1 a saída será 11 Isso é mostrado pelos dois ramos da árvore que nascem no nó inicial O ramo superior representa 0 e o inferior 1 Essa convenção será obedecida daqui em diante No nó terminal de cada um dos dois ramos seguimos um procedimento similar correspondente ao segundo dígito de dado Assim dois ramos nascem de cada nó o ramo superior para 0 e o inferior para 1 Isso tem prosseguimento até o k ésimo dígito de dado A partir daí todos os dígitos de entrada são 0 dígitos aumentados e teremos apenas um ramo até o fim Portanto há um total de 32 ou 2 k saídas correspondentes aos 2 k possíveis vetores de dados A saída codificada para a entrada 11010 pode ser lida com facilidade dessa árvore percurso em linha tracejada na Fig 146 Figura 145 Codificador convolucional Figura 146 Árvore de código para o codificador na Fig 145 A Fig 146 mostra que a árvore de código se torna repetitiva após o terceiro ramo Podemos chegar a essa conclusão observando que os dois blocos envolvidos por linhas tracejadas são idênticos Isso significa que a saída correspondente ao quarto dígito de entrada é a mesma seja o primeiro dígito 1 ou 0 Esse resultado não é surpresa pois quando o quarto dígito de entrada chega ao registrador de deslocamento o primeiro dígito de entrada é deslocado para fora do registrador e deixa de influenciar os dígitos de saída Em outras palavras o vetor de dados 1x 1x 2x 3x 4 e o vetor de dados 0x 1x 2x 3x 4 geram a mesma saída após o terceiro grupo de dígitos de saída É conveniente marcar os quatro nós de terceiro nível os nós que aparecem no início do terceiro ramo como a b c e d Fig 146 A estrutura repetitiva tem início nos nós de quarto nível e continua nos nós de quinto nível cujo comportamento é semelhante aos dos nós a b c e d no terceiro nível Assim marcamos os nós nos quarto e quinto níveis como a b c ou d Isso significa que nos nós de quinto nível os primeiros dois dígitos de dados se tornaram irrelevantes ou seja qualquer uma das quatro combinações 11 10 01 ou 00 para os primeiros dois dígitos de dados resultará na mesma saída após o quinto nó Representação em Diagrama de Transição de Estados O desempenho do codificador pode ser visto da perspectiva de uma máquina de estado finito com seu diagrama de transição de estados Quando um bit de dado entra no registrador de deslocamento em d k os bits de saída são determinados não apenas pelo bit de dado em d k mas também pelos dois bits de dados anteriores que se encontram em d k2 e d k1 Há quatro possíveis combinações dos dois dígitos anteriores em d k2 e d k1 00 01 10 e 11 Denominemos esses quatro estados a b c e d respectivamente como indicado na Fig 147a Portanto quando os dois dígitos anteriores forem 01 d k2 0 e d k1 1 o estado será b e assim por diante O número de estado é igual a 2 N1 Um bit de dado 0 ou 1 gera quatro saídas distintas dependendo do estado do codificador Se o bit de dado for 0 a saída do decodificador será 00 10 11 ou 01 dependendo se o estado do codificador for a b c ou d Do mesmo modo se o bit de dado for 1 a saída do decodificador será 11 01 00 ou 10 dependendo se o estado do codificador for a b c ou d Esse comportamento pode ser expresso de forma concisa por meio do diagrama de transição de estados Fig 147b um gráfico direcionado de quatro estados que representa a relação entradasaída do codificador sem qualquer ambiguidade Rotulemos cada rota de transição um rótulo constituído pelo bit de entrada sobre os bits de saída com Assim saberemos exatamente o bit de informação de entrada d k para cada transição de estado e seus correspondentes bits da saída do codificador v k 1 v k 2 Figura 147 Diagramas de a estado e b de transição de estados do codificador na Fig 145 1462 Figura 148 Diagrama em treliças para o codificador na Fig 145 Por exemplo quando o codificador estiver no estado a e o bit de entrada for 1 a saída do codificador será 11 A rota de transição é marcada com o rótulo 111 O codificador então passa ao estado b para o próximo bit de dado pois nesse ponto os dois bits anteriores são d k 2 0 e d k 1 1 Dessa maneira quando o codificador estiver no estado a e a entrada for 0 a saída será 00 linha cheia e o codificador permanecerá no estado a Reparemos que o codificador não pode passar diretamente do estado a para o estado c ou d A partir de um dado estado qualquer com a entrada de um bit de dado o codificador pode passar apenas a dois estados diretamente Essa é uma observação extremamente importante e a usaremos mais adiante O codificador passa do estado a ao estado b quando a entrada é 1 ou ao estado a quando a entrada é 0 e assim por diante Todavia o codificador não pode em um único passo ir de a para c deve ir de a para b para c ou de a para b para d e assim por diante Esses fatos também podem ser comprovados da árvore de código A Fig 147c contém a informação completa da árvore de código Diagrama em Treliças Outra forma útil de representar a árvore de código é o diagrama em treliças Fig 148 O diagrama começa da situação inicial 0 em todos os registradores de deslocamento ou seja estado a e faz as transições correspondentes a cada dígito de dado de entrada Esses ramos de transição são rotulados como no diagrama de transição de estados Assim quando o primeiro dígito de entrada for 0 a saída do codificador será 00 e o ramo da treliça recebe o rótulo 000 Isso é visto com clareza na Fig 147b Prosseguimos dessa maneira com o segundo dígito de entrada Após os dois primeiros dígitos de entrada o codificador estará em um dos quatro estados a b c ou d como indicado na Fig 148 Se o codificador estiver no estado a dois dígitos de entrada anteriores foram 00 passará ao estado b se o próximo bit de entrada for 1 e permanecerá no estado a se o próximo bit de entrada for 0 Com isso a saída do codificador será 11 de a para b ou 00 de a para a Reparemos que a estrutura do diagrama em treliças é completamente repetitiva como esperado e pode ser prontamente desenhado com o uso do diagrama de estados na Fig 147b Vale ressaltar que o codificador convolucional pode ter ramos de realimentação Na verdade no codificador convolucional a realimentação gera o chamado código recursivo Como ilustrado na Fig 149 o bit de dado pode ter a uma rota direta ao bit de saída Os bits no ramo superior serão os bits de informação diretamente da entrada Portanto esse código é sistemático Esse codificador leva ao código convolucional sistemático recursivo RSC Recursive Systematic Convolutional code Pode ser mostrado Exercício 1453 que também é possível representar o codificador RSC por meio de um diagrama de transição de estados e por um diagrama em treliças Por conseguinte um código convolucional recursivo pode ser decodificado com uso dos métodos descritos a seguir para códigos convolucionais não recursivos Decodificação de Códigos Convolucionais Consideraremos duas técnicas importantes 1 decodificação de máxima verossimilhança algoritmo de Viterbi e 2 decodificação sequencial Embora as duas sejam conhecidas como decodificação de decisão rígida o algoritmo de Viterbi AV é muito mais flexível e pode ser facilmente adaptado para acomodar entradas suaves e gerar decisões de saída suaves a serem descritas mais adiante neste capítulo Figura 149 Codificador convolucional sistemático recursivo RSC Decodificação de Máxima Verossimilhança Algoritmo de Viterbi Entre os vários métodos de decodificação para códigos convolucionais o algoritmo de máxima verossimilhança de Viterbi 5 é uma das melhores técnicas para comunicações digitais em que a complexidade computacional tem importância dominante A técnica permite grande simplificação de equipamentos e ao mesmo tempo garante todos os benefícios de desempenho da decodificação de máxima verossimilhança A estrutura do decodificador é relativamente simples para curtos comprimentos de restrição N viabilizando a decodificação de taxas de até 10 Gbits Em canais AWGN a máxima verossimilhança requer a seleção da palavra de código mais próxima da palavra recebida Para uma longa sequência de dados recebidos representando k bits de mensagem e 2 k palavras de código a implementação direta da decisão de máxima verossimilhança MLD maximum likelihood decision envolve o armazenamento de 2 k palavras e a comparação das mesmas com a sequência recebida Essa exigência computacional representa uma grande carga para receptores MLD pois no caso de grandes valores de k o número de bits em quadros de dados codificados convolucionalmente é em geral da ordem de centenas de milhares de bits Viterbi obteve uma grande simplificação para a MLD Usemos o exemplo de código convolucional das Figs 145 e 147 para ilustrar a operação básica do algoritmo de Viterbi Primeiro ressaltemos que cada rota no diagrama em treliças representa uma palavra de código válida O objetivo da MLD é a determinação da melhor rota ao longo das treliças que seja mais próxima da sequência de bits recebida Para entender isso consideremos mais uma vez o diagrama em treliças na Fig 148 O problema é o seguinte dada uma sequência de bits recebida precisamos encontrar a rota no diagrama em treliças cuja sequência de dígitos de saída apresente a melhor concordância com a sequência recebida A rota correspondente à mínima distância de Hamming representa a sequência de máxima verossimilhança até o estágio i Como mostrado na Fig 148 cada palavra de código é uma rota em treliça que deve ter início no estado a 00 Como cada rota no estágio i deve crescer a partir de rotas no estágio i 1 a rota ótima para cada estado no estágio i deve conter uma das melhores rotas a cada um dos quatro estados no estágio i 1 Em resumo a rota ótima a cada estado no estágio i descende das predecessoras no estágio i 1 Todas as rotas ótimas no estágio i i 0 descendem da rota ótima no estágio i Portanto em um dado estágio apenas a rota ótima a cada estado deve ser armazenada Não há razão para em cada estágio armazenar uma rota que não seja a ótima a cada estado pois rotas não ótimas apenas aumentariam a métrica de distância de rota para a sequência de dados recebida No exemplo especial da Fig 147 o correspondente diagrama em treliças Fig 148 mostra que cada um dos quatro estados a b c e d tem somente dois predecessores ou seja cada estado pode ser alcançado a partir de apenas dois dos estados anteriores Mais importante ainda dado que no estágio i 1 existem apenas as quatro melhores rotas sobreviventes uma para cada estado no estágio i haverá somente duas rotas possíveis para cada estado Portanto com a comparação das distâncias totais de Hamming das duas rotas em relação à sequência recebida podemos determinar a rota ótima com a mínima distância de Hamming para cada estado no estágio i que corresponde a palavra de código mais próxima da sequência recebida até o estágio i A rota ótima a cada estado é conhecida como rota sobrevivente Exemplo 147 A seguir estudaremos um exemplo de decodificação do algoritmo de Viterbi para a decodificação de máxima verossimilhança do código convolucional gerado pelo codificador da Fig 145 Sejam 01 10 11 00 00 00 os primeiros 12 dígitos recebidos como ilustrado na Fig 1410ae O cálculo da distância de Hamming em cada estágio fica facilitado se mostrarmos os dígitos recebidos juntamente com os bits de saída dos ramos Começamos com o estado inicial a 00 Cada estágio do processo de decodificação consiste em determinar a rota ótima aos quatro estados dados os 2 bits recebidos durante o estágio Há dois estados possíveis que levam a cada estado em qualquer dos estágios A rota sobrevivente com mínima distância de Hamming é mantida linha cheia enquanto outras rotas com distâncias maiores são descartadas linha tracejada No final de um estágio a distância de Hamming da rota sobrevivente a cada um dos quatro estados é rotulada Após dois estágios há exatamente uma rota sobrevivente ótima a cada estado Fig 1410a As distâncias de Hamming das rotas sobreviventes são rotuladas como 2 2 1 e 3 respectivamente Cada estado no estágio 3 tem duas rotas possíveis Fig 1410b Mantemos a rota ótima com a distância mínima linha cheia As distâncias das duas rotas possíveis de cima para baixo que chegam a cada estado recebem o rótulo de minimização Por exemplo para o estado a a primeira rota linha tracejada partindo de a tem distância de Hamming 2 2 4 enquanto a segunda rota linha cheia partindo de c tem distância 1 0 1 Repetimos o segundo passo para os estágios 4 5 e 6 como ilustrado na Fig 1410ce A rota ótima final após o estágio 6 é identificada como a rota em linha cheia sombreada com distância mínima 2 e terminando no estado a como mostrado na Fig 1410e Assim a saída MLD deve ser Figura 1410 Decodificação de Viterbi do exemplo na Fig 145 a estágios 1 e 2 b estágio 3 c estágio 4 d estágio 5 e estágio 6 Reparemos que até o final do estágio 6 há apenas quatro rotas competidoras as quatro sobreviventes nos estados a b c e d Até o estágio 3 todas as quatro rotas se fundem Isso significa que as primeiras três seleções de ramos são as mais confiáveis Na verdade a continuação do algoritmo de Viterbi com dígitos recebidos adicionais não alterará os primeiros três ramos e as correspondentes saídas do decodificador No exemplo anterior ilustramos como avançar de um estágio ao seguinte por meio da determinação da rota ótima sobrevivente que leva a cada um dos estados Quando as rotas sobreviventes se fundem os ramos fundidos representam as saídas MLD mais confiáveis No caso dos últimos estágios que não apresentam uma rota fundida podemos tomar uma decisão de máxima verossimilhança com base nos bits recebidos até o estágio em questão Esse processo conhecido como truncamento é projetado para forçar uma decisão por uma das rotas sobreviventes sem resultar em grande atraso de decodificação Uma forma de tomar uma decisão truncada consiste em selecionar a rota de distância mínima como na Eq 1432 Uma alternativa é tirar proveito de informação adicional de palavra de código Na Fig 1410e se o decodificador sempre forçar que os dois últimos dígitos sejam 00 podemos considerar apenas a rota sobrevivente que termina no estado a Com o algoritmo de Viterbi as complexidades de armazenamento e de computação são proporcionais a 2 N1 e são muito atraentes para comprimentos de restrição N 10 Para alcançar probabilidades de erros muito baixas é necessário o uso de comprimentos de restrição mais longos o que pode tornar a decodificação sequencial discutida a seguir interessante Decodificação Sequencial Na decodificação sequencial uma técnica proposta por Wozencraft a complexidade do decodificador aumenta linearmente e não exponencialmente Para explicar essa técnica consideremos um codificador com N 4 e ℓ 3 Fig 1411 A árvore de código para esse codificador é mostrada na Fig 1412 Cada dígito de dado gera três ℓ 3 dígitos de saída mas afeta quatro grupos de três dígitos 12 dígitos ao todo No esquema de decodificação para tomar uma decisão observamos apenas três ou ℓ dígitos de cada vez com disposição para alterar a decisão caso a mesma crie dificuldades mais adiante Um detector sequencial age como um motorista que ocasionalmente toma uma decisão errada em uma bifurcação na estrada mas logo se dá conta do erro devido aos sinais na beira da estrada retorna e segue pela outra rota Aplicando essa ideia a nosso problema de decodificação o procedimento análogo seria o descrito a seguir Examinamos os primeiros três dígitos Há apenas duas rotas de três dígitos a partir do nó inicial n 1 Escolhemos a rota cuja sequência estiver à menor distância de Hamming dos primeiros três dígitos recebidos Com isso avançamos para o nó mais provável Partindo desse nó há duas rotas de três dígitos Examinamos o segundo grupo de três dígitos recebidos e escolhemos a rota cuja sequência for a mais próxima dos dígitos recebidos Progredimos dessa forma até o quarto nó Se tivermos a infelicidade de cometer um grande número de erros em certo grupo recebido de ℓ dígitos tomaremos uma rota errada e a partir daí teremos crescente dificuldade para casar os dígitos recebidos com os encontrados ao longo das rotas disponíveis do nó em erro Essa é a pista para reconhecer que um erro foi cometido Expliquemos isso com um exemplo Figura 1411 Codificador convolucional Figura 1412 Árvore de código para o codificador na Fig1411 Suponhamos que a sequência de dados 11010 seja codificada pelo codificador na Fig 1411 Como N 4 adicionamos três 0s fictícios a essa sequência de modo que a sequência aumentada é 11010000 A sequência codificada será ver árvore de código na Fig 1412 111 101 001 111 001 011 011 000 Admitamos que a sequência recebida seja 101 011 001 111 001 011 011 000 Há três bits em erro um no primeiro grupo e dois no segundo Começamos com o nó inicial n 1 Como o primeiro grupo recebido 101 um erro é mais próximo de 111 tomamos a decisão correta e passamos ao nó n 2 O segundo grupo dois erros é mais próximo de 010 que de 101 e nos levará ao nó errado e não ao nó n 3 A partir daí estamos no caminho errado e portanto os 1 2 3 147 dígitos recebidos não casarão qualquer rota com início em n 3 O terceiro grupo recebido é 001 que não casa qualquer sequência com início em 011 e 100 mas é mais próximo de 011 Assim passamos ao nó n 4 Aqui o quarto grupo recebido 111 também não casa qualquer grupo com início em 011 e 100 mas é mais próximo de 011 Isso nos leva ao nó Podemos ver que a distância de Hamming entre a sequência de 12 dígitos ao longo da rota e os primeiros 12 dígitos é 4 indicando 4 erros em 12 dígitos caso nossa quarta rota esteja correta Esse grande número de erros deveria nos deixar desconfiados Denotando a probabilidade de erro por P e o esperado número de erros em d dígitos fica dado por P e d Como P e é da ordem de 10 4 a 10 6 não é razoável obter quatro erros em 12 dígitos Portanto retornamos ao e tentamos o ramo inferior o que nos leva a Essa rota é ainda pior que a anterior produz cinco erros em 12 dígitos Assim retornamos um pouco mais até o nó n 2 e tentamos a rota que leva a n 3 e além Observamos que a rota n 1n 2n 3n 4n 5 produz três erros Isso nos permite decodificar o primeiro dígito transmitido como 1 A seguir iniciamos no nó n 2 descartamos os três primeiros dígitos recebidos e repetimos o procedimento para decodificar o segundo dígito transmitido Repetimos isso até que todos os dígitos sejam decodificados A próxima questão importante diz respeito ao critério de decisão no caso da escolha de uma rota errada O gráfico do número esperado de erros n e em função do número de dígitos decodificados d é uma linha reta n e P e d com inclinação P e como mostrado na Fig 1413 O real número de erros ao longo da rota também é representado nessa figura Caso os erros permaneçam dentro de certo limite o nível de descarte a decodificação prossegue Caso em algum ponto os erros ultrapassem o nível de descarte retornamos ao mais próximo nó de decisão e tentamos uma rota alternativa Caso o número de erros ainda ultrapasse o nível de descarte retornamos mais um nó ao longo da rota e tentamos uma rota alternativa O processo continua até que os erros fiquem dentro do limite especificado Se tomarmos um nível de descarte muito restritivo próximo à curva de erro esperado reduzimos o número médio de cálculos Todavia se o nível de descarte for demasiadamente restritivo em alguns casos extremamente raros de um número excessivo de erros devido a ruído o decodificador descartará todas as rotas possíveis Em geral essa dificuldade é resolvida iniciando com um nível de descarte restritivo Se em raras ocasiões o decodificador rejeitar todas as rotas o nível de descarte pode ser relaxado pouco a pouco até que uma das rotas seja aceitável Pode ser mostrado que nesse esquema a probabilidade de erro decresce exponencialmente com N enquanto a complexidade do sistema cresce linearmente com k A taxa de código é η 1ℓ Também pode ser mostrado que para η η o o número médio de ramos incorretos explorados por dígito decodificado é limitado mas deixa de sêlo quando η η o por isso η o recebe a denominação de taxa de corte computacional A decodificação sequencial tem diversas desvantagens O número de ramos de rotas incorretas e consequentemente a complexidade computacional são variáveis aleatórias que dependem do ruído de canal Para aliviar os requisitos de armazenagem a velocidade de decodificação pode ser mantida de 10 a 20 vezes maior que a taxa de dados de entrada Isso limita a capacidade máxima de taxa de dados O número médio de ramos pode ocasionalmente se tornar muito grande e resultar em overflow de armazenagem fazendo com que sequências longas sejam apagadas Uma terceira técnica para a decodificação de códigos convolucionais é a decodificação com realimentação da qual a decodificação por limiar 6 é uma subclasse Decodificadores de limiar são implementados com facilidade Contudo o desempenho dos mesmos não se compara favoravelmente com os dos dois métodos anteriores Figura 1413 Estabelecimento do limiar na decodificação sequencial DIAGRAMA EM TRELIÇAS DE CÓDIGOS DE BLOCOS Assim como diagrama em treliças guarda uma relação simples e direta com código convolucional um diagrama em treliças de síndrome pode ser construído para um código de blocos n k linear binário segundo sua matriz de verificação de paridade 7 H A construção pode ser enunciada da seguinte maneira Seja c 1 c 2 c n uma palavra de código do código de blocos Seja H a matriz de verificação de paridade n k n de colunas Há min 2 k 2 nk estados possíveis no diagrama em treliças O estado de uma palavra de código no instante i é determinado pela palavra de código e pela matriz de verificação de paridade do primeiro ao iésimo bit da palavra de código Reparemos que em geral esse diagrama em treliças de síndrome em contraste com o diagrama em treliças do código convolucional não é repetitivo Na verdade o diagrama sempre tem início no estado zero e termina no estado zero Esse diagrama em treliças é de fato um diagrama em treliças variante no tempo Usemos um exemplo para ilustrar a construção de um diagrama em treliças de síndrome Exemplo 148 Consideremos um código 7 4 3 de Hamming com matriz de verificação de paridade Esbocemos o diagrama em treliças para esse código de blocos Para esse código há 3 bits de síndrome de erro definindo um total de 2 3 8 estados Denotemos os oito estados por S 0 S 1 S 2 S 3 S 4 S 5 S 6 S 7 Há um total de 2 k 2 4 16 palavras de código de 7 bits de códigos no espaço nulo da matriz de verificação de paridade H Se numerarmos as 16 palavras de códigos podemos seguir a Eq 1433 para determinar todas as rotas no diagrama em treliças O correspondente diagrama em treliças variante no tempo é mostrado na Fig 1414 Reparemos que cada rota está associada a uma palavra de código Sempre iniciamos no estado S 0 e terminamos no estado S 0 Aqui em contraste com o caso do código convolucional não é necessário rotular os ramos em treliça Sempre que há uma transição entre estados distintos o ramo automaticamente corresponde a um bit de código 1 Quando o estado permanece inalterado o ramo de transição corresponde a um bit de código 0 Figura 1414 Diagrama em treliças de um código 7 4 3 de Hamming com a matriz de verificação de paridade da Eq 1434 148 Uma vez que tenhamos um diagrama em treliças o algoritmo de Viterbi pode ser implementado para a MLD do código de blocos com complexidade reduzida A detecção de máxima verossimilhança de códigos de blocos pode ter desempenho melhor que o da decodificação baseada em síndrome Devemos ter em mente que o exemplo anterior corresponde a um código curto que não se beneficia da decodificação de Viterbi É claro que o algoritmo de Viterbi faz mais sentido na decodificação de um código longo COMBINAÇÃO E ENTRELAÇAMENTO DE CÓDIGOS Códigos simples e curtos podem ser combinados de várias maneiras para gerar códigos mais longos e poderosos Há sem dúvida numerosas formas possíveis para a combinação de múltiplos códigos Nesta seção apresentamos uma breve descrição dos métodos mais comuns para a construção de códigos pela combinação de códigos Entrelaçamento de Códigos para a Correção de Erros em Rajada e Aleatórios Uma das ferramentas mais simples e efetivas para a combinação de códigos é o entrelaçamento o processo de reordenar ou embaralhar múltiplas palavras de códigos geradas pelo codificador Com isso uma rajada de erros de bits afetará múltiplas palavras de códigos e não apenas uma O propósito do entrelaçamento é a dispersão de uma grande rajada de erros em diversas palavras de código de modo que cada palavra de código precise corrigir somente uma fração dos erros em rajada A motivação para isso é que em geral códigos corretores de erros aleatórios são projetados para tratar erros esporádicos em cada palavra de código No entanto na maioria dos sistemas práticos ocorrem os dois tipos de erro Entre os métodos propostos para a correção simultânea de erros aleatórios e em rajada o entrelaçamento é simples e eficaz Para um código n k se entrelaçarmos λ palavras de código obteremos o chamado código entrelaçado λn λk Em vez de transmitir uma palavra de código de cada vez agrupamos λ palavras de código e as entrelaçamos Consideremos por exemplo o caso λ 3 e um código 15 8 corretor de dois erros Cada palavra de código tem 15 dígitos Agrupamos palavras de código para que sejam transmitidas em grupos de três Suponhamos que as três primeiras palavras de código a serem transmitidas sejam x x 1 x 2 x 15 y y 1 y 2 y 15 e z z 1 z 2 z 15 Ao invés de transmitirmos xyz em sequência como x 1 x 2 x 15 y 1 y 2 y 15 z 1 z 2 z 15 transmitimos x 1 y 1 z 1 x 2 y 2 z 2 x 3 y 3 z 3 x 15 y 15 z 15 Isso pode ser explicado graficamente como na Fig 1415 em que λ palavras de código no caso em questão três são organizadas em linhas Na transmissão normal transmitimos uma linha após a outra No caso de entrelaçamento transmitimos colunas cada um com λ elementos em sequência Após a transmissão de todas as 15 n colunas repetimos o procedimento para as próximas λ palavras de código a serem transmitidas Para explicar a capacidade de correção de erro desse código entrelaçado observemos que o decodificador primeiro removerá o entrelaçamento e reagrupará os dígitos recebidos como x 1 x 2 x 15 y 1 y 2 y 15 z 1 z 2 z 15 Suponhamos que na Fig 1415 os dígitos nos quadrados sombreados estejam em erro Como se trata de um código corretor de dois erros até dois erros serão corrigidos em cada linha Portanto todos os erros na Fig 1415 são corrigíveis Vemos que nos 45 dígitos transmitidos há dois erros aleatórios ou independentes e uma rajada de comprimento 4 Em geral se o código n k original for um código corretor de t erros o código entrelaçado poderá corrigir qualquer combinação de t rajadas de comprimento λ ou menor Figura 1415 Entrelaçador não aleatório de blocos para correção de erros aleatórios e em rajada Figura 1416 Códigoproduto formado por dois codificadores separados por um entrelaçador de blocos Entrelaçadores como o descrito na Fig 1415 que toma um bloco de bits e gera a sequência de saída de forma ordenada e fixa são conhecidos como entrelaçadores de blocos O comprimento total de memória do entrelaçador é conhecido como profundidade de entrelaçamento Entrelaçadores com maiores profundidades podem atacar rajadas mais longas de erros ao custo de maior memória e maiores atrasos de codificação e decodificação Um entrelaçador mais geral pode reordenar pseudoaleatoriamente os bits de dados no entrelaçador e liberar os bits em uma ordem conhecida pelo transmissor e pelo receptor Um entrelaçador desse tipo é conhecido como entrelaçador aleatório Em geral entrelaçadores aleatórios são mais eficazes no combate de erros aleatórios e em rajada Como não geram saídas segundo uma ordem fixa a probabilidade da recepção de uma rajada de erros em uma palavra de código devido a um dado padrão de erro é muito menor CódigoProduto Código entrelaçado pode ser generalizado por codificação das palavras de códigos entrelaçadas O código resultante pode ser visto como uma grande palavra de código que deve satisfazer duas verificações de paridade restrições A Fig 1416 ilustra como formar um códigoproduto a partir de dois códigos de blocos sistemáticos conhecidos como códigos componentes O primeiro é um código n 1 k 1 e o segundo um código n 2 k 2 Especificamente um bloco retangular de k 1 k 2 bits de mensagem é codificado por dois codificadores Inicialmente k 2 blocos de k 1 bits de mensagem são codificados pelo primeiro codificador em k 2 palavras de código do código n 1 k 1 A seguir um entrelaçador de blocos n 1 k 2 envia n 1 blocos de k 2 bits ao segundo codificador Esse codificador n 2 k 2 adiciona n 2 k 2 bits de paridade a cada um dos n 1 blocos gerando n 1 palavras de código do código n 2 k 2 para transmissão pelo canal O uso de um códigoproduto é uma forma simples de combinar dois códigos de blocos em um código mais poderoso Em um códigoproduto cada bit de código é restringido por dois conjuntos de paridades um de cada código componente Figura 1417 Código concatenado com código externo não binário e código interno binário Códigos Concatenados Do diagrama em blocos de um códigoproduto reparemos que um entrelaçador de blocos conecta os dois códigos componentes De modo mais geral como mostrado na Fig 1417 não é necessário que os dois códigos componentes sejam limitados a códigos 149 binários e um entrelaçador Π mais genérico pode ser usado O código resultante é conhecido como código concatenado De fato Forney 8 propôs a concatenação de um código binário e um não binário para a construção de um código muito mais poderoso Fica claro que códigosproduto são uma classe especial de códigos concatenados em que os códigos componentes e o entrelaçador de blocos são binários Nessa concatenação serial o codificador 2 é conhecido como código interno e o codificador 1 como código externo A concatenação mais bem sucedida como proposto por Forney 8 usa um código externo de ReedSolomon e um código interno convolucional binário O código concatenado pode ser decodificado separadamente primeiro o código interno é decodificado e então são feitos o desentrelaçamento e a decodificação do código externo São possíveis formas mais complexas de decodificação iterativa que podem alcançar melhor desempenho DECODIFICAÇÃO SUAVE Até aqui focamos métodos de decodificação que geram decisões rígidas com base na máxima verossimilhança ou em decodificação algébrica fundamentada na síndrome Decodificação com decisão rígida significa que o decodificador gera somente a palavra de código mais provável sem a confiabilidade da palavra de código decodificada em relação a outras possibilidades Assim uma palavra de código decodificada sob decisão rígida não indica o grau de confiança do decodificador em relação à decisão que tomou Um decodificador independente pode funcionar como um decodificador de decisão rígida pois seu objetivo é prover a melhor candidata como a palavra de código decodificada Esse decodificador não precisa indicar o grau de confiança a ser associado à decisão Na prática no entanto um decodificador opera em conjunto com outros decodificadores e unidades receptoras Isso significa que a palavra de código decodificada deve não apenas atender às restrições da atual matriz de verificação de paridade mas também satisfazer outras restrições como no caso de um código corretor de erro concatenado as impostas pelas paridades dos distintos códigos componentes Ao prover mais que apenas uma decisão rígida um decodificador de decisão suave pode produzir múltiplas possíveis palavras de código de saída cada uma associada a uma métrica de confiabilidade verossimilhança Esse tipo de decodificação suave permite que outras unidades no receptor selecionem conjuntamente a melhor palavra de código utilizando a informação suave de confiabilidade do decodificador em paralelo com outras restrições relevantes a serem satisfeitas pela palavra de código O conceito de decisão suave é ilustrado de forma mais conveniente por meio de um exemplo de modulação BPSK Recordemos o receptor ótimo da Seção 106 Foquemos o caso especial de modulação binária com símbolo de dado modulado representado por b i 1 e sujeito a ruído de canal gaussiano branco aditivo Seja c ji o iésimo bit de código da jésima palavra de código c j Como a modulação é BPSK a relação entre o bit de código c ji e o correspondente símbolo modulado b ji é simplesmente Admitindo que o sinal de saída do filtro receptor seja livre de ISI as amostras do sinal recebido r i correspondentes à transmissão da palavra de código n k de n bits c j 1 c j 2 c j n podem ser escritas como Nessa expressão w i é uma amostra AWGN Usamos C para denotar a coleção de todas as palavras de código válidas Com base no receptor ótimo da Seção 106 Eq 1091 e Fig 1018 a decodificação de máxima verossimilhança MLD do sinal recebido com codificação corresponde a Entre as 2 k palavras de código a MLD suave pode não apenas determinar a palavra de código mais provável como saída mas também preserva a métrica Tipo 1 Tipo 2 Tipo 3 como a verossimilhança relativa da palavra de código c j durante o processo de decodificação Embora seja equivalente à medida de distância essa métrica correlação deve ser maximizada para MLD Ao contrário da distância a métrica de correlação pode ser positiva ou negativa Embora a MLD suave pareça ser um algoritmo de implementação simples sua complexidade computacional é afetada pelo tamanho do código Na verdade quando o código é longo com grande valor de k a complexidade computacional cresce exponencialmente pois 2 k métricas devem ser calculadas Para muitos códigos de blocos práticos essa exigência se torna intratável quando o comprimento do código ultrapassa algumas centenas de bits Para simplificar esse decodificador ótimo Chase propôs vários tipos de algoritmos subótimos de detecção suave 9 que são eficazes a um custo computacional significativamente reduzido O primeiro passo dos algoritmos de Chase consiste em obter decisões rígidas temporárias com base nas amostras recebidas r i Esses bits temporários não formam necessariamente uma palavra de código Devemos determinar em que Cada um dos bits de decisão tem confiabilidade r i Os bits temporários y i são enviados a um decodificador algébrico baseado em por exemplo síndromes de erro O resultado é uma palavra de código inicial Esse passo é exatamente o mesmo que uma decisão rígida convencional Todavia os algoritmos de Chase permitem modificações adicionais à entrada y do decodificador rígido com a troca flipping dos dígitos menos confiáveis Trocar significa substituir um bit de código 1 por 0 e 0 por 1 A ideia de decodificação suave é prover múltiplas palavras de código candidatas cada uma associada a uma medida de confiabilidade Algoritmos de Chase geram padrões mais prováveis de troca a serem usados para a modificação da entrada y do decodificador rígido Cada padrão de troca e i consiste em 1s em posições de bit a serem trocados e 0s nas posições de bit restantes Para cada padrão de troca e i construímos e calculamos a correspondente métrica de confiabilidade A palavra de código com máxima M i é a saída decodificada Há três tipos de algoritmo de Chase Primeiro ordenamos a confiabilidade de bit da baixa para a alta Testar todos os padrões de troca de peso menor ou igual a d min 1 Identificar as posições de bit menos confiáveis Testar todos os padrões de troca de peso menor ou igual a Testar padrões de troca de peso w 1 3 d min 1 colocando 1s nas w posições de bit menos confiáveis O diagrama em blocos dos algoritmos de Chase é mostrado na Fig 1418 Os três algoritmos de Chase diferem apenas na forma em que os padrões de troca são gerados Devemos notar ainda que decodificadores de Chase podem trocar informação de confiabilidade e verossimilhança com outras unidades receptoras em um esforço conjunto para melhorar o desempenho da decodificação No lado de entrada o conjunto de padrões de troca pode aceitar sugestões de outras unidades receptoras No lado de saída múltiplas palavras de código candidatas juntamente com suas métricas de confiabilidade podem ser enviadas a unidades adicionais de decodificação para processamento complementar e eventual eliminação 1410 Figura 1418 Diagrama em blocos dos algoritmos decodificação suave de Chase ALGORITMO DE VITERBI COM SAÍDA SUAVE SOVA Algoritmos de Chase podem gerar múltiplas palavras de código candidatas e as associadas métricas de confiabilidade A informação de métrica pode ser explorada por outras unidades receptoras para determinar a palavra de código decodificada final Caso seja capaz de produzir informação de confiabilidade suave para cada bit decodificado o decodificador pode ter melhor utilização em conjunto com outros decodificadores e processadores com saída suave Em contraste com os algoritmos de Chase os algoritmos de Viterbi com saída suave SOVA softoutput Viterbi algorithms 10 e algoritmos de máximo a posteriori MAP maximum a posteriori são dois métodos mais gerais de decodificação suave e produzem informação de confiabilidade de bit Iniciamos com a descrição dos princípios de SOVA A informação de bit mais confiável e instrutiva é a razão logverossimilhança LLR LogLikelihood Ratio de um particular bit de código c i com base no vetor de sinal recebido Em outras palavras a LLR 11 definida por indica o grau de certeza do decodificador quanto à decisão de c i 1 O grau de certeza varia de quando Pc i 0r 1 a quando Pc i 0r 0 Mais uma vez consideremos o caso BPSK em que o dado transmitido é 2c i 1 1 e em que w i é a amostra AWGN Como nos algoritmos de Chase a métrica de rota é computada pela correlação entre r i e o sinal BPSK c i Portanto com base nas amostras dos dados recebidos r i podemos estimar Como no algoritmo de Viterbi tradicional o decodificador SOVA opera nas correspondentes treliças do código convolucional ou de blocos O SOVA consiste em um passo à frente e um passo a trás Durante o passo à frente como no algoritmo de Viterbi AV convencional o SOVA determina primeiro a sequência de maior verossimilhança rota sobrevivente Em contraste com AV que armazena apenas métricas da rota sobrevivente nos estados do estágio em consideração o SOVA armazena a métrica de cada rota sobrevivente que leve a um estado para todos os estágios Para formular a ideia formalmente seja 1411 Para cada rota sobrevivente no estado S ℓ no estágio i determinamos a métrica da rota à frente que leva a esse estado A métrica à frente que termina no estado ℓ no tempo i é denotada por M f ℓ i A máxima métrica de rota total no estado final do AV à frente denotada por M max corresponde à rota ótima à frente Durante o passo para trás SOVA aplica AV para trás a partir do estado terminal final no estágio K e termina no estado inicial no estágio 0 a métrica para trás que termina no estado ℓ no estágio i é armazenada como Figura 1419 Diagrama em blocos de algoritmos de Chase para decodificação suave Como o valor provável do bit de informação d i 0 1 que leva à transição entre os estados S la i 1 e S lb i foi identificado por AV durante o passo à frente a métrica do bit de informação M id i pode ser fixada como a métrica de rota total A próxima tarefa consiste em determinar a melhor rota e a correspondente máxima métrica de rota M i1 d i se o valor oposto ao do bit de informação 1 d i for escolhido no lugar de d i no estágio i em que B la lb é a distância de rota da transição de estado ℓ a a ℓ b em relação à amostra recebida r i A maximização é feita sobre todas as transições de estado denotadas por que podem ser causadas pelo valor de bit de informação 1 d i no estágio i Esse passo nos permite determinar a melhor rota alternativa pelas treliças caso o valor alternativo 1 d i seja selecionado Agora que temos M id i e M i1 d i para cada estágio i a verossimilhança de cada bit de informação é proporcional à diferença das métricas Portanto a razão logverossimilhança Λ i pode ser gerada por SOVA para cada bit de informação d i Podemos então usar a rota sobrevivente para determinar a LLR Eq 1440 para cada bit nessa sequência de maior verossimilhança O conceito básico da determinação da melhor rota sobrevivente alternativa causada por um bit de informação de valor 1 d i é ilustrado na Fig 1419 CÓDIGOSTURBO Como mencionamos brevemente na Seção 141 códigosturbo representam uma das maiores inovações 12 na teoria da codificação ao longo das últimas décadas O mecanismo que viabilizou os códigosturbo foi o decodificador simplificado Códigosturbo não seriam possíveis sem um algoritmo de decodificação suave Na verdade um artigo curto publicado há mais de 30 anos por Bahl Cocke Jelinek e Raviv 13 teve um papel fundamental O algoritmo de máximo a posteriori MAP introduzido por esses autores ficou conhecido como algoritmo BCJR Antes da descrição da essência de códigosturbo apresentaremos os fundamentos do algoritmo BCJR Algoritmo BCJR para Detecção MAP A descrição que apresentaremos do algoritmo MAP BCJR é baseada no trabalho de Bahl Cocke Jelinek e Raviv 13 Primeiro admitamos uma sequência de bits de dados de informação denotada por Os bits de informação d i são codificados em bits de palavras de código v i que são modulados em símbolos de dados modulados complexos b i No caso geral simplesmente notamos que existe um mapeamento No caso especial BPSK b i 1 Os símbolos de dados modulados são transmitidos em um canal de ruído iid e as amostras de sinal recebido são em que w i são amostras de ruído iid Seguindo a notação de MATLAB representemos os dados recebidos por Como os símbolos de dados e o ruído de canal são iid concluímos que a probabilidade condicional depende somente do símbolo modulado em consideração O código convolucional ou de blocos é representado por um diagrama em treliças no qual S i m denota o evento em que o estado das treliças é m no tempo i A probabilidade de transição entre os estados m e m do estágio i 1 para o estágio i é representado por A definição de treliça de estado significa que S i é um processo de Markov Com base nas propriedades de processos de Markov e sabendo que são independentes obtemos as seguintes simplificações das probabilidades condicionais O detector MAP precisa determinar a razão de logverossimilhança Agora estamos aptos a explicar o funcionamento do algoritmo BCJR Primeiro seja Ω iu o conjunto de todas as possíveis transições de estados de S i 1 m a S i m quando d i u u 0 1 Existem apenas dois desses conjuntos para d i 1 e d i 0 Podemos ver que Aplicando as Eqs 1449a e 1449b à última igualdade obtemos Aplicando a notação usada por Bahl et al 13 definimos Dada a notação na Eq 1453 podemos usar as Eqs 1450 a 1452 para escrever a LLR de cada bit de informação d i como Isso provê a informação de decodificação suave para o iésimo bit de informação d i A decodificação MAP pode gerar uma decisão rígida simplesmente a partir do sinal da LLR Para implementar o algoritmo BCJR aplicamos uma recursividade à frente para obter α im A última igualdade advém da Eq 1449b O estado inicial do decodificador deve ser S 0 0 Em outras palavras da qual a recursividade à frente pode ter prosseguimento A recursividade para trás é usada para calcular β i1m de β im Para um codificador com estado terminal conhecido S N 0 podemos iniciar a recursividade para trás de da qual a recursividade para trás pode ser inicializada Reparemos que as recursividades à frente e para trás dependem da função γ im m Na verdade γ im m já está em uma forma matricial simples A entrada γ im m pode ser simplificada e deduzida da informação básica de modulação e do canal em que c im m é a palavra de código da saída do codificador que corresponde à transição de estado de m para m e d i u é o correspondente bit de entrada Para determinar γ im m para d i u segundo a Eq 1457 Pr i c im m é determinada com o mapeamento da saída do codificador c im m ao símbolo modulado b i e à distribuição de ruído de canal w i No caso especial do código convolucional na Fig 145 para cada símbolo de dado d i o codificador convolucional gera dois bits codificados v i 1 v i 2 O mapeamento dos bits codificados v i 1 v i 2 aos símbolos modulados b i depende da modulação Em BPSK cada bit codificado é mapeado a 1 e b i tem duas entradas Se for aplicada a modulação QPSK podemos usar um mapeamento de Gray em que Assim em um canal AWGN em bandabase a amostra de sinal recebido sob QPSK é em que w i é o ruído de canal iid complexo com função densidade de probabilidade Em consequência neste caso O algoritmo MAP BCJR calcula a LLR de cada bit de informação segundo A Eq 1460 mostra que a LLR de um dado símbolo de informação d i consiste em duas partes A informação a priori de probabilidade anterior do símbolos de dado d i que pode ser fornecida a priori ou externamente por outro codificador A informação local que é especificada pelos sinais recebidos e pelas restrições do código em treliças ou transições de estado Com essa visão de decomposição da LLR estamos prontos para explicar o conceito de códigosturbo ou o que é mais apropriado decodificaçãoturbo CódigosTurbo O conceito de códigosturbo foi proposto por Berrou Glavieux e Thitimajshima 12 em 1993 na IEEE International Conference on Communications Conferência Internacional de Comunicações do IEEE A asserção dos autores sobre desempenho de correção de erro próximo do limite de Shannon foi inicialmente recebida com ceticismo Tal reação era natural pois o proposto código turbo apresentava desempenho de BER a até 1 dB do limite de Shannon o que era considerado algo extremamente difícil se não impossível de obter com complexidade computacional razoável Além disso a construção dos chamados códigosturbo não assumia uma forma particularmente estruturada Foram precisos quase dois anos para que a comunidade de códigos se convencesse do extraordinário desempenho de BER de códigosturbo e começasse a entender os princípios dos mesmos Atualmente códigosturbo permearam diversos aspectos de comunicações digitais e muitas vezes assumem formas especializadas Nessa parte da seção apresentaremos uma breve introdução sobre os princípios básicos de códigosturbo Um diagrama em blocos do primeiro codificadorturbo é mostrado na Fig 1420a Esse códigoturbo consiste em dois códigos RSC convolucionais sistemáticos e recursivos Representando um atraso unitário por D a matriz geradora 1 2 do código RSC de taxa 12 assume a forma Em particular o exemplo de códigoturbo de Berrou et al 12 foi especificado por A implementação simples do codificador é mostrada na Fig 1420b Nesse exemplo um quadro de bits de informação d i passa por dois codificadores RSC Os dois códigos convolucionais têm taxa 12 e são sistemáticos Assim o primeiro codificador RSC gera um quadro de bits codificados de comprimento igual ao do quadro de informação Antes de entrar no segundo codificador RSC os bits de informação são entrelaçados por um entrelaçador aleatório de blocos Π Em consequência mesmo com estrutura idêntica à do primeiro codificador o segundo codificador gerará um quadro de bits codificados diferente O códigoturbo global consiste nos bits de informação e as duas sequências de bits codificados de paridade A taxa de código é 13 pois o códigoturbo tem dois quadros codificados para o mesmo quadro de informação Então d i são modulados e transmitidos através dos canais de comunicação Entrelaçadores adicionais e codificadores RSC podem ser empregados para a obtenção de códigos com taxas menores e mais poderosos Para a construção de códigosturbo com taxas mais elevadas as saídas dos dois codificadores convolucionais e podem ser descartadas de forma seletiva e sistemática por exemplo mantendo somente metade dos bits em e Esse processo comumente referido como perfuração puncturing cria dois códigos RSC mais eficientes cada um com taxa 23 A taxa total do códigoturbo portanto é 12 pois para cada bit de informação há dois bits codificados um bit de informação e um de paridade Assim a essência de códigosturbo é uma simples combinação de dois códigos RSC componentes Embora cada código componente tenha poucos estados e possa ser decodificado via algoritmos com AV SOVA e BCJR o entrelaçador aleatório em muito dificulta a decodificação exata do códigoturbo global pois o mesmo consiste em número demasiado de estados para ser decodificado por meio de decodificadores tradicionais MAP ou AV Como cada código componente pode ser decodificado com o emprego de decodificadores simples o verdadeiro mérito de códigosturbo reside na decodificação iterativa um conceito que permite que os dois decodificadores componentes troquem informação de forma iterativa Figura 1420 Códigoturbo paralelo concatenado a codificadorturbo 13 b implementação de codificador convolucional sistemático e recursivo RSC g 1D 1 D D 4 g 2D 1 D 2 D 3 D 4 Decodificação Iterativa para CódigosTurbo É importante ressaltar que a simples iteração entre dois decodificadores rígidos não é capaz de garantir a convergência ao resultado do altamente complexo e exato decodificadorturbo O algoritmo BCJR discutido anteriormente ou alguma de suas variantes viabiliza a decodificaçãoturbo e a torna poderosa Cada código componente pode ser decodificado via algoritmo BCJR de decodificação suave que permite que a decodificaçãoturbo iterativa troque informação suave entre os dois decodificadores suaves A ideia da decodificação iterativa pode ser descrita de modo simples como feito a seguir Dada a saída do canal os dois decodificadores podem gerar a informação suave Λd i segundo a Eq 1460 Reparemos que são a informação a priori a respeito do bit de informação d i nos decodificadores 1 e 2 respectivamente Sem qualquer conhecimento prévio os decodificadores as tratariam simplesmente como 0 pois d i 1 são equiprováveis A decodificação iterativa deve permitir que os dois decodificadores de baixa complexidade troquem informação Para isso o decodificador 1 pode aplicar o algoritmo BCJR para determinar a informação de LLR sobre d k e então passar essa informação deduzida ao decodificador 2 como a LLR a priori Reparemos que essa informação deduzida não é disponibilizada ao decodificador 2 por seu próprio decodificador ou por outros sinais de entrada Para prover informação inovadora o decodificador 1 deve remover qualquer informação redundante para gerar sua informação extrínseca a ser passada ao decodificador 2 Do mesmo modo o decodificador 2 determinará sua informação extrínseca até então indisponível ao decodificador 1 e a passará ao decodificador 1 como uma informação a priori para que o decodificador 1 refresqueatualize sua LLR sobre d k Essa iteração em malha fechada é repetida até haver convergência satisfatória O diagrama em bloco conceitual dessa decodificaçãoturbo iterativa é ilustrado na Fig 1421 A seguir exploremos um exemplo dado por Bahl et al 13 para explicar como atualizar a informação extrínseca para a troca de informação entre os dois decodificadores suaves A Fig 1421 ilustra o fluxo básico de sinal no decodificadorturbo iterativo Há dois decodificadores MAP BCJR interconectados Foquemos um dos decodificadores o decodificador 1 e sua implementação BCJR Para o primeiro código RSC sistemático os bits codificados de saída correspondentes ao bit de informação d i são Figura 1421 Troca de informação extrínseca entre dois decodificadores componentes BCJR para decodificaçãoturbo iterativa Para determinar pr ic im m é necessário especificar o formato de modulação e o modelo do canal Consideremos o caso especial e simples de modulação BPSK sob ruído de canal aditivo branco e gaussiano Nesse caso há duas amostras de sinal recebido como resultado dos bits codificados c im m Mais precisamente do codificador 1 a saída do canal consiste em duas sequências de sinal enquanto do codificador 2 as saídas do canal são Reparemos que os ruídos gaussianos w i w i 1 e w i 2 são independentes com igual distribuição gaussiana de média zero e variância N2 O primeiro decodificador BCJR deve decodificar os sinais r is e enquanto o segundo decodificador deve decodificar os sinais Seja em um decodificador p im m o iésimo bit de paridade correspondente ao bit de mensagem d i Naturalmente esse bit de paridade corresponde à transição do estado m ao estado m Para cada decodificador os sinais de saída do canal recebidos r i r is r ip especificam γ im m via Reparemos que o primeiro termo na Eq 1464 independe da palavra de código ou transição de m a m Assim a LLR neste decodificador passa a Definindo o parâmetro de ganho podemos simplificar a LLR como Em outras palavras para cada bit de informação d i as LLRs dos dois decodificadores podem ser decompostas em três partes em que é a informação a priori provida pelo outro decodificador é a informação de saída do canal compartilhada pelos dois decodificadores e é a informação extrínseca obtida pelo jésimo decodificador e usada pelo outro decodificador como informação a priori Isso significa que a cada iteração o decodificador 1 precisa calcular em que é a informação extrínseca passada pelo decodificador 2 e é a nova informação extrínseca a ser enviada ao decodificador 2 para que o mesmo atualize sua LLR via 1412 Nos dois decodificadores a atualização da informação extrínseca requer a atualização de α im e β im antes do cálculo da informação extrínseca Para refrescar α im e β im com base na informação extrínseca Λ e precisamos recalcular em cada decodificador Uma vez que tenha terminado a decodificação BCJR o decodificador 1 pode fornecer sua saída suave como informação a priori sobre d i ao decodificador 2 Ao terminar sua decodificação BCJR fazendo uso da informação a priori fornecida pelo decodificador 1 o decodificador 2 deve prover sua nova informação suave sobre d i de volta ao decodificador 1 Para assegurar que o decodificador 2 não realimente informação velha originalmente vinda do decodificador 1 devemos subtrair a informação velha antes da realimentação e dessa forma devolver ao decodificador 1 somente a informação extrínseca como informação anterior a ser usada pelo decodificador 1 na próxima iteração Da mesma forma na próxima iteração o decodificador 1 atualizará sua saída suave e dela subtrairá a informação velha originalmente vinda do decodificador 2 de modo a fornecer informação extrínseca fresca como informação a priori para o decodificador 2 Essa troca de informação extrínseca é ilustrada na Fig 1421 Como exemplo o desempenho de decodificação original do códigoturbo proposto por Berrou et al 12 é reproduzido na Fig 1422 O resultado demonstra na decodificação suave iterativa a progressiva melhora de desempenho de iterações sucessivas Após 18 iterações o desempenho de taxa de erro de bit está a apenas 07 dB do limite teórico CÓDIGOS VERIFICADORES DE PARIDADE DE BAIXA DENSIDADE LDPC Após a descoberta de códigosturbo pesquisadores se empenharam em grande atividade com o objetivo de determinar códigos corretores de erro igualmente poderosos se não mais poderosos que fossem adequados à decodificação iterativa suave Logo após em 1995 outra classe de códigos com capacidade próxima do limite teórico conhecidos como códigos verificadores de paridade de baixa densidade LDPC lowdensity parity check codes e originalmente introduzidos por Gallager 15 em 1963 foi redescoberta por MacKay e Neal 16 17 Desde então implementações de códigos LDPC e formas eficientes de decodificação LDPC têm sido alvos de intensas pesquisas na comunidade de códigos Um grande número de códigos LDPC foi proposto como fortes competidores dos códigosturbos e muitas vezes com melhor desempenho e comparáveis comprimentos de códigos taxas de códigos e complexidade de decodificação Figura 1422 O desempenho da decodificação de um códigoturbo de taxa 12 é muito próximo do limite teórico Reproduzido da Ref 14 com permissão do IEEE Códigos LDPC são códigos de blocos lineares com matrizes de verificação de paridade esparsas Essencialmente a matriz de verificação de paridade H consiste em uma maioria de 0s e poucos 1s formando uma matriz de verificação de paridade de baixa densidade Códigos LDPC são em geral muito longos normalmente têm comprimentos maiores que 1000 bits e não cíclicos Assim uma implementação exata do algoritmo de decodificação MAP BCJR se torna muito complexa e na maioria das vezes impraticável Por sorte há diversos métodos bem estabelecidos para a decodificação de códigos LCPD capazes de alcançar desempenho próximo do ótimo O projeto do código LDPC equivale ao de uma matriz de paridade esparsa H Uma vez que H tenha sido definida o código LDPC é o espaço nulo da matriz de paridade H O número de 1s na iésima linha de H é conhecido como o peso da linha ρ i enquanto o número de 1s na jésima coluna é o peso da coluna γ j Em códigos LDPC os pesos das linhas e das colunas são muito menores que o comprimento do código n ou seja Exemplo 149 Para códigos LDPC regulares todas as linhas têm o mesmo peso ρ i ρ e todas as colunas o mesmo peso γ i γ No caso de códigos LDPC irregulares os pesos das linhas e das colunas variam e em geral exibem certas distribuições Códigos regulares são de geração mais simples enquanto códigos irregulares de grandes comprimentos de código têm melhor desempenho Gráfico Bipartido de Tanner Um gráfico de Tanner é uma representação gráfica que permite a descrição conveniente de um código de blocos linear Esse gráfico bipartido com matriz de incidência H foi introduzido por R M Tanner em 1981 18 Consideremos um código de blocos linear n k Há n bits codificados e n k bits de paridade O gráfico de Tanner desse código de blocos linear tem n nós de variáveis correspondentes aos n bits de código Os n nós variáveis são conectados a seus respectivos nós de paridade ou nós de verificação segundo os 1s na matriz de verificação de paridade H Um nó de variável uma coluna e um nó de verificação uma linha são conectados se o correspondente elemento em H for um 1 Como H é esparsa existem poucas conexões a cada nó de variável ou nó de verificação Estas conexões são conhecidas como fronteiras edges Cada linha representa a conexão a um nó de verificação e cada coluna a conexão a um nó de variável Para códigos LDPC se a iésima linha de H tiver peso de linha ρ i o nó de verificação terá ρ i fronteiras Se a coluna j tiver peso de coluna γ j o nó de variável terá γ i fronteiras Usemos um exemplo para ilustrar a relação entre H e o gráfico de Tanner Consideremos um código 7 4 3 de Hamming com a seguinte matriz de verificação de paridade Determinemos o gráfico de Tanner para este código Este código tem 7 nós de variável e 3 nós de verificação Com base nas entradas em H cada nó de verificação é conectado a 4 nós de variável A primeira linha de H corresponde à conexão ao nó de verificação 1 As entradas não nulas de H marcam os nós de variável conectados O resultante gráfico de Tanner é mostrado na Fig 1423 Figura 1423 Gráfico de Tanner do código 7 4 3 de Hamming Como códigos LDPC em geral têm mais de 1000 bits de comprimento seus gráficos de Tanner são demasiadamente grandes para serem ilustrados na prática Todavia o conceito básico de gráfico de Tanner é muito útil no entendimento de códigos LDPC e de sua decodificação iterativa Um ciclo no gráfico de Tanner é marcado por uma malha fechada de fronteiras conectadas A malha se origina e termina no mesmo nó de variável ou de verificação O comprimento de um ciclo é definido pelo número de fronteiras No Exemplo 149 existem vários ciclos de comprimento 4 e de comprimento 6 Ciclos de comprimentos 4 e 6 são considerados ciclos curtos Ciclos curtos são indesejáveis em alguns algoritmos de decodificação iterativa para códigos LDPC Quando um gráfico de Tanner não tem ciclos curtos a decodificação iterativa de códigos LDPC com base no chamado algoritmo somaproduto pode Passo 1 Passo 2 Passo 3 Passo 4 convergir e gerar resultados próximos ao do decodificador MAP completo que é demasiado complexo para ser implementado na prática Para evitar um ciclo de comprimento 4 a implementação do código LDPC impõe em geral uma restrição adicional à matriz de paridade H Duas linhas ou colunas não podem ter mais que um componente comum Essa propriedade conhecida como restrição linhacoluna LC é suficiente e necessária para evitar ciclos de comprimento 4 A presença de ciclos é inevitável na maioria das implementações de códigos LDPC com base em buscas em computador Um número significativo de pesquisadores se dedica ao estudo do desafiador problema de reduzir o número de ou eliminar ciclos curtos de comprimento 4 6 e possivelmente 8 Aos leitores interessados recomendamos o livro de Lin e Costello 2 A seguir descreveremos dois métodos de decodificação para códigos LDPC Decodificação LDPC por Troca de Bits O grande comprimento de códigos LDPC torna a decodificação um problema altamente desafiador Dois dos mais comuns algoritmos de decodificação são o algoritmo de troca de bits BF bitflipping de decisão rígida e o algoritmo somaproduto SPA sumproduct algorithm de decisão suave O algoritmo de troca de bits BF opera em uma sequência de bits de decisão rígida r 011010010 A verificação de paridade em r gera o vetor de síndrome Os bits de síndrome de valor 1 indicam falha de paridade O algoritmo BF tenta trocar um bit em r com base em como a troca afetaria os bits de síndrome Quando um bit de código participa em apenas uma verificação de paridade falhada a troca desse bit na melhor das hipóteses corrigirá 1 verificação de paridade mas causará γ 1 novas falhas de paridade Por essa razão BF apenas troca bits que afetem um grande número de verificações de paridade falhadas Um algoritmo BF simples consiste nos seguintes passos 2 Calcular as verificações de paridade s rH T Se todas as síndromes forem zero interromper a decodificação Determinar o número de verificações de paridade falhadas para cada bit Identificar o conjunto de bits F max com maior f i e trocar os bits em F max para gerar uma nova palavra de código r Fazer r r e repetir os passos 1 a 3 até que o máximo número de iterações tenha sido alcançado Algoritmo SomaProduto para a Decodificação LDPC O algoritmo somaproduto SPA é o mais usado método para decodificação LDPC Tratase de um eficiente algoritmo de decodificação com entrada suave e saída suave baseado na propagação de crença iterativa O gráfico de Tanner facilita a interpretação de SPA O algoritmo somaproduto é semelhante a uma gangorra Em um passo cada nó de variável passa informação via suas fronteiras aos nós de verificação conectados no fluxo de cima para baixo No próximo passo no fluxo de baixo para cima cada nó de verificação devolve informação a todos os nós de variável a ele conectados Para entender o SPA admitamos que a matriz de paridade H seja de ordem J n em que J n k para um código de blocos LDPC n k Representemos a palavra de código pelos bits dos nós de variável v j j 1 n Para o jésimo nó de variável v j usemos para denotar o conjunto de nós de variável conectados a v j Para o iésimo nó de verificação z i usemos para denotar o conjunto de nós de variável conectados a z i Primeiro definamos a probabilidade de satisfazer o nó de verificação z i 0 quando v j u como Denotemos o vetor dos bits de paridade por v Podemos usar o teorema de Bayes sobre probabilidade condicional Seção 81 para mostrar que Essa é a mensagem passada na direção de baixo para cima Para que o nó de verificação z i estime a probabilidade P v ℓ ℓ σ i ℓ jv j u o mesmo deve colher informação do conjunto de nós de variável σ i Definamos a probabilidade de v ℓ x obtida de seus nós de verificação excetuando o iésimo nó como Além disso admitamos que as probabilidades dos nós de variável sejam aproximadamente independentes Podemos estimar Isso significa que os nós de verificação podem atualizar a mensagem via Reparemos que a probabilidade de Pz i 0v j u v ℓ ℓ σ i ℓ j é 0 ou 1 ou seja o nó de verificação z i 0 tem sucesso ou falha A relação na Eq 1476 permite que R iju seja atualizada quando o iésimo nó de verificação receber Q i ℓv ℓ Uma vez que R iju tenha sido atualizada pode ser passada aos nós de variável na direção de baixo para cima para atualizar Q i ℓx Usando mais uma vez o teorema de Bayes Seção 81 temos Supondo que as verificações de paridade sejam independentes podemos escrever Agora definamos a probabilidade de bit de variável a priori como p ℓ x Pv ℓ x Seja α i ℓ o fator de normalização tal que Q i ℓ1 Q i ℓ0 1 Com base na Eq 1476 podemos atualizar Q i ℓx no nó de variável Essa mensagem será então passada de volta na direção de cima para baixo aos nós de verificação A Fig 1424 ilustra no algoritmo somaproduto o funcionamento básico da passagem de mensagem nas direções de baixo para cima e de cima para baixo O SPA pode ser resumido da seguinte forma Inicialização Seja m 0 e seja m max o número máximo de iterações Para cada h i ℓ 1 em H usar as probabilidades anteriores para especificar Passo 1 Nó de verificação i atualiza sua informação Figura 1424 Passagem de mensagem no algoritmo somaproduto Passo 2 Para cada nó de variável indexado por ℓ atualizar em que o fator de normalização é selecionado de modo que Passo 3 Nos nós de variável estimar as probabilidades a posteriori em que o fator de normalização é selecionado de modo que Passo 4 Tomar decisões rígidas de cada bit codificado 1413 Se a palavra decodificada satisfizer todas as verificações de paridade interromper a decodificação Caso contrário retornar ao passo 1 para mais uma iteração Reparemos que os sinais de entrada externos r i são envolvidos somente durante a estimação das probabilidades a priori p ℓ 1 e p ℓ 0 SPA usa as probabilidades a priori da seguinte forma Para um exemplo mais concreto consideremos o caso de um canal AWGN com modulação BPSK Para v ℓ a amostra do sinal recebido é em que w ℓ é gaussiano com média zero e variância N2 Como r ℓ é independente quando recebemos r ℓ r ℓ podemos usar Isso completa a apresentação do algoritmo somaproduto para a decodificação de códigos LDPC EXERCÍCIOS COM O MATLAB Nesta seção apresentamos programas MATLAB para ilustrar alguns exemplos de codificadores e decodificadores de blocos Focamos o caso simples de decodificação de decisão rígida com base em síndromes EXERCÍCIO COMPUTACIONAL 141 Neste primeiro experimento apresentamos um programa para a decodificação do código de blocos linear 6 3 do Exemplo 141 A execução deste programa MATLAB gerará os seguintes resultados que incluem a palavra de código errada a síndrome o padrão de erro e a palavra de código corrigida No próximo exercício apresentamos um programa para decodificar o código 7 4 de Hamming do Exemplo 143 A execução do programa MATLAB Ex143m gerará uma palavra de código errônea r sua síndrome o padrão de erro e a palavra de código corrigida EXERCÍCIO COMPUTACIONAL 142 Em um exemplo mais realista usaremos o código 7 4 de Hamming para codificar uma longa sequência de bits de mensagem binária Os bits codificados serão transmitidos em sinalização polar em um canal com ruído gaussiano branco aditivo AWGN A saída do canal será detectada usando o decodificador 7 4 de Hamming que é capaz de corrigir 1 erro de bit em cada palavra de código de comprimento 7 Esse resultado é comparado com o da transmissão polar não codificada Para sermos justos a mesma razão E bN é considerada para cada bit de informação nos dois casos O programa MATLAB Sim74Hammingm é dado a resultante comparação das BERs é mostrada na Fig 1425 Figura 1425 Comparação de taxas de erro de bits de transmissões de bits de mensagem por sinalização polar não codificada linha cheia e por sinalização polar codificada por código 7 4 de Hamming linha tracejada 1 2 3 4 5 6 7 8 9 10 11 12 Naturalmente quando E bN é baixa há uma tendência de mais que 1 erro por palavra de código Assim quando há mais de 1 erro de bit o decodificador ainda considerará a palavra de código como corrompida por apenas erro de bit A tentativa de corrigir 1 erro de bit pode na verdade adicionar um erro de bit Quando E bN é alta é mais provável que a palavra de código tenha no máximo 1 erro de bit Isso explica por que a BER codificada é pior para baixos valores de E bN e melhor para altos valores de E bN A Fig 143 dá uma aproximação otimista ao pressupor que um decodificador cognitivo não agirá quando o número de erros de bit em cada palavra de código for maior que 1 Seu desempenho é marginalmente melhor para baixos valores da razão E bN REFERÊNCIAS C E Shannon A Mathematical Theory of Communication Bell Syst Tech J vol 27 pp 379423 623656 1948 S Lin and D Costello Error Control Coding Fundamentals and Applications 2nd ed Prentice Hall Upper Saddle River NJ 2004 WW Peterson and E JWeldon Jr Error Correcting Codes 2nd ed Wiley New York 1972 P Elias Coding for Noisy Channels IRE Natl Convention Rec vol 3 part 4 pp 3746 1955 A J Viterbi Convolutional Codes and Their Performance in Communications Systems IEEE Trans Commun Technol vol CT19 pp 751771 Oct 1971 J L Massey Threshold Decoding MIT Press Cambridge MA 1963 J KWolf Efficient MaximumLikelihood Decoding of Linear Block Codes Using a Trellis IEEE Trans Inform Theory vol IT24 pp 7680 Jan 1978 G D Forney Jr Concatenated Codes MIT Press Cambridge MA 1966 D Chase A Class of Algorithms for Decoding Block Codes with Channel Measurement Information IEEE Trans Inform Theory IT18 pp 170182 1972 J Hagenauer and P Hoeher A Viterbi Algorithm with SoftDecision Outputs and Its Applications Proc of IEEE Globecom pp 16801686 Nov 1989 H L Van Trees Detection Estimation and Modulation Theory Part I Wiley InterScience 2001 reprint Hoboken NJ C Berrou A Glavieux and P Thitimajshima Near Shannon Limit Error Correcting Coding and Decoding Turbo Codes Proc 1993 IEEE International Conference on Communications pp 10641070 Geneva Switzerland May 1993 13 14 15 16 17 18 1411 1412 a b 1413 1421 1422 1423 1424 a b c d L R Bahl J Cocke F Jelinek and J Raviv Optimum Decoding of Linear Codes for Minimizing Symbol Error Rate IEEE Trans Inform Theory vol IT20 pp 284287 March 1974 C Berrou and A Glavieux Near Optimum Error Correcting Coding and Decoding TurboCodes IEEE Trans Commun vol 44 no 10 pp 12611271 Oct 1996 R G Gallager Low Density Parity Check Codes Monograph MIT Press cambridge MA 1963 David J C MacKay and R M Neal Good Codes Based on Very Sparse Matrices Fifth IMA Conference on Cryptography and Coding Lecture Notes on Computer Science no 1025 Colin Boyd Ed Springer Berlin 1995 pp 100 111 D J C MacKay and R M Neal Near Shannon Limit Performance of Low Density Parity Check Codes Electron Lett vol 33 March 13 1997 R M Tanner A Recursive Approach to Low Complexity Codes IEEE Trans Inform Theory IT27 pp 533547 Sept 1981 EXERCÍCIOS Códigos 23 12 de Golay são códigos corretores de três erros Comprove que n 23 e k 12 satisfazem o limite de Hamming exatamente para t 3 Determine o limite de Hamming para um código ternário cujos três símbolos são 0 1 2 Um código 11 6 ternário existe e é capaz de corrigir até dois erros Comprove que esse código satisfaz o limite de Hamming exatamente Confirme a possibilidade de um código binário 18 7 corrigir até três erros Esse código será capaz de corrigir até quatro erros Se G e H forem as matrizes geradora e de verificação de paridade respectivamente mostre que Dada a matriz geradora construa um código 3 1 Quantos erros esse código é capaz de corrigir Determine a palavra de código para os vetores de dados d 0 e d 1 Comente o resultado Refaça o Exercício 1422 para Isso produz um código 5 1 Uma matriz geradora gera um código 42 Esse código é sistemático Qual é a matriz de verificação de paridade desse código Determine as palavras de código para todas as entradas possíveis Determine a distância mínima do código e o número de erros de bit que esse código é capaz de corrigir 1425 a b c d 1426 1427 1428 1429 a b c d e 14210 a b Considere o seguinte código de blocos linear sistemático k 1 k com dígito de verificação de paridade c k 1 dado por Construa uma adequada matriz geradora para esse código Construa o código gerado por essa matriz para k 3 Determine a capacidade de detecção ou correção de erros desse código Mostre que e Considere uma matriz geradora G para um código 6 3 não sistemático Construa o código para essa G e mostre que d min a mínima distância entre palavras de código é 3 Em consequência esse código é capaz de corrigir pelo menos um erro Refaça o Exercício 1426 para Determine uma matriz geradora G para um código de blocos linear 15 11 detector de um erro Determine a palavra de código para o vetor de dados 10111010101 Para um código de blocos linear sistemático 6 3 os três dígitos de verificação de paridade c 4 c 5 e c 6 são Construa uma adequada matriz geradora para esse código Construa o código gerado por essa matriz Determine a capacidade de correção de erros desse código Prepare uma tabela de decodificação apropriada Decodifique as seguintes palavras recebidas 101100 000110 101010 Construa uma tabela de código para o código 6 3 gerado pela matriz G no Exercício 1426 Prepare uma tabela de decodificação apropriada 14211 14212 14213 a b c d 14214 a b 1431 a b c d 1432 1433 1434 Construa um código de blocos linear 7 4 corretor de um erro código de Hamming e a correspondente tabela de decodificação Para o código 6 3 no Exemplo 141 a tabela de decodificação é dada na Tabela 143 Mostre que se usarmos essa tabela de decodificação e ocorrer um padrão de dois erros 010100 ou 001001 os erros não serão corrigidos Caso seja desejado corrigir um único padrão de dois erros 010100 e seis padrões de um erro construa uma tabela de decodificação apropriada e comprove que a mesma de fato corrige o padrão de dois erros 010100 e não é capaz de corrigir quaisquer outros padrões de dois erros Dado k 8 determine o mínimo valor de n para um código capaz de corrigir pelo menos um erro Escolha uma matriz geradora G para esse código Quantos erros duplos esse código é capaz de corrigir Construa uma tabela de decodificação síndromes e correspondentes padrões de erro corrigíveis Considere um código 6 2 gerado pela matriz Construa a tabela de código para esse código e determine a mínima distância entre palavras de código Prepare uma tabela de decodificação apropriada Sugestão Esse código é capaz de corrigir todos os padrões de erro simples sete padrões de dois erros e dois padrões de erros triplos Escolha os desejados sete padrões de erros duplos e os dois padrões de erros triplos Use o polinômio gerador gx x 3 x 1 para construir um código cíclico 7 4 sistemático Qual é a capacidade de correção de erros desse código Construa a tabela de decodificação Se a palavra recebida for 1101100 determine a palavra de dados transmitida Um código de Golay 23 12 corretor de três erros é um código cíclico com um polinômio gerador Determine as palavras de código para os vetores de dados 000011110000 101010101010 e 11000101011110 Fatore o polinômio Sugestão Um polinômio de terceira ordem deve ter um fator de primeiro grau Os únicos polinômios de primeiro grau que são primos não fatoráveis são x e x 1 Como x não é um fator do polinômio dado tente x 1 Divida x 3 x 2 x 1 por x 1 O conceito explicado no Exercício 1433 pode ser estendido para fatorar um polinômio de grau arbitrário Usando essa técnica fatore Sugestão Deve haver pelo menos um fator de primeiro grau Tente dividir pelos dois polinômios primos de primeiro grau x e x 1 O dado polinômio do quinto grau pode agora ser expresso como φ 1 xφ 4 x 1435 1436 a b 1437 a b a b c em que φ 1 x é um polinômio de primeiro grau e φ 4 x um polinômio de quarto grau que pode ou não conter um fator de primeiro grau Tente dividir φ 4 x por x e x 1 Se não funcionar deve haver dois polinômios do segundo grau que sejam primos Os possíveis polinômios do segundo grau são x 2 x 2 1 x 2 x e x 2 x 1 Determine quais são primos não divisíveis por x ou x 1 A seguir tente dividir φ 4 x por esses polinômios primos do segundo grau Se nenhum for um fator φ 4 x deve ser um polinômio primo do quarto grau com fatores φ 1 x e φ 4 x Use o conceito explicado no Exercício 1434 para fatorar um polinômio de sétimo grau x 7 1 Sugestão Determine os fatores primos do primeiro segundo e terceiro graus Os possíveis polinômios do terceiro grau são x 3 x 3 1 x 3 x x 3 x 1 x 3 x 2 x 3 x 2 1 x 3 x 2 x e x 3 x 2 x 1 Veja a sugestão para o Exercício 1434 A Eq 1416 sugere um método para construir uma matriz geradora G para um código cíclico em que gx g 1 x n k g 2 x n k1 g n k1 é o polinômio gerador Em geral esse é um código cíclico não sistemático Para um código cíclico 7 4 corretor de um erro simples com um polinômio gerador gx x 3 x 2 1 determine G e construa esse código Comprove que esse código é idêntico ao deduzido no Exemplo 143 Tabela 144 A matriz geradora G para um código cíclico sistemático Exercício 1436 pode ser obtida da observação de que a adição de qualquer linha de uma matriz geradora a qualquer outra linha produz uma nova matriz geradora válida pois a palavra de código é formada por combinações lineares de dígitos de dados Além disso para um código sistemático a matriz geradora deve ter uma matriz identidade I k nas primeiras k colunas Uma matriz desse tipo é formada passo a passo como indicado a seguir Observe que no Exercício 1436 cada linha em G é um deslocamento à esquerda da linha imediatamente abaixo e a última linha é gx Inicie com a késima última linha gx Como gx é de grau n k essa linha tem o elemento 1 na késima coluna como necessário Para a k 1ésima linha use a última linha com um deslocamento à esquerda Para formar I k é necessário que a k 1ésima linha tenha um 0 na késima coluna Se houver um 0 na késima coluna dessa k 1ésima linha a mesma deve ser aceita como uma k 1ésima linha válida Caso contrário a késima linha deve ser adicionada à k 1ésima linha para que um 0 seja obtido na késima coluna A linha resultante é a k 1ésima linha final Essa linha com um deslocamento à esquerda produzirá a k 2ésima linha Caso a nova k 2ésima linha não tenha um 0 na késima coluna a ela deve ser adicionada a késima última linha para que o desejado 0 seja obtido Esse procedimento é repetido até que todas as k linhas tenham sido formadas Isso produz a matriz geradora para um código cíclico n k sistemático Para um código cíclico 7 4 sistemático corretor de erro simples com polinômio gerador gx x 3 x 2 1 determine G e construa o código Comprove que esse código é idêntico ao na Tabela 145 Exemplo 144 Use o polinômio gerador gx x 3 x 1 para determinar a matriz geradora G para um código cíclico 7 4 não sistemático Determine o código gerado por esta matriz G Determine a capacidade de correção de erros desse código 1439 14310 14311 a b c 1441 a b a 1442 1451 1452 a b Use o polinômio gerador gx x 3 x 1 Exercício 1438 para determinar a matriz geradora G para um código cíclico 7 4 sistemático Discuta a capacidade de correção de erros de um código cíclico λn λk entrelaçado com λ 10 e usando um código BCH 31 16 corretor de três erros O polinômio gerador gera um código 15 5 BCH cíclico Determine a matriz geradora de código cíclico Para o dado de entrada do codificador d 10110 determine a correspondente palavra de código Determine quantos erros esse código é capaz de corrigir Um dado não codificado é transmitido com uso de PSK em um canal AWGN com E b N 9 Este dado é então codificado com um código de Golay 23 12 corretor de três erros Exercício 1411 e transmitido pelo mesmo canal às mesmas taxa de dados e potência de transmissão Determine as probabilidades de erro P eu e P ec para os sistemas não codificado e codificado respectivamente Caso seja desejado alcançar a probabilidade de erro P ec calculada na parte com o sistema não codificado via aumento da potência transmitida determine o necessário valor de E b N O código simples para detecção de erros em rajada Fig 144 também pode com pequena modificação ser usado como código corretor de erro simples Os k dígitos de dados são divididos em grupos de b dígitos de comprimento como na Fig 144 A cada grupo é adicionado um dígito de verificação de paridade de modo que cada segmento tenha b 1 dígitos b dígitos de dados e um dígito de verificação de paridade O dígito de verificação de paridade é escolhido para assegurar que o número total de 1s em cada segmento de b 1 dígitos seja par Considere esses dígitos como novos dados e os aumente com o último segmento de b 1 dígitos de verificação de paridade como feito na Fig 144 Os dados serão transmitidos da seguinte forma Mostre que esse código 30 20 é capaz de corrigir erros simples e também de detectar uma rajada de comprimento 5 Para o codificador convolucional na Fig 145 os bits recebidos são 01 00 01 00 10 11 11 00 Use o algoritmo de Viterbi e o diagrama em treliças na Fig 148 para decodificar essa sequência Para o codificador convolucional na Fig E1452 Desenhe os diagramas de estado e em treliças e determine a sequência de dígitos de saída para os dígitos de dados 11010100 Use o algoritmo de Viterbi para decodificar as seguintes sequências recebidas 1453 a b c 1461 a b Figura E1452 Um codificador convolucional recursivo e sistemático Fig E1453 gera um código de taxa 12 Em contraste com exemplos anteriores esse codificador é recursivo com ramos de alimentação Todavia é possível o uso de simples diagramas de estado e em treliças para representar esse codificador O decodificador de Viterbi de máxima verossimilhança também se aplica Denote o valor de estado como d k 1 d k 2 Ilustre o diagrama de transições de estados desse codificador Determine o correspondente diagrama em treliças Para uma sequência de dados de entrada 0100110100 determine a correspondente palavra de código Figura E1453 Um código de blocos tem a seguinte matriz de verificação de paridade Determine a matriz geradora de código para esse código Determine a distância mínima c 1462 a b c Determine o diagrama em treliças Para o código de blocos do Exercício 1429 Determine a matriz geradora de código Determine a distância mínima Determine o diagrama em treliças Distância de Hamming e esfera de Hamming são definidas no Capítulo 13 Pode ser mostrado que para códigos cíclicos o polinômio gerador deve ter essa forma Para um código sistemático um dos dígitos de saída deve ser o próprio dígito de dado Em geral em vez de deslocar um dígito por vez b dígitos podem ser deslocados ao mesmo tempo Nesse caso η bℓ A operação ꞏ é conhecida como piso Em particular x significa o maior inteiro menor ou igual a x Um processo aleatório x k é um processo de Markov se sua probabilidade condicional satisfizer Em outras palavras um processo de Markov tem uma memória muito curta Toda a informação relevante a x k correspondente a toda sua história é disponível em seu passado imediato x k1 APÊNDICE A ORTOGONALIDADE DE ALGUNS CONJUNTOS DE SINAIS A1 Ortogonalidade do Conjunto de Sinais Trigonométricos Consideremos a integral I definida por em que significa integração em qualquer intervalo contíguo de T 0 2πω 0 segundos Usando uma identidade trigonométrica Apêndice E a Eq A1a pode ser expressa como Como cos ω 0t executa um ciclo completo em qualquer intervalo de T 0 segundos cos n mω 0t executa n m ciclos completos em qualquer intervalo com duração de T 0 segundos Portanto a primeira integral na Eq A1b que representa a área sob n m ciclos completos de uma senoide é igual a zero O mesmo argumento mostra que a segunda integral na Eq A1b também é zero exceto quando n m Portanto I na Eq A1b é zero para todo n m Quando n m a primeira integral na Eq A1b continua igual a zero mas a segunda integral fornece Assim Podemos usar argumento similar para mostrar que e A2 Ortogonalidade do Conjunto de Sinais Exponenciais O conjunto de exponenciais n 0 1 2 é ortogonal em qualquer intervalo de duração T 0 ou seja Seja I a integral no lado esquerdo da Eq A3 O caso m n é trivial o integrando é a unidade de modo que I T 0 Todavia quando m H n O último resultado advém de ω 0T 0 2π e e j 2πk 1 para todos os valores inteiros de k APÊNDICE B DESIGUALDADE DE CAUCHYSCHWARZ Provemos a seguinte desigualdade de CauchySchwarz para um par de sinais de energia finita ft e gt em que a igualdade ocorre somente se gt cft sendo c uma constante arbitrária A desigualdade de CauchySchwarz para funções de valores complexos e energia finita Xω e Yω é dada por em que a igualdade ocorre somente se Yω cXω sendo c uma constante arbitrária Podemos provar a Eq B1 da seguinte maneira para qualquer valor real de λ sabemos que ou Como essa equação quadrática em λ é não negativa para qualquer valor de λ seu discriminante deve ser não positivo e a Eq B1 segue Se o discriminante for zero então para algum valor de λ c a forma quadrática se torna igual a zero Isso é possível somente se cft gt 0 e o resultado segue Para provar a Eq B2 observemos que Xω e Yω são funções reais de modo que a desigualdade na Eq B1 se aplica Logo em que a igualdade ocorre somente se Yω cXω sendo c uma constante arbitrária Agora recordemos que em que a igualdade ocorre somente se Yω cX ω sendo c uma constante arbitrária A Eq B2 segue imediatamente das Eq B5 e B6 APÊNDICE C ORTOGONALIZAÇÃO DE GRAMSCHMIDT DE UM CONJUNTO DE VETORES Definimos a dimensionalidade de um espaço vetorial como o máximo número de vetores independentes no espaço Assim em um espaço de N dimensões não pode haver mais que N vetores independentes Alternativamente sempre é possível encontrar um conjunto de N vetores independentes Uma vez que um conjunto tenha sido escolhido qualquer vetor nesse espaço pode ser expresso em termos dos vetores nesse conjunto como uma combinação linear dos mesmos Esse conjunto forma o que comumente chamamos de conjunto de base que define o sistema de coordenadas Tal conjunto de N vetores independentes não é de modo algum único O leitor deve ter familiaridade com essa propriedade no espaço físico de três dimensões no qual é possível encontrar um número infinito de conjuntos independentes de três vetores Isso fica claro pelo fato de ser possível definir um número infinito de sistemas de coordenadas Um conjunto ortogonal no entanto é de interesse especial por ser de tratamento mais fácil que um conjunto não ortogonal Se tivermos um conjunto de N vetores independentes a partir deles é possível obter outro conjunto de N vetores independentes que é ortogonal Isso é feito com o procedimento de ortogonalização de Gram Schmidt Na dedução a seguir usamos o resultado obtido na Eq 227 que diz que a projeção ou componente de um vetor x 2 na direção de outro vetor x 1 Fig C1 é c 12x 1 em que O erro nessa aproximação é o vetor x 2 c 12x 1 ou seja O vetor de erro mostrado tracejado na Fig C1 é ortogonal ao vetor x 1 Para um entendimento físico desse procedimento consideremos um caso simples de espaço bidimensional Sejam x 1 e x 2 dois vetores independentes em um espaço bidimensional Fig C1 Desejamos gerar a partir de x 1 e x 2 um novo conjunto de dois vetores ortogonais y 1 e y 2 Por conveniência escolhamos Agora busquemos um vetor y 2 que seja ortogonal a y 1 e a x 1 A Fig C1 mostra que o vetor de erro na aproximação de x 2 por y 1 linhas tracejadas é ortogonal a y 1 e pode ser tomado como y 2 Figura C1 Procedimento de GramSchmidt para um caso bidimensional Exemplo C1 Logo As Eqs C3 e C4 fornecem o desejado conjunto ortogonal Reparemos que esse conjunto não é único Há um número infinito de conjuntos de vetores ortogonais y 1 y 2 que podem ser gerados de x 1 x 2 Em nossa dedução poderíamos ter começado com y x 2 em vez de y 1 x 1 Esse ponto de partida produziria um conjunto totalmente diferente O leitor pode estender esses resultados ao caso tridimensional Se vetores x 1 x 2 e x 3 formarem um conjunto independente nesse espaço podemos formar vetores y 1 e y 2 como nas Eqs C3 e C4 Para determinar y 3 aproximamos x 3 em termos dos vetores y 1 e y 2 O erro nessa aproximação deve ser ortogonal a y 1 e a y 2 e portanto pode ser tomado como o vetor ortogonal y 3 Assim Esses resultados podem ser estendidos a um espaço de N dimensões Em geral dados N vetores independentes x 1 x 2 x N se procedermos por linhas semelhantes às anteriores podemos obter um conjunto ortogonal y 1 y 2 y N em que e Reparemos que esse é um dos infinitos conjuntos ortogonais que podem ser obtidos a partir de x 1 x 2 x N Além disso esse não é um conjunto ortonormal O conjunto ortonormal pode ser obtido por normalização dos comprimentos dos respectivos vetores Podemos aplicar esses conceitos ao espaço de sinais pois existe uma correspondência biunívoca entre sinais e vetores Se tivermos N sinais independentes x 1t x 2t x N t podemos formar um conjunto de N sinais ortogonais y 1t y 2t y N t em que Reparemos que esse é um dos infinitos conjuntos ortogonais que podem ser formados a partir do conjunto x 1t x 2t x N t O conjunto pode ser normalizado dividindo cada sinal y jt por sua energia Os sinais exponenciais formam um conjunto de sinais independentes no espaço de N dimensões em que N pode ser um inteiro qualquer Todavia esse conjunto não é ortogonal Podemos usar o procedimento de GramSchmidt para obter um conjunto ortogonal para esse espaço Seja y 1t y 2t y N t o desejado conjunto de base ortogonal escolhamos Das Eqs C8 e C9 temos em que Logo Do mesmo modo prosseguimos com a determinação das funções restantes y 3t y N t e assim por diante O leitor pode comprovar que esse é um conjunto mutuamente ortogonal APÊNDICE D PROPRIEDADES BÁSICAS MATRIZES E OPERAÇÕES COM MATRIZES D1 Notação Um vetorcoluna x n 1 consiste em n entradas e é formado por O transposto de x é um vetorlinha representado por O transposto conjugado de x também é um vetorlinha escrito como x H também é conhecido como hermitiano de x Uma matriz m n consiste em n vetorescoluna Também definimos a transposta e a hermitiana de A como respectivamente Se A T A dizemos que A é uma matriz simétrica Se A H A dizemos que A é uma matriz hermitiana Se A H A e A tiver apenas entradas reais será hermitiana e simétrica D2 Produto de Matrizes e Suas Propriedades Para uma matriz A m n e uma matriz B n ℓ com a matriz resultante do produto C Aꞏ B tem dimensão m ℓ e é dada por Em geral AB BA Na verdade os produtos podem nem mesmo ser bem definidos Para que possamos multiplicar A e B o número de colunas de A deve ser igual ao número de linhas de B Em particular o produto de um vetorlinha por um vetorcoluna é Portanto x H x x 2 Dois vetores x e y são ortogonais de y H x x H y 0 O produto de matrizes tem diversas propriedades de uso frequente D3 Matrizes Identidade e Diagonal Uma matriz quadrada n n é diagonal se todas as entradas fora da diagonal forem zero Uma matriz identidade I n tem entradas diagonais unitárias Para uma matriz quadrada A n n se existir uma matriz quadrada B n n tal que então é a inversa de A Por exemplo dada uma matriz diagonal D4 Determinante de Matriz Quadrada O determinante de uma matriz quadrada A n n é definido recursivamente por em que M ij é um matriz n 1 n 1 conhecida como o menor de A obtida pela eliminação da iésima linha e jésima coluna de A Especificamente para uma matriz 2 2 Como base na definição de determinante para um escalar α Para uma matriz identidade Para duas matrizes quadradas A e B Portanto Para uma matriz A m n e uma matriz B n m temos D5 Traço O traço de uma matriz quadrada A é a soma de suas entradas diagonais Para uma matriz A m Ø n e uma matriz B n Ø m temos D6 Autodecomposição Se uma matriz quadrada A n n for hermitiana a equação específica um autovalor λ e o associado autovetor u Quando A é hermitiana seus autovalores são números reais Além disso A pode ser decomposta como em que a matriz consiste em autovetores ortogonais tal que Matrizes que satisfazem essa igualdade são denominadas matrizes unitárias Além disso a matriz diagonal consiste nos correspondentes autovalores de A Como também podemos escrever Os autovalores de A têm características muito úteis Em particular D7 Matrizes Quadradas Hermitianas Especiais Seja uma matriz A n n hermitiana A é positiva definida se para qualquer vetor x 0 n 1 tivermos A é positiva semidefinida se para qualquer vetor x n 1 tivermos A é negativa definida se para qualquer vetor x 0 n 1 tivermos A é positiva definida se e somente se todos seus autovalores forem positivos APÊNDICE E MISCELÂNEA E1 Regra de LHôpital Caso lim fxgx resulte na forma indeterminada 00 ou E2 Séries de Taylor e de Maclaurin E3 Séries de Potências E4 Somas E5 Números Complexos E6 Identidades Trigonométricas fracxx2 a2 dx frac12lnx2 a2