·

Engenharia Elétrica ·

Transmissão de Dados

· 2021/1

Send your question to AI and receive an answer instantly

Ask Question

Recommended for you

Preview text

2021-1 IF65F – Transmissão de Dados Prof. Eduardo Alves Hodgson hodgson@utfpr.edu.br Capacidade do Canal UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ Câmpus Cornélio Procópio IF65F Transmissão de Dados 2 Tópicos ❑ Capacidade do canal discreto ❑ Capacidade do canal Gaussiano contínuo Qual a máxima taxa possível teórica em bps que posso transmitir em um canal de forma confiável? → Capacidade do canal IF65F Transmissão de Dados 3 Tópicos ❑ Capacidade do canal discreto ❑ Capacidade do canal Gaussiano contínuo IF65F Transmissão de Dados 4 Canais discreto sem memória Antes de apresentar a Capacidade do Canal, precisamos definir canal discreto sem memória: ✓ Dado um canal de comunicação (par trançado, sem fio, etc.) com sinalização 𝑋 discreta. Por exemplo, a saída de um transmissor 8-PAM: {𝑥0 = 7, 𝑥1 = 5, … 𝑥𝐽−2 = −5, 𝑥𝑗−1 = −7}. ✓ 𝑋 é uma variável aleatória discreta que pode variar entre {𝑥0, 𝑥1, … , 𝑥𝐽−2, 𝑥𝑗−1}. Introdução à capacidade do canal IF65F Transmissão de Dados 5 Canais discreto sem memória Antes de apresentar a Capacidade do Canal, precisamos definir canal discreto sem memória: ✓ Dado um canal de comunicação (par trançado, sem fio, etc.) com sinalização 𝑋 discreta. Por exemplo, a saída de um transmissor 8-PAM: {𝑥0 = 7, 𝑥1 = 5, … 𝑥𝐽−2 = −5, 𝑥𝑗−1 = −7}. ✓ A saída ruidosa do canal 𝑌 (ou entrada do receptor) é dita sem memória quando 𝑌 depender apenas do atual valor de 𝑋, e não dos anteriores. Introdução à capacidade do canal +7 -5 -7 +5 +3 -3 ... +7,18 -4,71 -7,1 +5,89 +3,04 -3,55 ... Transmissor 8-PAM Receptor 8-PAM Canal com ruído IF65F Transmissão de Dados 6 Canais discreto sem memória 𝑝(𝑥𝑗) é a probabilidade de se obter o símbolo 𝑥𝑗 na saída da fonte. 𝑝(𝑦𝑘) é a probabilidade de se obter o símbolo 𝑦𝑘 na saída do canal. A probabilidade de se obter o símbolo 𝒚𝒌 dado que 𝒙𝒋 foi enviado é: 𝑝 𝑦𝑘 𝑥𝑗 = 𝑝 𝑌 = 𝑦𝑘 𝑋 = 𝑥𝑗 Introdução à capacidade do canal 𝑝(𝑥0) 𝑝(𝑥1) 𝑝(𝑥𝐽−1) 𝑝(𝑦0) 𝑝(𝑦1) 𝑝(𝑦𝐾−1) IF65F Transmissão de Dados 7 Canais discreto sem memória Conhecendo-se 𝑝(𝑥), logo, é possível obter 𝑝 𝑦𝑘 : 𝑝(𝑦𝑘) = ෍ 𝑗=0 𝐽−1 𝑝 𝑦𝑘 𝑥𝑗 𝑝(𝑥𝑗) Com estes conceitos, podemos analisar Capacidade de Canal. Introdução à capacidade do canal 𝑝(𝑥0) 𝑝(𝑥1) 𝑝(𝑥𝐽−1) 𝑝(𝑦0) 𝑝(𝑦1) 𝑝(𝑦𝐾−1) IF65F Transmissão de Dados 8 Capacidade de Canal A capacidade de canal representa a máxima taxa de informação (em bits por símbolo do canal ou em bps) que pode ser transmitida de maneira confiável através de um canal de transmissão digital. • Em canais como muito ruído, a capacidade do canal é menor, sendo necessário utilizar códigos corretores de erro (códigos de canal). Introdução à capacidade do canal IF65F Transmissão de Dados 9 Capacidade de Canal A capacidade de canal representa a máxima taxa de informação (em bits por símbolo do canal ou bps) que pode ser transmitida de maneira confiável através de um canal de transmissão digital. • Em canais como muito ruído, a capacidade do canal é menor, sendo necessário utilizar códigos corretores de erro (códigos de canal). Para calcular a capacidade do canal discreto (transmissão digital) é preciso definir: 1. Entropia condicional 𝐻 𝒳|𝒴 2. Informação mútua 𝐼(𝒳, 𝒴) Introdução à capacidade do canal IF65F Transmissão de Dados 10 Capacidade de Canal Informação mútua 𝐼(𝒳, 𝒴): representa a quantidade de informação sobre a entrada 𝑋 do canal que é resolvida após observarmos a saída 𝑌 do canal. 𝐼 𝒳, 𝒴 = 𝐻 𝒳 − 𝐻 𝒳|𝒴 𝐼 𝒳, 𝒴 = ෍ 𝑘=0 𝐾−1 ෍ 𝑗=0 𝐽−1 𝑝(𝑦𝑘|𝑥𝑗)𝑝 𝑥𝑗 log2 𝑝(𝑦𝑘|𝑥𝑗) 𝑝(𝑦𝑘) Logo, a capacidade do canal (em bits por utilização do canal ou bits por símbolo) de um canal discreto sem memória é a informação mútua média máxima 𝐼 𝒳, 𝒴 onde a maximização ocorre sobre todas as distribuições de probabilidade de entrada possíveis 𝑝(𝑥𝑗) em 𝒳, ou seja: 𝐶 = max {𝑝(𝑥𝑗)} 𝐼(𝒳, 𝒴) Note que 𝐼 𝒳, 𝒴 depende apenas de 𝑝(𝑦𝑘|𝑥𝑗). Informação mútua e Capacidade do Canal IF65F Transmissão de Dados 11 Capacidade de Canal Entropia condicional 𝐻 𝒳|𝒴 Já vimos que a entropia 𝐻 𝒳 é a medida de quantidade de informação média que eu ganho ao observar a fonte 𝑋. 𝐻 𝒳|𝒴 é a medida de quantidade informação média obtida ao observar 𝑿 dado que já observarmos a saída do canal 𝒀. Entropia condicional 𝐻 𝒳 𝐻 𝒳|𝒴 IF65F Transmissão de Dados 12 Capacidade de Canal Entropia condicional 𝐻 𝒳|𝒴 Já vimos que a entropia 𝐻 𝒳 é a medida de quantidade de informação média que eu ganho ao observar a fonte 𝑋. 𝐻 𝒳|𝒴 é a medida de quantidade informação média obtida ao observar 𝑿 dado que já observarmos a saída do canal 𝒀. • Com um canal sem ruído, 𝑌 = 𝑋. • Portanto, não existe nenhuma informação ao ver 𝑿 depois de observar 𝑌. Ou seja, 𝐻 𝒳|𝒴 = 0. • Em um canal com ruído muito alto, a saída 𝑌 do canal é muito diferente de 𝑋. • Logo, existe muita informação ao observar 𝑿 depois de observar 𝑌. Logo, 𝐻 𝒳|𝒴 = 𝐻 𝒳 se 𝑌 não ajudar em nada. Entropia condicional IF65F Transmissão de Dados 13 Capacidade de Canal Relembrando, a entropia da fonte de informação 𝑋 é: 𝐻 𝒳 = ෍ 𝑗=0 𝐾−1 𝑝(𝑥𝑗)log2 1 𝑝(𝑥𝑗) Entropia condicional IF65F Transmissão de Dados 14 Capacidade de Canal Relembrando, a entropia da fonte de informação 𝑋 é: 𝐻 𝒳 = ෍ 𝑗=0 𝐾−1 𝑝(𝑥𝑗)log2 1 𝑝(𝑥𝑗) A entropia condicional de 𝑋 dado que 𝑌 = 𝑦𝑘 foi recebido é: 𝐻 𝒳|𝑌 = 𝑦𝑘 = ෍ 𝑗=0 𝐽−1 𝑝(𝑥𝑗|𝑦𝑘)log2 1 𝑝(𝑥𝑗|𝑦𝑘) Entropia condicional IF65F Transmissão de Dados 15 Capacidade de Canal Relembrando, a entropia da fonte de informação 𝑋 é: 𝐻 𝒳 = ෍ 𝑗=0 𝐾−1 𝑝(𝑥𝑗)log2 1 𝑝(𝑥𝑗) A entropia condicional de 𝑋 dado que 𝑌 = 𝑦𝑘 foi recebido é: 𝐻 𝒳|𝑌 = 𝑦𝑘 = ෍ 𝑗=0 𝐽−1 𝑝(𝑥𝑗|𝑦𝑘)log2 1 𝑝(𝑥𝑗|𝑦𝑘) Logo, a entropia condicional 𝑯 𝓧|𝓨 será a média de 𝐻 𝒳|𝑌 = 𝑦𝑘 sobre o todos valores de 𝑌, ponderada pela probabilidade 𝑝 𝑦𝑘 : 𝐻 𝒳|𝒴 = ෍ 𝑘=0 𝐾−1 𝐻 𝒳|𝑌 = 𝑦𝑘 𝑝 𝑦𝑘 𝐻 𝒳|𝒴 = ෍ 𝑘=0 𝐾−1 ෍ 𝑗=0 𝐽−1 𝑝(𝑥𝑗|𝑦𝑘) log2 1 𝑝(𝑥𝑗|𝑦𝑘) 𝑝 𝑦𝑘 Entropia condicional IF65F Transmissão de Dados 16 Capacidade de Canal Informação mútua 𝐼(𝒳, 𝒴): representa a quantidade de informação sobre a entrada 𝑋 do canal que é resolvida após observarmos a saída 𝑌 do canal. 𝐼 𝒳, 𝒴 = 𝐻 𝒳 − 𝐻 𝒳|𝒴 𝐼 𝒳, 𝒴 = ෍ 𝑘=0 𝐾−1 ෍ 𝑗=0 𝐽−1 𝑝(𝑦𝑘|𝑥𝑗)𝑝 𝑥𝑗 log2 𝑝(𝑦𝑘|𝑥𝑗) 𝑝(𝑦𝑘) Logo, a capacidade do canal (em bits por utilização do canal ou bits por símbolo) de um canal discreto sem memória é a informação mútua média máxima 𝐼 𝒳, 𝒴 onde a maximização ocorre sobre todas as distribuições de probabilidade de entrada possíveis 𝑝(𝑥𝑗) em 𝒳, ou seja: 𝐶 = max {𝑝(𝑥𝑗)} 𝐼(𝒳, 𝒴) Note que 𝐼 𝒳, 𝒴 depende apenas de 𝑝(𝑦𝑘|𝑥𝑗). Informação mútua e Capacidade do Canal IF65F Transmissão de Dados 17 Capacidade de Canal Informação mútua 𝐼(𝒳, 𝒴): representa a quantidade de informação sobre a entrada 𝑋 do canal que é resolvida após observarmos a saída 𝑌 do canal. 𝐼 𝒳, 𝒴 = 𝐻 𝒳 − 𝐻 𝒳|𝒴 𝐼 𝒳, 𝒴 = ෍ 𝑘=0 𝐾−1 ෍ 𝑗=0 𝐽−1 𝑝(𝑦𝑘|𝑥𝑗)𝑝 𝑥𝑗 log2 𝑝(𝑦𝑘|𝑥𝑗) 𝑝(𝑦𝑘) Lembrando que: • 𝐻 𝒳|𝒴 = 0 em um canal sem ruído. Logo, a inf. mútua é máxima: • 𝐼 𝒳, 𝒴 = 𝐻 𝒳 bits • 𝐻 𝒳|𝒴 = 𝐻 𝒳 em um canal com muito ruído. Logo, 𝑌 não me ajuda em nada e a informação mútua é nula: • 𝐼 𝒳, 𝒴 = 𝐻 𝒳 − 𝐻 𝒳 = 0 bits Informação mútua e Capacidade do Canal IF65F Transmissão de Dados 18 Capacidade de Canal Exemplo: Canal binário simétrico (transmissor digital 2-PAM ou BPSK). • 𝑝 𝑥0 = 𝑝 𝑥1 = 𝑝 𝑦𝑜 = 𝑝 𝑦1 = 0,5. • 𝑝 𝑦0 𝑥0 = 𝑝 𝑦1 𝑥1 = 1 − 𝑝 • 𝑝 𝑦1 𝑥0 = 𝑝 𝑦0 𝑥1 = 𝑝 (prob. de erro de bit) Informação mútua e Capacidade do Canal (probabilidade de bit 0 enviado sem erro) (probabilidade de erro de bit) (probabilidade de erro de bit) (probabilidade de bit 1 enviado sem erro) Transmissor 2-PAM Receptor 2-PAM Canal ruidoso IF65F Transmissão de Dados 19 Capacidade de Canal Exemplo: Canal binário simétrico • 𝑝 𝑥0 = 𝑝 𝑥1 = 𝑝 𝑦𝑜 = 𝑝 𝑦1 = 0,5. • 𝑝 𝑦0 𝑥0 = 𝑝 𝑦1 𝑥1 = 1 − 𝑝 • 𝑝 𝑦1 𝑥0 = 𝑝 𝑦0 𝑥1 = 𝑝 (prob. de erro de bit) 𝐶 = 𝐼 𝒳, 𝒴 = ෍ 𝑘=0 𝐾−1 ෍ 𝑗=0 𝐽−1 𝑝(𝑦𝑘|𝑥𝑗)𝑝 𝑥𝑗 log2 𝑝(𝑦𝑘|𝑥𝑗) 𝑝(𝑦𝑘) Informação mútua e Capacidade do Canal IF65F Transmissão de Dados 20 Capacidade de Canal Exemplo: Canal binário simétrico • 𝑝 𝑥0 = 𝑝 𝑥1 = 𝑝 𝑦𝑜 = 𝑝 𝑦1 = 0,5. • 𝑝 𝑦0 𝑥0 = 𝑝 𝑦1 𝑥1 = 1 − 𝑝 • 𝑝 𝑦1 𝑥0 = 𝑝 𝑦0 𝑥1 = 𝑝 (prob. de erro de bit) 𝐶 = 𝐼 𝒳, 𝒴 = ෍ 𝑘=0 𝐾−1 ෍ 𝑗=0 𝐽−1 𝑝(𝑦𝑘|𝑥𝑗)𝑝 𝑥𝑗 log2 𝑝(𝑦𝑘|𝑥𝑗) 𝑝(𝑦𝑘) 𝐶 = 𝑝 𝑦0 𝑥0 𝑝 𝑥0 log2 𝑝(𝑦0|𝑥0) 𝑝(𝑦0) + 𝑝 𝑦1 𝑥0 𝑝 𝑥0 log2 𝑝(𝑦1|𝑥0) 𝑝(𝑦1) +𝑝 𝑦0 𝑥1 𝑝 𝑥1 log2 𝑝(𝑦0|𝑥1) 𝑝(𝑦0) + 𝑝 𝑦1 𝑥1 𝑝 𝑥1 log2 𝑝(𝑦1|𝑥1) 𝑝(𝑦1) 𝐶 = 1 − 1 − 𝑝 log2 1 1−𝑝 + 𝑝 log2 1 𝑝 𝐶 = 1 − 𝐻(𝑝) (apenas nesse exemplo!!) Informação mútua e Capacidade do Canal IF65F Transmissão de Dados 21 Capacidade de Canal Exemplo: Canal binário simétrico • 𝑝 𝑥0 = 𝑝 𝑥1 = 𝑝 𝑦𝑜 = 𝑝 𝑦1 = 0,5. • 𝑝 𝑦0 𝑥0 = 𝑝 𝑦1 𝑥1 = 1 − 𝑝 • 𝑝 𝑦1 𝑥0 = 𝑝 𝑦0 𝑥1 = 𝑝 (prob. de erro de bit) 𝐶 = 1 − 𝐻(𝑝) Informação mútua e Capacidade do Canal • Capacidade é máxima (𝐶 = 1 bit) para 𝑝 = 0 ou 𝑝 = 1. • Para 𝑝 = 0,5, a capacidade é mínima 𝐶 = 0. Nesse caso, o canal é considerado inutilizável. IF65F Transmissão de Dados 22 Capacidade de Canal Exemplo 2: Considere um transmissor binário (BPSK ou 2-PAM) com as probabilidades abaixo para um valor específico de SNR. Determine a capacidade do canal pela informação mútua 𝐼(𝑋;𝑌). • 𝑝 𝑥0 = Τ 1 3 , 𝑝 𝑥1 = Τ 2 3 • 𝑝 𝑦0 𝑥0 = 0,91, 𝑝 𝑦1 𝑥0 = 0,09 • 𝑝 𝑦0 𝑥1 = 0,09, 𝑝 𝑦1 𝑥1 = 0,91 Informação mútua e Capacidade do Canal IF65F Transmissão de Dados 23 Capacidade de Canal Exemplo 2: Considere um transmissor binário (BPSK ou 2-PAM) com as probabilidades abaixo para um valor específico de SNR. Determine a capacidade do canal pela informação mútua 𝐼(𝑋;𝑌). • 𝑝 𝑥0 = Τ 1 3 , 𝑝 𝑥1 = Τ 2 3 • 𝑝 𝑦0 𝑥0 = 0,91, 𝑝 𝑦1 𝑥0 = 0,09 • 𝑝 𝑦0 𝑥1 = 0,09, 𝑝 𝑦1 𝑥1 = 0,91 𝑝 𝑦𝑘 = ෍ 𝑗=0 𝐽−1 𝑝 𝑦𝑘 𝑥𝑗 𝑝 𝑥𝑗 𝑝 𝑦0 = ෍ 𝑗=0 𝐽−1 𝑝 𝑦0 𝑥𝑗 𝑝 𝑥𝑗 = 𝑝 𝑦0 𝑥0 𝑝 𝑥0 + 𝑝 𝑦0 𝑥1 𝑝 𝑥1 = 𝑝 𝑦0 = 0,91( Τ 1 3) + 0,09( Τ 2 3) = 0,3633 𝑝 𝑦1 = 1 − 𝑝 𝑦0 = 0,6367 Informação mútua e Capacidade do Canal IF65F Transmissão de Dados 24 Capacidade de Canal Exemplo 2: Considere um transmissor binário (BPSK ou 2-PAM) com as probabilidades abaixo para um valor específico de SNR. Determine a capacidade do canal pela informação mútua 𝐼(𝑋;𝑌). • 𝑝 𝑥0 = Τ 1 3 , 𝑝 𝑥1 = Τ 2 3 • 𝑝 𝑦0 𝑥0 = 0,91, 𝑝 𝑦1 𝑥0 = 0,09 • 𝑝 𝑦0 𝑥1 = 0,09, 𝑝 𝑦1 𝑥1 = 0,91 • 𝑝 𝑦0 = 0,3633, 𝑝 𝑦1 = 0,6367 𝐶 = ෍ 𝑘=0 𝐾−1 ෍ 𝑗=0 𝐽−1 𝑝(𝑦𝑘|𝑥𝑗)𝑝 𝑥𝑗 log2 𝑝(𝑦𝑘|𝑥𝑗) 𝑝(𝑦𝑘) 𝐶 = 𝑝 𝑦0 𝑥0 𝑝 𝑥0 log2 𝑝(𝑦0|𝑥0) 𝑝(𝑦0) + 𝑝 𝑦1 𝑥0 𝑝 𝑥0 log2 𝑝(𝑦1|𝑥0) 𝑝(𝑦1) +𝑝 𝑦0 𝑥1 𝑝 𝑥1 log2 𝑝(𝑦0|𝑥1) 𝑝(𝑦0) + 𝑝 𝑦1 𝑥1 𝑝 𝑥1 log2 𝑝(𝑦1|𝑥1) 𝑝(𝑦1) Informação mútua e Capacidade do Canal IF65F Transmissão de Dados 25 Capacidade de Canal Exemplo 2: Considere um transmissor binário (BPSK ou 2-PAM) com as probabilidades abaixo para um valor específico de SNR. Determine a capacidade do canal pela informação mútua 𝐼(𝑋;𝑌). • 𝑝 𝑥0 = Τ 1 3 , 𝑝 𝑥1 = Τ 2 3 • 𝑝 𝑦0 𝑥0 = 0,91, 𝑝 𝑦1 𝑥0 = 0,09 • 𝑝 𝑦0 𝑥1 = 0,09, 𝑝 𝑦1 𝑥1 = 0,91 • 𝑝 𝑦0 = 0,3633, 𝑝 𝑦1 = 0,6367 𝐶 = 0,4286 − 0,0747 − 0,1096 + 0,3296 = 0,51 bits por símbolo BPSK Informação mútua e Capacidade do Canal IF65F Transmissão de Dados 26 Capacidade de Canal Exemplo 2: Considere um transmissor binário (BPSK ou 2-PAM) com as probabilidades abaixo para um valor específico de SNR. Determine a capacidade do canal pela informação mútua 𝐼(𝑋;𝑌). • 𝑝 𝑥0 = Τ 1 3 , 𝑝 𝑥1 = Τ 2 3 • 𝑝 𝑦0 𝑥0 = 0,91, 𝑝 𝑦1 𝑥0 = 0,09 • 𝑝 𝑦0 𝑥1 = 0,09, 𝑝 𝑦1 𝑥1 = 0,91 • 𝑝 𝑦0 = 0,3633, 𝑝 𝑦1 = 0,6367 𝐶 = 0,4286 − 0,0747 − 0,1096 + 0,3296 = 0,51 bits por símbolo BPSK Ou seja, só consigo enviar 𝟎, 𝟓𝟏 bits para cada símbolo 2-PAM de forma confiável, ao invés de 1 bit por símbolo caso não houvesse ruído. Logo, preciso adicionar um código corretor de erros com 1 bit de redundância para conseguir enviar 1 bit de forma confiável. Transmitindo, assim, 2 × 𝐶 = 1,02 bits de informação a cada 2 símbolos PAM. Lógico que minha taxa de bits 𝑅𝑏 cairá pela metade neste caso. Informação mútua e Capacidade do Canal IF65F Transmissão de Dados 27 Capacidade do Canal Definições Capacidade de canais discretos (digitais) utilizando informação mútua em bits por utilização do canal (bit por símbolo) versus SNR. Cada modulação digital satura a sua capacidade do canal (𝐶) na sua máxima taxa de bits por símbolo 𝑘 = log2 𝑀. Ex: 64-QAM satura em 6 bits/símbolo. Para 𝐶 < 𝑘, é preciso utilizar código de canal (com bits redundantes). IF65F Transmissão de Dados 28 Capacidade do Canal Definições Exemplo3: Para uma modulação de 16-QAM com SNR de 20 dB, é possível enviar o valor máximo de bits por símbolo: log2 16 = 4 bits por símbolo sem código corretor de erros. Com uma SNR perto de 6 dB, o ruído do canal está bem maior, fazendo com que a capacidade do canal caia para 𝐶 = 2 bits por símbolo. Logo, para enviar bits de forma confiável, precisamos utilizar um código de canal que duplique o número de bits com redundância para corrigir erros. A taxa de código será teoricamente no mínimo: 𝑟 = 𝑘 𝑛 = 4 8 = 0,5 Assim, dos 4 bits do 16-QAM, 2 bits são de informação e 2 de paridade (redundância). IF65F Transmissão de Dados 29 Tópicos ❑ Capacidade do canal discreto ❑ Capacidade do canal Gaussiano contínuo IF65F Transmissão de Dados 30 Capacidade do Canal Gaussiano Considere um canal Gaussiano limitado em banda 𝐵 e potência 𝑃 com uma fonte 𝑋𝑘 contínua de tempo discreto (amplitudes contínuas). • A variável aleatória 𝑋𝑘 transmitida no canal é perturbado por ruído Gaussiano branco aditivo (AWGN) de média zero e densidade espectral de potência 𝑁0/2. Logo, o sinal recebido é: 𝑌𝑘 = 𝑋𝑘 + 𝑁𝑘 • O ruído também é limitado em largura de banda 𝐵, logo, a variância do ruído é 𝜎2 = 𝑁0𝐵 • A potência do sinal é o valor médio quadrático 𝐸 𝑋𝑘 2 = 𝑃. Definições IF65F Transmissão de Dados 31 Capacidade do Canal Gaussiano Relembrando, a capacidade de um canal é o valor máximo da informação mútua média 𝐼 𝒳, 𝒴 entre 𝑋𝑘 e 𝑌𝑘: 𝐶 = max {𝑓𝑋𝑘(𝑥)}{𝐼 𝒳, 𝒴 : 𝐸 𝑋𝑘 2 = 𝑃} onde a maximização é obtida com a distribuição de probabilidade 𝑓𝑋𝑘(𝑥) da fonte 𝑋𝑘. Logo, a capacidade do canal Gaussiano é: 𝐶 = 1 2 log2 1 + 𝑃 𝑁0𝐵 bits por símbolo do canal onde a distribuição dos símbolos da fonte 𝑓𝑋𝑘(𝑥) que maximiza 𝐼 𝒳, 𝒴 é Gaussiana também. Definições IF65F Transmissão de Dados 32 Capacidade do Canal Gaussiano 𝐶 = 1 2 log2 1 + 𝑃 𝑁0𝐵 bits por símbolo do canal Considere que o transmissor envia 𝐾 símbolos 𝑋𝑘 à taxa de Nyquist de 2𝐵 símbolos por segundos durante 𝑇 segundos, logo: 𝐾 = 2𝐵𝑇 Multiplicando 𝐶 acima por 𝐾/𝑇 para obter a capacidade em bps, temos que 𝐾/𝑇 = 2𝐵. Logo a capacidade do canal Gaussiano em bps é: 𝐶 = 𝐵 log2 1 + 𝑃 𝑁0𝐵 bits por segundo Definições IF65F Transmissão de Dados 33 Capacidade do Canal Gaussiano 3º Teorema de Shannon (o mais famoso) A capacidade de informação de um canal contínuo de largura de banda de 𝐵 hertz, perturbado por ruído AWGN com densidade espectral 𝑁0/2 e limitado em largura de banda a 𝐵, é dada por 𝐶 = 𝐵 log2 1 + 𝑃 𝑁0𝐵 bits por segundo 3º Teorema de Shannon IF65F Transmissão de Dados 34 Capacidade do Canal Gaussiano Definições • Capacidade do canal contínuo Gaussiano em bits por uso (por símbolo) do canal log2(1 + 𝑆𝑁𝑅). • Capacidade de canais discretos digitais utilizando informação mútua. Em função da SNR (energia de símbolo/ variância do ruído) Lembrando que uma transmissão acima da capacidade do canal é inviável. Ou seja, é impossível recuperar os bits transmitidos acima da capacidade do canal com qualquer código corretor de erros. IF65F Transmissão de Dados 35 Capacidade do Canal Gaussiano Definições Taxa de transmissão em bps/Hz de códigos corretores de erro LDPC, TPC (turbo), Viterbi (convolucional) com diferentes taxas de código (𝑟 = 𝑘/𝑛) comparados com a capacidade téorica do QPSK e do 8-PSK, em função de 𝐸𝑏/𝑁0. IF65F Transmissão de Dados 36 Capacidade do Canal Gaussiano Definições Códigos corretores práticos apenas se aproximam do limite máximo teórico da capacidade do canal. Quanto mais próximo da capacidade, mais complexo, mais longo e mais pesado é o código. IF65F Transmissão de Dados 39 Com isso, vimos os 3 teoremas de Shannon: História da comunicação 1948 IF65F Transmissão de Dados 40 Exemplo: a) Calcule a capacidade de informação do canal telefônico (3,4 kHz) para uma SNR de 30 dB. b) Calcule a SNR mínima necessária para suportar uma transmissão de informação de 9600 bps. c) Calcule a capacidade do canal Wi-Fi (22MHz) para 30 dB de SNR. d) Calcule a capacidade da fibra ótica monomodo (1THz) para 30 dB de SNR. 𝐶 = 𝐵 log2 1 + 𝑃 𝑁0𝐵 = 𝐵 log2 1 + 𝑆𝑁𝑅 bps Capacidade do Canal Gaussiano IF65F Transmissão de Dados 41 Exemplo: a) Calcule a capacidade de informação do canal telefônico (3,4 kHz) para uma SNR de 30 dB. b) Calcule a SNR mínima necessária para suportar uma transmissão de informação de 9600 bps. c) Calcule a capacidade do canal Wi-Fi (22MHz) para 30 dB de SNR. d) Calcule a capacidade da fibra ótica monomodo (1THz) para 30 dB de SNR. a)𝐶 = 𝐵 log2 1 + 𝑃 𝑁0𝐵 = 3400 log2 1 + 1030/10 = 33,8 kbps b) 2𝐶/𝐵 = 1 + 𝑆𝑁𝑅 𝑆𝑁𝑅 = 2𝐶/𝐵 − 1 = 2 9600 3400 − 1 = 6,07 = 7,83 dB c) 𝐶 = 22.106 log2 1 + 1030/10 = 219,27 Mbps d) 𝐶 = 1.1012 log2 1 + 1030/10 = 9,96 Tbps Capacidade do Canal Gaussiano