·

Matemática ·

Álgebra Linear

Envie sua pergunta para a IA e receba a resposta na hora

Fazer Pergunta

Texto de pré-visualização

i i ALinear 20051219 1325 page i 1 i i i i i i Em memória de Eliana Farias Bueno Inesquecível esposa eterna amiga Miriam Claudia und Georg Müller gewidmet i i ALinear 20051219 1325 page ii 2 i i i i i i i i ALinear 20051219 1325 page iii 3 i i i i i i Prefácio Este texto é dirigido a alunos de um segundo curso de Álgebra Linear Apesar de todos os conceitos estarem definidos noções básicas sobre o espaço Rn são supostas conhecidas e portanto têm apresentação concisa São utilizados alguns resultados elementares do cálculo diferencial e da teoria de funções em uma variável complexa Com o ponto de vista da Análise Matemática o livro oferece um tratamento moderno para temas básicos da Álgebra Linear e pode ser lido com diversos graus de aprofundamento destinandose tanto a alunos que ainda estão aprendendo o formalismo da linguagem matemática como também àqueles mais avançados que pretendem consolidar e ampliar seus conhecimentos sobre o assunto A primeira versão deste texto surgiu como uma adaptação de parte de um livro que considero uma obraprima o texto de P Lax Linear Algebra 20 cuja influência não é dissimulada Decidi adaptar o texto de Lax quando senti a dificuldade de meus alunos em acompanhálo Alterei demonstrações e o ordenamento do texto salientei as diferenças entre espaços reais e complexos esmiucei certas passagens e inseri alguns tópicos complementares sempre visando tornar o texto menos denso Após a utilização dessa adaptação por mim e outros professores resolvi fazer modificações mais profundas enfatizando um tópico que tradicionalmente é ignorado nos textos de Álgebra Linear as assim chamadas funções de matrizes que são matrizes originadas por funções f U C C tais como Ak A1 sen A ou mesmo o fluxo eAt Usualmente restringese a apresentação dessas ao caso de polinômios de uma matriz quadrada ou então se a matriz A for simétrica e A P 1DP com D diagonal definese fA por P 1fDP em que fD é obtida ao se avaliar f em cada uma das entradas diagonais de D A apresentação de funções de matrizes pode ser sintetizada como sendo uma generalização da versão em dimensão finita do cálculo funcional de Dunford Schwartz 8 e já era conhecida por Gantmacher 9 Ela é simples e tem conse qüências notáveis fA é sempre um polinômio na matriz A com coeficientes dependendo da função f que pode ser facilmente obtido se forem conhecidos os iii i i ALinear 20051219 1325 page iv 4 i i i i i i autovalores de A e suas multiplicidades Essa abordagem uma técnica corriqueira na Álgebra Linear Numérica tem sido esquecida nos textos de Álgebra Linear Livros bem reputados veja 15 16 19 33 e até mesmo tratados mais avançados como 3 25 ou o próprio texto de Lax 20 apenas mencionam o cálculo funcional de matrizes simétricas Assim o presente texto também tem a intenção de contribuir para uma reavaliação do cálculo funcional na Álgebra Linear básica e como conseqüência mostrar que o tratamento funcional do fluxo eAt é bem mais simples do que por meio da forma canônica de Jordan O cálculo funcional mais do que uma simples ferramenta computacional tem implicações teóricas importantes A demonstração do Teorema da Decomposição Primária no caso complexo que Lax denomina Spectral Theorem é feita por meio dessa técnica que não pressupõe conhecimento de resultados da Álgebra Inseri também seções devotadas a outras decomposições matriciais LU Decomposição de Aplicações em Valores Singulares Cholesky Schur e QR resultados constantes de qualquer curso de Álgebra Linear Numérica O livro de Lax contém um capítulo mais avançado sobre a resolução de sistemas lineares Com a introdução de diversas modificações no livro de Lax ouso apresentá lo como uma obra independente Mas Lax é o ghostwriter cujo nome está aqui ausente porque este texto está muito aquém dos méritos daquele Assim as falhas deste são de minha inteira responsabilidade O presente texto cobre todo o espectro básico da Álgebra Linear espaços vetoriais e bases o espaço dual aplicações lineares e suas representações matri ciais determinantes a decomposição primária a forma canônica de Jordan e a decomposição racional de Frobenius espaços euclidianos formas quadráticas diagonalização de operadores normais e com isso operadores unitários e orto gonais e finalmente algumas outras decomposições matriciais O estilo adotado no texto é formal os resultados são apresentados como lemas proposições teoremas etc Achoo apropriado para alunos que dão seus primeiros passos no formalismo da linguagem matemática A linguagem utilizada é intencionalmente abstrata e concisa Não creio ser proveitoso nesse nível continuar explorando uma abordagem mais direta e evitar assim a abstração Nas palavras de Lax os alunos não devem ser excluídos do paraíso criado por Emmy Noether e Emil Artin A apresentação concisa reduz o espaço para exemplos especialmente em tópicos mais básicos Os exemplos estão confinados a assuntos que julgo serem mais pertinentes a um segundo curso de Álgebra Linear Os exercícios no final de cada capítulo variam desde aplicações corriqueiras i i ALinear 20051219 1325 page v 5 i i i i i i da teoria até a apresentação de resultados mais refinados com demonstrações mais elaboradas Alguns desses exercícios estão presentes em vários textos de Álgebra Linear outros foram formulados por mim mesmo Algumas vezes esses exercícios especialmente em tópicos básicos introduzem notações e conceitos que serão usados livremente no resto do texto Outros exercícios indicam demonstrações alternativas de resultados expostos Finalmente outros complementam o material apresentado sugerindo generalizações Uma observação importante o conteúdo deste texto terá uma continuidade natural em um livro de introdução à Análise Funcional Esse último escrito em conjunto com Antônio Zumpano e Grey Ercole encontrase redigido e em processo de revisão Faço alguns comentários sobre os capítulos da presente obra O Capítulo 1 introduz espaços vetoriais e bases Os espaços vetoriais são considerados apenas sobre os corpos R ou C o que é coerente com a linha geral do texto que é voltada para a área de Análise Matemática Geralmente os alunos que assistem ao curso na UFMG não possuem formação em Álgebra Isso tornou necessária uma apresentação detalhada do espaço quociente Apesar disso é bom salientar que o espaço quociente é usado apenas duas vezes uma na demonstração do Teorema do Núcleo e da Imagem que também possui uma prova alternativa sem o uso desse conceito e outra na demonstração da forma canônica de Jordan Seção 74 apenas como uma notação adequada A utilização do espaço quociente na prova do Teorema do Núcleo e da Imagem unifica conceitos a mesma demonstração repetese no estudo de outras estruturas algébricas Saliento que o professor se assim o desejar pode não apresentar o espaço quociente e substituílo por meio do isomorfismo introduzido no Teorema 129 O Capítulo 2 trata do espaço dual e apresenta uma primeira versão do Teorema de Representação de Riesz para espaços de dimensão finita Geralmente o dual e o bidual são apresentados após a introdução de espaços de aplicações lineares como casos particulares desses O texto inverte essa ordem para dar um segundo exemplo de isomorfismo canônico entre espaços vetoriais o primeiro é dado no Teorema 129 Entretanto os alunos normalmente acham esse capítulo muito abstrato O professor pode optar por não apresentálo ou simplesmente protelar sua apresentação O Capítulo 3 começa por mostrar que a definição de multiplicação de matrizes é uma conseqüência natural da composição de aplicações lineares Nesse capítulo também são tratados outros tópicos fundamentais de um curso de Álgebra Linear matrizes e representações de aplicações lineares sistemas lineares espaço linha e i i ALinear 20051219 1325 page vi 6 i i i i i i espaço coluna núcleo e imagem de uma aplicação linear etc Grande ênfase é dada às matrizes de mudança de base a rigor mudança de coordenadas pois entendo que o tratamento clássico por meio da matriz de passagem mais confunde do que esclarece Se o professor optar por evitar a introdução do espaço quociente o Teorema do Núcleo e da Imagem pode ainda assim ser enunciado como um teorema de isomorfismo por meio da utilização do Exercício 16 do Capítulo 3 O Capítulo 4 aborda a teoria de determinantes Os textos de Álgebra Linear normalmente enfrentam um dilema ao tratálos ou apresentam a teoria completa de permutações e do sinal de uma permutação segundo métodos que stricto sensu fogem ao escopo da Álgebra Linear ou preferem introduzir brevemente esses tópicos remetendo aos textos de Álgebra a demonstração dos resultados utilizados Isso causa um certo desconforto evidenciado na observação feita por Lang na seção sobre permutações da primeira edição de seu texto de Álgebra Linear 19 Ao leitor que for alérgico a argumentos combinatórios aconselhamos assimilar apenas o enunciado das propriedades e omitir as demonstrações A apresentação escolhida para determinantes supera esse dilema a teoria de permutações e do sinal de uma permutação é apresentada segundo métodos da Álgebra Linear como conseqüência do material exposto No Capítulo 5 são introduzidos os autovalores e autovetores de um operador bem como o polinômio mínimo e o Teorema de CayleyHamilton aqui demons trado de um modo bastante simples Também é estudada a complexificação de um espaço vetorial Apesar de incluírem a apresentação do espaço quociente e da complexificação de um espaço vetorial tópicos que normalmente não são vistos em um primeiro curso de Álgebra Linear os Capítulos 15 formam a parte básica do curso O Capítulo 6 introduz o cálculo funcional Se o professor julgar que seus alunos não possuem os conhecimentos necessários para a leitura desse Capítulo ele pode optar entre uma apresentação operacional do mesmo ou seguir algum dos roteiros alternativos que serão descritos posteriormente A Seção 63 é relativamente mais avançada consideradas as noções de topologia empregadas para se mostrar a estabilidade do método que fundamenta o cálculo funcional Entretanto essas preocupações não são essenciais e o professor pode apenas mostrar o isomorfismo de álgebras sem preocupações com a estabilidade do método A Seção 64 dá exemplos do emprego do cálculo funcional o fluxo de uma matriz funções trigonométricas etc O Capítulo 7 apresenta a decomposição primária a forma canônica de Jordan e a decomposição racional O cálculo funcional mostra o Teorema da Imagem do i i ALinear 20051219 1325 page vii 7 i i i i i i Espectro Spectral Mapping Theorem e o Teorema da Decomposição Primária no caso complexo denominado Teorema Espectral A demonstração desse resultado é um pouco abstrata A forma de Jordan é demonstrada a partir do Teorema Espectral 72 A construção é muito simples e descrita minuciosamente por meio de vários exemplos Minha experiência didática mostra que esse trajeto é preferível a uma abordagem direta da forma de Jordan como aquela presente no Apêndice D Em primeiro lugar porque o Teorema Espectral é suficiente para grande parte das necessidades teóricas da Álgebra Linear mas também porque o problema de se obter uma base na qual um operador assume uma forma simples é introduzido aos poucos dando tempo para o aluno maturar essa questão A versão real do Teorema Espectral isto é a decomposição primária e a forma de Jordan real são obtidas estudando a complexificação de um espaço real Utilizando a forma canônica de Jordan obtemos de maneira incomum a decomposição racional Os Capítulos 6 e 7 conjuntamente com os diversos Apêndices com eles relacionados apresentam o cálculo funcional e as decomposições fundamentais válidas em espaços vetoriais arbitrários O Capítulo 8 introduz os espaços com produto interno Mantenho a tradição bourbakista de apresentálos apenas após o estudo de espaços vetoriais gerais Acho que o professor deve ressaltar o aspecto geométrico introduzido com o produto interno Por exemplo o processo de ortogonalização de GramSchmidt pode ser justificado em casos bi e tridimensionais Mais do que isso no caso de espaços de dimensão n uma representação decompondoo em um eixo vertical e seu complementar ortogonal é adequada muitas demonstrações podem ser assim geometricamente justificadas Em coerência com o caminho voltado para a Análise algumas propriedades da norma de uma matriz quadrada são apresentadas Também são estudadas as relações entre o núcleo e a imagem de uma aplicação linear e de sua adjunta bem como algumas propriedades básicas de isometrias O Capítulo 9 apresenta formas quadráticas e a Lei da Inércia De certa forma ele constitui uma unidade com o Capítulo 10 que trata das principais formas canônicas em espaço com produto interno o Teorema Espectral para operadores normais o estudo de classes de operadores normais no caso de espaços reais e a decomposição de um operador em valores singulares Decidi dividir o material em dois capítulos para tornar claro que o Capítulo 9 pode ser omitido a critério do instrutor Contudo apresentar o Teorema de Lagrange e então passar à diagonalização de matrizes simétricas é uma forma de unificar conceitos que usualmente são tratados separadamente formas bilineares simétricas e diagonalização de matrizes simétricas No Capítulo 10 também se demonstra que operadores autoadjuntos são i i ALinear 20051219 1325 page viii 8 i i i i i i diagonalizáveis por meio de técnicas de minimax Algumas seções do Capítulo 11 que apresenta as decomposições matriciais de Cholesky Schur e QR oferecem abordagem alternativa ou complementar a resultados apresentados nos Capítulos 8 e 10 Agradecimentos A lista de agradecimento é enorme e comporta grande parte de meus amigos Para não correr o risco de esquecer alguns destaco apenas aqueles que estiveram mais diretamente envolvidos na redação deste livro Ana Cristina Vieira e Paulo Antônio Fonseca Machado adotaram em cursos que ministraram a primeira versão deste trabalho a adaptação do texto de Lax e contribuíram com várias sugestões e correções O enfoque utilizado para a apresentação de determinantes foi escolhido após várias discussões com Helder Candido Rodrigues e P A F Machado A abordagem do cálculo funcional é baseada num texto apresentado na I Bienal da Matemática e muito deve a Carlos Tomei George Svetlichny Eliana Farias Bueno e H C Rodrigues A participação de H C Rodrigues na redação da Seção 76 foi decisiva No Apêndice E segui sugestões de Mário Jorge Dias Carneiro O texto foi inteiramente revisto por Leopoldo Grajeda Fernandes que contribuiu com inúmeras sugestões abordando tanto o enfoque adotado quanto o estilo de redação Marcelo Domingues Marchesin e Carlos Henrique Costa Moreira utilizaram o texto atual em seus cursos de Álgebra Linear e sugeriram modificações pertinentes Agradeço também a vários leitores e meus alunos em especial a Leandro Martins Cioletti que apresentaram sugestões e críticas todas elas bemvindas Finalmente C Tomei é responsável por uma leitura minuciosa sugestões valiosas que procurei seguir de acordo com minha capacidade e inúmeras críticas todas elas muito bem fundamentadas A principal crítica feita por Tomei diz respeito à tradição brasileira de tratar a Álgebra Linear justamente uma das áreas mais aplicadas da matemática como uma disciplina quase que exclusivamente teórica Esse texto não rompe com essa tradição em parte devido ao propósito de integrálo a um texto de introdução à Análise Funcional mas também por causa de minha inexperiência em termos de aplicações da Álgebra Linear Nesse sentido a crítica feita por Tomei só pode ser sanada por ele mesmo ou por outro matemático que realmente entenda do assunto A todos o meu muito obrigado Belo Horizonte dezembro de 2005 i i ALinear 20051219 1325 page ix 9 i i i i i i Sumário Prefácio ix Quadro de Dependências xv 1 Base e Dimensão 1 11 Espaços Vetoriais 1 12 Bases 3 13 Somas Diretas 6 14 Espaço Quociente 8 15 Exercícios 10 2 Dualidade 15 21 O Espaço Dual 15 22 Exercícios 19 3 Aplicações Lineares 22 31 Aplicações Lineares e Matrizes parte 1 22 32 Multiplicação de Matrizes 25 33 Espaço Linha e Espaço Coluna 29 34 Resolução de Sistemas Lineares 32 35 O Teorema do Núcleo e da Imagem 37 36 Aplicações Lineares e Matrizes parte 2 40 37 A Transposta de uma Aplicação Linear 45 38 Exercícios 47 4 Determinantes 55 41 Determinantes de Matrizes 2 2 55 42 Função Determinante 57 43 Existência de uma Função Determinante 60 ix i i ALinear 20051219 1325 page x 10 i i i i i i 44 Unicidade da Função Determinante 61 45 Propriedades do Determinante de uma Matriz 67 451 O Determinante da Matriz Transposta 67 452 O Determinante do Produto de Matrizes Quadradas 68 46 A Regra de Cramer 70 47 Matrizes Semelhantes 72 48 Exercícios 73 5 Operadores e Polinômios 78 51 Autovetores e Autovalores 78 52 Subespaços Invariantes 82 53 O Polinômio Mínimo 85 54 O Teorema de CayleyHamilton 86 55 A Complexificação de um Espaço Vetorial 87 56 Um Homomorfismo de Álgebras 90 57 Exercícios 91 6 O Cálculo Funcional 96 61 O Polinômio Interpolador 96 62 Funções de Matrizes 100 63 Estendendo o Homomorfismo de Álgebras 103 64 Aplicações do Cálculo Funcional 104 641 O Fluxo 104 642 Funções Trigonométricas 108 643 Logaritmo 108 644 Raiz Quadrada 108 645 A Inversa 109 65 Exercícios 110 7 Teoria Espectral 114 71 Imagem do Espectro 114 72 O Teorema Espectral 115 73 Decomposição Primária 122 74 Forma Canônica de Jordan 127 75 Forma de Jordan Real 136 76 Decomposição Racional 138 77 Exercícios 147 i i ALinear 20051219 1325 page xi 11 i i i i i i 8 Estrutura Euclidiana 152 81 Produto Interno 152 82 Norma 153 83 Bases Ortonormais 156 84 Projeções Ortogonais 158 85 A Adjunta de uma Aplicação Linear 162 86 Isometrias 168 87 Operadores Lineares 171 88 Norma de Matrizes 173 89 Exercícios 176 9 Formas Sesquilineares e Quadráticas 186 91 Formas Sesquilineares e Bilineares 186 92 Diagonalização de Formas Quadráticas 190 93 A Lei da Inércia 194 94 Exercícios 196 10 Teoria Espectral Euclidiana 201 101 Operadores autoadjuntos 201 102 Princípios de Minimax para os Autovalores 206 103 Operadores Normais 208 104 Operadores Normais em Espaços Reais 212 105 Valores Singulares 216 106 Exercícios 222 11 Decomposições Matriciais 227 111 A Decomposição de Cholesky 227 112 A Decomposição de Schur 229 113 A Decomposição QR 230 114 Exercícios 234 Apêndices A Matrizes Elementares e a Decomposição LU 236 A1 Exercícios 241 B Funções de Matrizes Comparando Definições 242 i i ALinear 20051219 1325 page xii 12 i i i i i i C Decomposição Primária 246 D Forma Canônica de Jordan 252 D1 Exercícios 263 E Sistemas de Equações Diferenciais Lineares 264 E1 Exercícios 271 F Espaços Normados 274 F1 Exercícios 278 Lista de símbolos 280 Referências Bibliográficas 283 Índice Remissivo 287 Quadro de Dependências Capítulo 1 Capítulo 2 Capítulo 3 Apêndice A Capítulo 4 Capítulo 5 Apêndice B Capítulo 6 Apêndice D Apêndice C Apêndice E Seção 71 Seção 72 Seção 74 Seção 73 Seção 75 Seção 76 Capítulo 8 Apêndice F Capítulo 9 Capítulo 10 Capítulo 11 Apêndice A i i ALinear 20051219 1325 page xiv 14 i i i i i i Outras opções de curso O texto foi escrito de maneira a proporcionar uma grande flexibilidade na escolha do material a ser lecionado O Apêndice A é opcional mas pode ser apresentado simultaneamente ou logo após o Capítulo 3 Alguns resultados sobre matrizes elementares são utilizadas nos exercícios do Capítulo 4 A decomposição LU é utilizada no Capítulo 11 O Capítulo 2 também é opcional bem como a Seção 37 O Capítulo 6 e as duas primeiras seções do Capítulo 7 expõem o cálculo funcional O Capítulo 6 é relativamente simples com exceção de parte de sua última seção que pode ser omitida e pode ser apresentado com um ponto de vista operacional A ligação entre a apresentação tradicional cálculo funcional de matrizes simétricas e na forma canônica de Jordan com o Capítulo 6 é feita no Apêndice B que não precisa ser exposto O Apêndice E apresenta resultados básicos sobre sistemas lineares de equações diferenciais ordinárias e pode servir como apoio para o estudo do fluxo linear feito no Capítulo 6 Se o professor tiver dúvidas com respeito à maturidade matemática de seus alunos talvez seja recomendável omitir a Seção 72 e apresentar ao invés opção que não está presente no quadro de dependências o Apêndice C ou o Apêndice D Mas todo o cálculo funcional pode não ser exposto Nesse caso há duas possibilidades a primeira consiste em substituir o Capítulo 6 e as duas primeiras seções do Capítulo 7 pelo Apêndice C e então voltar ao texto principal no Exemplo 710 A outra consiste em substituir o cálculo funcional pelo Apêndice D o que significa uma apreciável economia de tempo Nesse Apêndice é feita uma de monstração bastante simples da forma canônica de Jordan adaptando e comple mentando aquela presente em Strang 33 Os únicos prérequisitos para essa demonstração são somas diretas de subespaços e o Teorema do Núcleo e da Imagem Nesse caso os resultados da Seção 72 serão obtidos como conseqüência da forma de Jordan Apesar de a Seção 75 ter sido escrita enfatizando a repetição de métodos utilizados na Seção 73 o professor não terá dificuldades em apresentá la Seguindo a ordem natural do texto a Seção 73 pode ser omitida por esse motivo a ordem natural do Capítulo 7 no quadro de dependências foi alterada Também podese não apresentar a Seção 76 que trata da decomposição racional de Frobenius A apresentação do Capítulo 9 é facultativa uma vez que a passagem direta do Capítulo 8 para o Capítulo 10 é inteiramente natural i i ALinear 20051219 1325 page xv 15 i i i i i i xv A Seção 102 pode ser omitida já que apenas apresenta uma segunda demons tração do Teorema Espectral para operadores autoadjuntos O Capítulo 11 pode não ser exposto ou então ser apresentado simultaneamente com resultados dos Capítulos 8 e 10 Muitos dos resultados deste Capítulo são apenas uma formulação diferente de resultados anteriormente descritos São utilizados resultados apresentados no Apêndice A O Apêndice B é opcional mostrando que a apresentação feita de funções de matrizes é equivalente às definições usualmente utilizadas nos textos de Álgebra Linear A Seção 88 introduz a norma de uma matriz quadrada o Apêndice F é mais ambicioso introduzindo a norma de uma aplicação linear A escolha entre a Seção 88 ou o Apêndice F fica a critério do professor Finalmente vários resultados têm uma demonstração alternativa exposta no próprio texto Podese optar entre essas alternativas ou apresentar ambas i i ALinear 20051219 1325 page xvi 16 i i i i i i i i ALinear 20051219 1325 page 1 17 i i i i i i 1 Base e Dimensão Este Capítulo apresenta algumas noções básicas da Álgebra Linear introduz somas diretas e define o espaço quociente 11 Espaços Vetoriais O corpo R ou o corpo C serão denotados por K Definição 11 Um espaço vetorial X sobre o corpo K é um conjunto cujos elementos chamados vetores podem ser somados e multiplicados por escalares isto é os elementos do corpo K Se x y z X e λ µ K as seguintes propriedades devem ser satisfeitas pela adição e multiplicação por escalar i x y X fechamento ii x y z x y z associatividade iii x y y x comutatividade iv existe 0 X tal que x 0 x elemento neutro v existe x X tal que x x 0 inverso aditivo vi λx X fechamento vii µλx µλx associatividade viii λx y λx λy distributividade ix λ µx λx µx distributividade 1 x 1x x regra da unidade Denotaremos x y simplesmente por x y veja o Exercício 1 A importância da condição x na definição de espaço vetorial é indicada no Exercício 3 Exemplo 12 O conjunto Kn x1 x2 xn xi K i 1 n com as definições usuais de adição e multiplicação por escalar é um espaço vetorial Exemplo 13 O conjunto F de todas as funções f S K definidas num conjunto S e com as operações de adição e multiplicação por escalar usualmente definidas é um espaço vetorial Exemplo 14 Também são espaços vetoriais o conjunto Kz de todos os polinômios com coeficientes em K na incógnita z ou o subconjunto Kn z de todos os polinômios de grau menor do que n na incógnita z Definição 15 Um subconjunto Y de um espaço vetorial X é um subespaço se seus elementos satisfizerem as propriedades que definem o espaço vetorial X Exemplo 16 O subconjunto de Kn de todos os vetores cuja primeira coordenada é nula é um subespaço de Kn Se S R os subconjunto de F veja o Exemplo 13 formado por todas as funções contínuas ou por todas as funções de período π são subespaços de F O mesmo acontece com o subconjunto de Kz formado pelos polinômios de grau par Definição 17 Sejam X e Y espaços vetoriais sobre o corpo K Uma aplicação T X Y satisfazendo T x λy Tx λTy para quaisquer x y X e λ K é chamada transformação linear ou aplicação linear Se X Y também chamamos T de operador linear ou simplesmente operador Se Y K uma aplicação linear é denominada funcional linear Se T for uma bijeção dizemos que T é um isomorfismo e que os espaços X e Y são isomorfos No caso de aplicações lineares é usual denotar Tx por Tx Em algumas situações especialmente para funcionais lineares não se mantém tal notação Observação 18 Note que na definição de aplicação linear estamos indicando as operações nos espaços vetoriais X e Y da mesma maneira em Tx λy a soma x λy ocorre no espaço X enquanto ocorre em Y na expressão Tx λTy 12 Bases Definição 19 Seja S X um subconjunto qualquer de um espaço vetorial X Uma combinação linear de elementos de S é uma soma finita λ1x1 λkxk com λ1 λk K e x1 xk S O conjunto S é linearmente dependente se existir um número finito de elementos x1 xk S e escalares λ1 λk K não todos nulos tais que λ1x1 λkxk 0 Caso contrário o conjunto S é linearmente independente O conjunto S gera o espaço X se para todo x X existirem finitos elementos x1 xj S e escalares λ1 λj K tais que x λ1x1λjxj Uma base de X é um subconjunto ordenado B que é linearmente independente e gera X Um espaço vetorial X tem dimensão finita se possuir uma base com um número finito de elementos1 ou se X 0 Caso contrário ele tem dimensão infinita Lema 110 Suponhamos que S x1 xn gere o espaço vetorial X e que y1 yj seja linearmente independente em X Então j n Demonstração Suponhamos que j n Como S gera X temos que y1 λ1x1 λnxn sendo ao menos um dos escalares λ1 λn diferente de zero veja o Exercício 10 Podemos supor λ1 0 Temos então que x2 xn y1 gera X De fato se x X existem escalares α1 αn tais que x α1x1 αnxn Mas então x α1 1λ1 y1 λ2x2 λnxn α2x2 αnxn 1Dizse também que o espaço vetorial é finitamente gerado i i ALinear 20051219 1325 page 4 20 i i i i i i 4 Base e Dimensão Cap 1 mostrando o afirmado De maneira análoga y2 β2x2 βnxn β1y1 com ao menos um dos escalares β2 βn diferente de zero veja o Exercício 11 Supondo β2 0 verificamos então que o conjunto x3 xn y1 y2 gera o espaço X Repetindo sucessivamente esse procedimento obtemos que y1 yn gera o espaço X Em particular yn1 γ1y1 γnyn Mas então γ1y1 γnyn 1yn1 0yn2 0yj 0 o que contradiz y1 yj ser um conjunto linearmente independente 2 Lema 111 Todo espaço vetorial X 0 gerado por um subconjunto S x1 xn possui uma base Demonstração Se S for linearmente dependente um de seus elementos pode ser escrito como combinação linear dos elementos restantes Retirando esse elemento o conjunto restante continua gerando X Continuamos retirando elementos que são combinação linear dos elementos restantes até obter um conjunto linearmente independente que continua gerando X 2 Note que o espaço vetorial X 0 não possui base Teorema 112 Todas as bases de um espaço vetorial X de dimensão finita possuem o mesmo número de elementos Demonstração Se B x1 xn e B y1 yj forem bases de X o Lema 110 aplicado ao conjunto linearmente independente B e ao conjunto gerador B mostra que j n Aplicando então ao conjunto linearmente independente B e ao conjunto gerador B obtemos n j 2 Definição 113 Se B x1 xn for uma base do espaço vetorial X dizemos que X tem dimensão n e escrevemos dim X n Se X 0 X tem dimensão finita igual a zero Teorema 114 Todo subconjunto linearmente independente S y1 yj de um espaço vetorial X de dimensão n 1 pode ser completado para formar uma base de X Demonstração Se S não gerar X então existe um vetor x1 X que não é combinação linear dos elementos de S O conjunto y1 yj x1 é linearmente independente Repetimos esse procedimento um número finito de vezes até obter uma base de X O Teorema 114 mostranos como obter diferentes bases para um espaço vetorial X 0 de dimensão finita Assim X possui muitas bases Definição 115 Sejam X um espaço vetorial e B x1 xn uma base de X Se x X então existem únicos escalares λ1 λn K tais que x λ1x1 λnxn O vetor λ1 λn Kn é chamado representação de x na base B e λ1 λn as coordenadas de x na base B Denotamos também por xB o vetor λ1 λn Definição 116 Seja ei Kn o vetor cuja iésima coordenada é igual a 1 as outras sendo nulas O conjunto E e1 en é a base canônica do espaço Kn Observação 117 Uma base de um espaço vetorial é um conjunto ordenado Assim se B x1 x2 xn for uma base do espaço X então B x2 xn x1 é outra base de X O mesmo acontece se a base possuir um número infinito de elementos A ordenação dos elementos da base permite dar sentido à representação de um vetor em uma base Uma vez que λ1 λn λ1e1 λnen vemos que a escolha de uma base no espaço X de dimensão n gera um isomorfismo entre X e Kn este espaço considerado com a base canônica A importância desse isomorfismo é explorada no Exercício 8 Observação 118 Tendo alcançado esse ponto não deixa de ser interessante comparar três concepções do plano A primeira concepção é o plano como espaço euclidiano o espaço da geometria clássica Esse espaço é completamente homogêneo se de repente um objeto fosse transportado para esse plano não haveria como localizálo Todos os pontos são absolutamente iguais A segunda concepção é o plano como espaço vetorial Nesse caso existe um ponto excepcional a origem Um objeto transportado para o plano apenas distinguiria sua localização como ocupando a origem ou não A terceira concepção vem com a introdução de coordenadas e cria o plano da geometria analítica clássica Aqui a localização de cada ponto é muito bem determinada por suas coordenadas O isomorfismo entre um espaço de dimensão finita n e o Kn introduz a possibilidade de medirmos distâncias ou mesmo ângulos Essa possibilidade será estudada posteriormente especialmente nos Capítulos 8 e 10 13 Somas Diretas Definição 119 Sejam A B subconjuntos de um espaço vetorial X Denotamos por A B o conjunto de todos os vetores x y com x A e y B Proposição 120 Sejam U V subespaços de X Então U V é subespaço de X O subespaço U V é chamado soma dos subespaços U e V Demonstração Se z1 x1 y1 e z2 x2 y2 forem elementos de U V e λ K então claramente λz1 z2 U V veja o Exercício 4 Definição 121 Sejam U V subespaços de X O subespaço W U V é a soma direta dos subespaços U e V se cada elemento de w W puder ser escrito de maneira única como w x y Nesse caso denotamos W por W U V Veja a Figura 11 A definição de soma direta pode ser generalizada para a soma de um número finito de subespaços de X Proposição 122 O subespaço W U V é a soma direta dos subespaços U V de X se e somente se U V 0 Figura 11 Se W U V um ponto w W escrevese de maneira única como w u v Demonstração Suponhamos que W U V Se z U V então w x y também pode ser escrito como w x z y z Como a decomposição w x y é única devemos ter x x z e y y z Assim z 0 veja o Exercício 2 Reciprocamente suponhamos que x1 y1 e x2 y2 sejam duas decomposições de w W Então x1 x2 y2 y1 pertencem simultaneamente a U e V Logo x1 x2 0 y2 y1 garantindo a unicidade da decomposição Teorema 123 Seja X um espaço vetorial de dimensão finita Então vale i todo subespaço Y de X possui dimensão finita ii todo subespaço Y possui um complemento Z X isto é existe um subespaço Z de X tal que X Y Z Demonstração Se Y 0 então dim Y 0 Caso contrário tome 0 y1 Y Se existir y2 Y linearmente independente com y1 consideramos então o conjunto y1 y2 Se esse conjunto gerar Y temos uma base Se não podemos acrescentar y3 Y linearmente independente com y1 e y2 Procedendo assim obtemos sucessivamente conjuntos linearmente independentes cada um contendo o anterior De acordo com o Lema 110 esse processo só pode continuar enquanto esses conjuntos tiverem menos elementos do que a dimensão de X Obtemos assim uma base y1 yj para Y Aplicando então o Teorema 114 essa base pode ser completada até obtermos uma base y1 yj x1 xnj para X Defina Z como o espaço de todas as combinações lineares dos elementos x1xnj Claramente Z é um subespaço de X e Z Y 0 Logo pela Proposição 122 temos X Y Z 14 Espaço Quociente Definição 124 Seja Y um subespaço de X Se x1 x2 X dizemos que x1 é congruente a x2 módulo Y escrito x1 x2 mod Y se x1 x2 Y Podemos dividir o espaço X em diferentes classes de equivalência módulo Y veja o Exercício 30 Denotaremos a classe contendo o elemento x por x Definição 125 Se x e z forem classes de equivalência módulo Y e λ K definimos x z x z λx λx Com essas operações o conjunto de todas as classes de equivalência módulo Y tornase um espaço vetorial denotado por XY ou XY e denominado espaço quociente de X por Y A classe de equivalência x muitas vezes é representada por x Y A rigor precisamos mostrar que as operações em XY estão bem definidas isto é independem dos representantes de cada classe de equivalência Portanto suponhamos que x1 x e z1 z Então x1 x y1 e z1 z y2 com y1y2 Y Mas então x1 z1 x y1 z y2 x z y1 y2 e assim x1 z1 x z mod Y Do mesmo modo λx1 λx λy1 e λx1 λx mod Y Exemplo 126 Seja X um espaço vetorial qualquer Se Y X então XY 0 pois x 0 mod Y para todo x X Por outro lado se Y 0 então XY X pois x y mod Y implica que x y Exemplo 127 Seja Y ℝ² o subespaço definido por Y xy y 2x Em outras palavras Y é a reta de equação y 2x Na Figura 12 os vetores w1 w5 pertencem todos à mesma classe Assim o vetor w1 Y ℝ²Y é uma reta paralela à reta y 2x O espaço quociente ℝ²Y é formado por todas as retas paralelas à reta y 2x Figura 12 O subespaço Y é a reta y 2x Os vetores w1 w5 pertencem todos à mesma classe O espaço ℝ²Y é formado por todas as retas paralelas à reta y 2x Sem dificuldades podemos estender a interpretação geométrica aqui apresentada ao caso geral Exemplo 128 Seja x Kⁿ e considere Y o subespaço de todos os vetores cujas duas primeiras coordenadas são nulas Então dois vetores são congruentes módulo Y se e somente se suas duas primeiras coordenadas forem iguais Isto é x1x2x3xn y1y2y3yn mod Y x1 y1 e x2 y2 A classe de equivalência de x Kⁿ pode ser vista como um vetor com duas componentes dadas pela primeira e segunda coordenadas de x Teorema 129 Consideremos a decomposição X Y Z i i ALinear 20051219 1325 page 10 26 i i i i i i 10 Base e Dimensão Cap 1 Então a aplicação Q Z XY definida por Qz z é um isomorfismo canônico Um isomorfismo é canônico se ele independer de escolhas de bases nos espaços envolvidos Assim se X tiver dimensão finita e z1 zj for uma base de Z então z1 zj é uma base de XY Portanto dim XY dim Z dim X dim Y Demonstração Definimos Q Z X XY por Qz z A aplicação Q é claramente linear Cada classe x XY tem como representante um elemento x X Mas existe uma única decomposição x y z com y Y e z Z Assim x y z z mostrando que Q é sobrejetor Suponhamos que z1 z2 Então z1 z2 y com y Y Mas isso implica que z1 z2 y Y Como z1 z2 Z concluímos que z1 z2 0 completando a demonstração 2 15 Exercícios 1 Se x for o inverso aditivo de x X mostre que x 1x 2 Mostre que o elemento neutro aditivo de um espaço vetorial é único Mostre que 0x 0 para todo x X e λ0 0 para todo λ K sendo 0 X o elemento neutro aditivo 3 Seja X x1 xn xi K Defina a soma x y da maneira usual e λx 0 para todo λ K e x X Verifique quais propriedades da definição de espaço vetorial são satisfeitas 4 Mostre que Y X é um subespaço se e somente se λx y Y para quaisquer x y Y e λ K 5 Se X for um espaço vetorial mostre que os conjuntos X e 0 que consiste apenas do elemento neutro aditivo são subespaços de X chamados subespaços triviais 6 Seja S Generalize o Exemplo 13 e mostre que f S Kn é um espaço vetorial i i ALinear 20051219 1325 page 11 27 i i i i i i 15 Exercícios 11 7 Seja V Kn o conjunto de todas as nuplas da forma 0 0 x3 xn Mostre que V é um subespaço de Kn 8 Seja U x y R2 x 0 y 0 Se z1 x1 y1 e z2 x2 y2 forem elementos de U e λ R defina z1 z2 x1x2 y1y2 λz1 xλ 1 yλ 1 a Mostre que U é um espaço vetorial com elemento neutro aditivo 1 1 b mostre que se v1 e 1 e v2 1 e então B v1 v2 é uma base de U estamos denotando por e a base dos logaritmos naturais c Defina T U R2 por Tz zB em que zB é a representação de z na base B Mostre que T é um isomorfismo 9 Seja S X um subconjunto arbitrário do espaço vetorial X Mostre que o conjunto de todas as combinações lineares dos elementos de S é um subespaço de X chamado subespaço gerado por S e denotado por S Mostre que se Y X for um subespaço tal que S Y então S Y Esse exercício generaliza o procedimento usado na demonstração do Teorema 123 10 Se S X for linearmente independente mostre que 0 S Mostre que se um conjunto possuir um subconjunto linearmente dependente então esse conjunto é linearmente dependente 11 Qual a razão na demonstração do Lema 110 de substituirmos sempre um dos elementos xj xn do conjunto xj xn y1 yj1 pelo elemento yj Porque não podemos substituir yj por um dos elementos y1 yj1 12 Seja S 1 z z2 zn Mostre que S é uma base de Kz 13 Seja T X Y uma aplicação linear e defina ker T v X Tv 0 Mostre que T é injetora se e somente se ker T 0 14 Exiba um isomorfismo entre Kn e Knz 15 Defina K como o espaço de todas as seqüências z1 zn com a soma e multiplicação por escalar definidas de maneira natural Mostre que K é um espaço vetorial Considere seu subespaço K 0 formado por todas i i ALinear 20051219 1325 page 12 28 i i i i i i 12 Base e Dimensão Cap 1 as seqüências satisfazendo zi 0 exceto para um número finito de índices Mostre que K 0 é isomorfo ao espaço Kt 16 Sejam T X Y e S Y Z aplicações lineares Mostre que a composta S T ST é uma aplicação linear 17 Seja T X Y um isomorfismo entre os espaços X e Y Mostre que a inversa T 1 Y X é linear 18 Mostre que todo espaço vetorial de dimensão n sobre o corpo K é isomorfo a Kn Esse isomorfismo é único Conclua que quaisquer dois espaços de dimensão n sobre o mesmo corpo K são sempre isomorfos Os espaços Rn e Cn são isomorfos 19 Sejam X Y espaços vetoriais de dimensão finita sobre o corpo K Mostre que se T X Y for um isomorfismo então a imagem por T de toda base de X é uma base de Y Em particular dim X dim Y 20 Seja B x1 xn uma base de X e Y um espaço vetorial Escolha arbitrariamente y1 yn Y Mostre que existe uma única aplicação linear T X Y tal que Txi yi para i 1 n Conclua que se y1 yn for uma base de Y então T é um isomorfismo 21 Mostre que S é uma base de X se e somente se todo elemento x X puder ser escrito de maneira única como combinação linear dos elementos de S 22 Seja X um espaço vetorial de dimensão n Se S y1 yn X for um conjunto linearmente independente mostre que S é uma base de X 23 Sejam X um espaço vetorial de dimensão n e S y1 yn um conjunto que gera X Mostre que S é uma base de X 24 Seja X um espaço vetorial e S x1 xk um subconjunto linearmente dependentes formado por vetores nãonulos do espaço X Mostre que um deles é combinação linear dos vetores precedentes 25 Seja X um espaço de dimensão n e V1 Vk uma soma direta de subespaços de X Mostre que dimV1 Vk dim V1 dim Vk n 26 Sejam X um espaço de dimensão finita e U V subespaços de X Mostre que dimU V dim U dim V dimU V i i ALinear 20051219 1325 page 13 29 i i i i i i 15 Exercícios 13 27 Denotaremos por MnnK o conjunto das matrizes n n com entradas no corpo K Defina o conjunto das matrizes simétricas S A MnnK At A em que At denota a transposta da matriz A veja 312 para a definição da transposta de uma matriz defina o conjunto das matrizes antisimétricas A A MnnK At A Mostre que MnnK S A 28 Mostre que U V é um subespaço de X se U e V forem subespaços de X O subespaço U V é a interseção dos subespaços U e V 29 Seja X um espaço vetorial e W1 W2 subespaços Mostre que se X W1 W2 então X Wi para pelo menos algum i 1 2 30 Seja uma relação de equivalência2 num conjunto A Dado x A denote clx y A y x a classe de equivalência do elemento x Mostre que A pode ser escrito como uma união disjunta de suas classes de equivalência 31 Mostre que a congruência módulo Y é uma relação de equivalência 32 Seja Y um subespaço de X com dim Y dim X Mostre que Y X 33 Seja W R3 o subespaço verifique formado por todas as soluções da equação linear homogênea 2x 3y 4z 0 Descreva as classes de equivalência da congruência módulo W 34 Sejam X um espaço vetorial e M N subespaços Dê exemplo desses espaços de modo que a nem M nem XM tenha dimensão finita b XM tenha dimensão finita mas XN não tenha 35 Seja T X X um operador linear e W um subespaço invariante por T isto é TW W Considere a aplicação T X XW definida por Tx Tx Mostre que T é linear e que se q Kz satisfizer qT 0 então q T 0 2Quer dizer se x y z A então i x x ii se x y então y x iii se x y e y z então x z i i ALinear 20051219 1325 page 14 30 i i i i i i 14 Base e Dimensão Cap 1 36 Seja W X um subespaço e Q X XW a aplicação quociente definida por Qx x Seja Y X outro subespaço de X Mostre que X W Y se e somente se a restrição QY Y XW for um isomorfismo 37 A soma direta de espaços vetoriais X1 X2 é o conjunto X1 X2 de todos os pares x1 x2 com x1 X1 e x2 X2 Definindo adição e multiplicação por escalar coordenada a coordenada mostre que X1 X2 é um espaço vetorial Se X1 e X2 tiverem dimensão finita então dimX1X2 dim X1dim X2 38 Seja Y um subespaço de X Mostre que X é isomorfo a Y XY i i ALinear 20051219 1325 page 15 31 i i i i i i 2 Dualidade Este Capítulo apresenta uma primeira versão do Teorema de Representação de Riesz e também do isomorfismo canônico entre o espaço X e o bidual X Ele pode ser suprimido numa primeira leitura ou a critério do instrutor 21 O Espaço Dual Existem muitas maneiras de produzir espaços vetoriais a partir de espaços ou subespaços conhecidos Por exemplo se M for um subespaço de X então XM é um novo espaço vetorial Ou dados os espaços vetoriais X e Y podemos considerar o espaço X Y apresentado no Exercício 37 do Capítulo 1 Apresentaremos agora uma forma importante de obter um novo espaço vetorial partindo do espaço X Definição 21 Se X for um espaço vetorial sobre K consideremos o conjunto X ℓ X K ℓ é linear De maneira natural vemos que X tem uma estrutura de espaço vetorial se definirmos para ℓ m X e λ K ℓ mx ℓx mx λℓx λℓx Com essas operações X ℓ X K ℓ é linear denota o espaço dual1 de X Os elementos de X são chamados de funcionais lineares 1Também chamado espaço dual algébrico do espaço X em contraposição ao espaço dual topológico definido em textos de Análise Funcional Em espaços de dimensão finita as definições coincidem 15 Exemplo 22 Seja X f 01 ℝ f é contínua Defina ℓf ₀¹ fs ds e para s₀ 01 fixo mf fs₀ É fácil verificar que ℓ X e m X Exemplo 23 Defina π₁ Kⁿ K por π₁x₁xₙ x₁ Então π₁ Kⁿ Seja x₁ xₙ uma base do espaço vetorial X Então para todo x X existem escalares ℓ₁x ℓₙx tais que x ℓ₁xx₁ ℓₙxxₙ Os escalares ℓᵢx são justamente as coordenadas de x na base x₁ xₙ Quer dizer se x α₁x₁ αₙxₙ ℓᵢx denota αᵢ Teorema 24 Seja B x₁ xₙ uma base de X e x ℓ₁xx₁ ℓₙxxₙ Então se δᵢⱼ denotar 0 se i j e 1 se i j temos i ℓᵢ X K é um funcional linear e ℓᵢxⱼ δᵢⱼ para i j 1 n ii o conjunto ℓ₁ ℓₙ é uma base de X chamada de base dual da base B iii se m X então mx ℓ₁xmx₁ ℓₙxmxₙ iv para todo 0 x X existe m X tal que mx 0 Demonstração i Suponhamos que x α₁x₁αₙxₙ e y β₁x₁βₙxₙ quer dizer ℓᵢx αᵢ e ℓᵢy βᵢ Então x y α₁ λβ₁x₁ αₙ λβₙxₙ e portanto ℓᵢx λy αᵢ λβᵢ ℓᵢx λℓᵢy ii Suponhamos que λ₁ℓ₁ λₙℓₙ 0 X Avaliando esse funcional sucessivamente nos vetores x₁ xₙ concluímos que λ₁ λₙ 0 Seja agora m X Então mx mα₁x₁ αₙxₙ α₁mx₁ αₙmxₙ ℓ₁xmx₁ ℓₙxmxₙ provando não apenas que ℓ₁ ℓₙ geram X mas também a afirmação iii iv Se 0 x então alguma coordenada ℓᵢx na expressão x ℓ₁xx₁ ℓₙxxₙ não é nula Considere m ℓᵢ Observação 25 A parte iii do Teorema 24 é uma versão do Teorema de Representação de Riesz veja o Teorema 822 Uma vez que X é um espaço vetorial de dimensão n esse espaço tem o seu dual que será denotado por X e chamado de bidual de X O teorema anterior garante então que dim X n pois já vimos que dim X n Note que X é por definição o espaço vetorial de aplicações lineares X L X K L é linear Quer dizer L é uma transformação linear que associa a cada funcional linear ℓ X K o número Lℓ K Os elementos de X são aparentemente complicados Mostraremos que as aplicações lineares em X estão canonicamente associadas aos vetores do espaço X Quer dizer existe um isomorfismo entre X e X que independe da utilização de qualquer base nesses espaços vetoriais A existência de um isomorfismo entre esses espaços é trivial veja o Exercício 18 do Capítulo 1 Lema 26 Para cada x X fixo considere a aplicação Lx X K definida por Lxℓ ℓx Quer dizer Lx associa a cada funcional linear ℓ X o valor que ℓ assume no ponto x Então Lx X Demonstração Suponhamos que ℓ m X Então se α K Lxℓ αm ℓ αmx ℓx αmx Lxℓ αLxm Compare essa demonstração com o Exemplo 22 Teorema 27 Os espaços X e X são canonicamente isomorfos Mais precisamente todo elemento do espaço X é da forma Lx para algum x X Demonstração Apesar de ser constituída de etapas bastante simples a idéia da demonstração é relativamente elaborada Definimos Γ Lx x X Quer dizer os elementos de Γ são as aplicações lineares definidas no lema anterior Vamos mostrar em primeiro lugar que Γ é um subespaço de X Depois mostraremos que X é isomorfo a Γ Assim dim Γ n dim X Isso quer dizer que Γ X Sejam Lx Ly Γ e λ K Consideremos Lx λLy Queremos mostrar que essa aplicação linear é um elemento de Γ isto é Lx λLy Lz para algum z X Temos para ℓ X Lx λLyℓ Lxℓ λLyℓ ℓx λℓy ℓx λy Lxλyℓ Isso mostra que Γ é um subespaço de X Agora definimos T X Γ x Lx Vamos mostrar que T é um isomorfismo entre X e Γ Temos que Tx λy Lxλy Lx λLy Tx λTy de acordo com o que mostramos na primeira parte A aplicação T é sobrejetora por definição A injetividade também é clara se Tx Ty então Lx Ly e portanto Lxℓ Lyℓ para todo ℓ X Mas então ℓx ℓy e ℓx y 0 para todo ℓ X Mas isto implica que x y 0 de acordo com o Teorema 24 iv Isto mostra a injetividade e completa a demonstração Concluímos este capítulo com a seguinte aplicação dada por Lax 20 surpreendente à primeira vista Teorema 28 Sejam t1 tn pontos distintos do intervalo I Então existem constantes α1 αn tais que I ptdt α1pt1 αnptn para todo polinômio p de grau menor do que n Demonstração O espaço Knt de todos os polinômios pt a0 a1 t an1 tn1 de grau menor do que n é isomorfo a Kn e portanto tem dimensão n Definimos ℓjp ptj Então ℓj Knt Afirmamos que ℓ1 ℓn é linearmente independente De fato suponhamos que λ1 ℓ1 λn ℓn 0 Knt Isso implica que λ1 pt1 λn ptn 0 p Knt 21 Considere os polinômios q1t t t2 t tn q2t t t1t t3 t tn qnt t t1 t tn1 Cada polinômio qi possui exatamente n 1 raízes nos pontos tj com j i Substituindo sucessivamente os polinômios qi na relação 21 obtemos λi qti 0 o que implica λi 0 Isso mostra que ℓ1 ℓn é linearmente independente em Knt e portanto uma base desse espaço Assim todo funcional linear ℓ Knt R é uma combinação linear dos funcionais ℓ1 ℓn e portanto ℓ α1 ℓ1 αn ℓn para escalares α1 αn K O resultado seguese daí ao considerarmos o funcional linear p I pt dt 5 Sejam X um espaço vetorial arbitrário e f X K um funcional linear nãonulo a Mostre que ker f tem codimensão 1 isto é existe w X tal que X ker f w w denota o espaço gerado por w X b Se g X K for outro funcional linear então g é um múltiplo escalar de f se e somente se o núcleo de g contiver o núcleo de f c Sejam ϕf1fr funcionais lineares no espaço X Mostre que ϕ é combinação linear de f1fr se e somente se ker f1 ker fr ker ϕ 6 Sejam X um espaço vetorial e S X um subconjunto arbitrário O anulador de S é o conjunto S0 f X fs 0 s S Mostre que S0 é subespaço de X 7 Seja Y X um subespaço do espaço vetorial de dimensão finita X Mostre que dim X dim Y dim Y0 Identificando X e X de acordo com o Teorema 27 mostre que Y00 Y00 Y 8 Seja S 22341 11252 00123 11230 um subconjunto do R5 Obtenha o anulador de S 9 Seja W X um subespaço e f W K linear Mostre que existe um funcional linear ϕ X K que estende f isto é ϕw fw para todo w W 10 Seja T X Y uma aplicação linear A aplicação T induz uma aplicação linear T Y X da seguinte maneira para cada funcional ℓ Y K definimos T Y X por Tℓ ℓT ℓ T 22 Exercícios 1 Considere a base B v1 v2 do R2 em que v1 21 e v2 31 Ache a base dual de B 2 Seja Rnt o espaço de todos os polinômios com coeficientes em R de grau menor do que n na incógnita t Mostre que as seguintes aplicações pertencem ao dual de Rnt a πipt ai para todo i 01 n 1 se pt Rnt for dado por pt a0 a1 t an1 tn1 b Jpt 01 pt dt para todo pt Rnt 3 Considere o espaço R2t como antes Sejam ℓ1 R2t R e ℓ2 R2t R dadas por ℓ1pt 01 pt dt e ℓ2pt 02 pt dt Mostre que B ℓ1 ℓ2 é uma base de R2t Ache a base v1 v2 de R2t da qual B é dual 4 Considere a demonstração do Teorema 27 Se X tiver dimensão infinita o que podemos concluir i i ALinear 20051219 1325 page 21 37 i i i i i i 22 Exercícios 21 A aplicação T é a transposta de T Alguns autores a chamam de adjunta de T mas ela não coincide com a aplicação adjunta que será definida no Capítulo 8 a Mostre que T é uma aplicação linear b se S T X Y forem aplicações lineares mostre que S αT S αT c se S X Y e T Y Z forem aplicações lineares mostre que ST T S d se T X Y tiver inversa mostre que T 1 T 1 e se X e Y tiverem dimensão finita identificando X com X e Y com Y mostre que T T é então identificado com T f se X e Y tiverem dimensão finita qual a relação entre os núcleos e imagens de T e T Observação o núcleo e a imagem de uma aplicação linear estão definidos em 310 11 Seja X um espaço de dimensão finita com X M N Considere a projeção π X M definida por πx m se x m n Obtenha π 3 Aplicações Lineares Este Capítulo introduz aplicações lineares e suas representações matriciais os espaços linha e coluna de uma matriz demonstra o Teorema do Núcleo e da Imagem e estuda detalhadamente a relação entre diferentes representações matriciais de um mesmo operador 31 Aplicações Lineares e Matrizes parte 1 Sejam X e Y espaços vetoriais sobre o mesmo corpo K Como sabemos uma aplicação linear ou transformação linear é uma aplicação T X Y tal que Tx λy Tx λTy xy X e λ K Exemplo 31 Se Kz for o espaço vetorial de polinômios com coeficientes em K na incógnita z T Kz Kz definida por Tp p derivação é uma transformação linear bem como Sp p integração na família de primitivas escolhemos sempre a constante de integração como nula Se X Y R2 definimos a rotação R R2 R2 como a aplicação que roda em torno da origem por um ângulo 0 θ 2π um ponto do R2 0 no sentido antihorário e R0 0 Veja a Figura 31 É claro que o único ponto fixo por R é a origem Exemplo 32 Sejam X Kn Y Km e aij K para j 1n e i 1m Se x x1xn Kn e y y1ym Kn definimos y Tx por yi j1n aij xj i 1m 31 Figura 31 A linearidade de R é geometricamente clara Afirmamos que T é linear De fato se w w1wn Kn e λ K temos Tx λwi j1n aij xj λwj j1n aij xj λj1n aij wj Txi λTwi Escolha i 1m e escreva explicitamente a soma efetuada Teorema 33 Toda aplicação linear T Kn Km é da forma 31 Demonstração Consideremos a base canônica e1en do Kn Temos então que x x1 e1 xn en j1n xj ej Como T é linear y Tx Tj1n xjej j1n xj Tej Denotemos a iésima coordenada do vetor Tej por aij isto é aij Teji Assim a iésima coordenada de y é yi j1n xj aij como queríamos provar Observação 34 Note que para provarmos o Teorema 33 fizemos uso explícito da base canônica do Rn Ao denotar aij Teji estamos fazendo uso implícito da base canônica do Rm É conveniente representar os coeficientes aij da expressão 31 como um arranjo retangular A a11 a12 a1n a21 a22 a2n am1 am2 amn denominamos tal arranjo matriz m n m sendo o número de linhas e n o número de colunas O elemento aij é a entrada correspondente à linha i e à coluna j Se m n dizemos que a matriz A é quadrada Uma submatriz de A é uma matriz obtida de A ao se omitir algumas de suas linhas eou colunas O Exemplo 32 e o Teorema 33 mostram que existe uma correspondência bijetiva entre o conjunto de matrizes m n e o espaço das aplicações lineares de Kⁿ para o Km Denotaremos o elemento aij da matriz A chamada matriz que representa T com relação às bases canônicas do Kⁿ e Km por Tij aij Teji Exemplo 35 Seja R R² R² a rotação apresentada no Exemplo 31 Escolhendo a base canônica E e1 e2 encontramos a matriz A que representa R com relação à base canônica do R² no domínio e na imagem O nosso ponto de partida para isso consiste na expressão 31 Para j 1 2 considerando o vetor x ej vemos que o lado direito de 31 produz a jésima coluna da matriz aij Assim se Re1 P o ponto P tem coordenadas cos θ sen θ de acordo com a própria definição das funções seno e cosseno Do mesmo modo se Re2 Q as coordenadas de Q são cosθ π2 sen θ π2 sen θ cos θ Logo a representação de R na base E é a matriz de rotação A cos θ sen θ sen θ cos θ Observação 36 Comparando os Exemplos 31 e 35 notamos que o primeiro independe da escolha de uma base nos espaços considerados Por outro lado ao expressar R como uma matriz o segundo faz uso de bases nos espaços Rⁿ e Rm Em certo sentido no caso de aplicações lineares entre espaços de dimensão finita essa é a diferença entre aplicações lineares e matrizes a definição de uma aplicação linear independe da escolha de bases nos espaços envolvidos A matriz que representa uma aplicação linear entre os espaços Kⁿ e Km por sua vez faz uso da representação dos vetores x e Tx em bases dos respectivos espaços i i ALinear 20051219 1325 page 25 41 i i i i i i 32 Multiplicação de Matrizes 25 Definição 37 Sejam T S aplicações lineares de X para Y Definimos T Sx Tx Sx λTx λTx Com essas operações o conjunto de todas as aplicações lineares T X Y é um espaço vetorial algébrico1 denotado por LX Y Se você tiver lido o Capítulo 2 compare a definição anterior com a definição do espaço dual Verifique que LX Y é um espaço vetorial Lema 38 Sejam S T Kn Km Então S Tij Sij Tij e λTij λTij Em outras palavras estão assim definidas a soma de duas matrizes m n como a matriz obtida ao se somar as entradas correspondentes de cada matriz e a multiplicação de uma matriz por um escalar como a matriz obtida ao se multiplicar cada entrada da matriz pelo escalar As operações no espaço LKn Km correspondem às operações no conjunto das matrizes m n fazendo desse conjunto denotado por MmnK um espaço vetorial Demonstração Utilizando a notação do Teorema 33 temos por definição que aij e bij são as iésimas coordenadas dos vetores Tej e Sej Assim se somarmos as iésimas coordenadas desses vetores obtemos bij aij Por outro lado Sej Tej S Tej de modo que a iésima componente do vetor S Tej é bij aij Do mesmo modo a iésima componente do vetor λTej é λ multiplicado pela iésima componente do vetor Tej É fácil verificar que com essas operações MmnK é um espaço vetorial 2 32 Multiplicação de Matrizes Sejam X Y e Z espaços vetoriais sobre o mesmo corpo K e T X Y e S Y Z aplicações lineares Denotamos por S T X Z a aplicação composta de T com S Quer dizer S Tx STx É fácil verificar que S T LX Z Além disso vale 1Em contraposição ao espaço das aplicações lineares definido em cursos de Análise Funcional i i ALinear 20051219 1325 page 26 42 i i i i i i 26 Aplicações Lineares Cap 3 i R S T R S T R LZ W ii P S T P T S T P LY Z iii S T Q S T S Q Q LX Y As propriedades i e ii independem das aplicações envolvidas serem lineares Usualmente no caso de aplicações lineares denotamos S T por ST chamado de produto das aplicações lineares S e T Note que em geral ST TS na verdade os dois lados nem precisam estar simultaneamente definidos mesmo estando não há razão para serem iguais Através do Lema 38 foram interpretadas as operações no espaço vetorial LKn Km em termos de operações entre matrizes introduzindo assim operações em MmnK com as quais este é um espaço vetorial isomorfo ao espaço LKn Km verifique que temos realmente um isomorfismo A composição das aplicações lineares T Kn Km e S Km Kp pode ser interpretada como operação entre matrizes Isso introduz o produto de matrizes e justifica a denominação de produto para a composição de aplicações lineares bem como a notação ST ao invés de S T Vamos obter a expressão do produto de matrizes O nosso ponto de partida para isso consiste da expressão 31 Considerando o vetor x ej vemos que o lado direito de 31 produz a jésima coluna da matriz aij Mas Tej é justamente um vetor do Km cuja iésima coordenada é aij Tej cj em que cj é a jésima coluna da matriz que representa T 32 Assim é natural interpretar os vetores em Km como vetores coluna Para sermos consistentes interpretaremos tanto os vetores do Kn como os vetores do Km como vetores coluna Notamos assim em termos dessa interpretação de vetores que uma matriz A além de um arranjo retangular pode ser concebida de duas maneiras diferentes como uma linha de vetores coluna ou como uma coluna de vetores linha A c1 c2 cn ℓ1 ℓm 33 em que cj a1j amj e ℓi ai1 ai2 ain Utilizaremos as diversas concepções de uma matriz arranjo de números ou de vetores linha ou vetores coluna para podermos interpretar a composição de aplicações lineares e introduzirmos a multiplicação de matrizes Para isso começamos por um caso simples um funcional linear ℓ Kⁿ K De acordo com o Teorema 33 a essa aplicação corresponde uma matriz linha c1 cn Se você tiver lido o Capítulo 2 isso mostra que os elementos do espaço dual do Rⁿ são em termos matriciais justamente as matrizes linha isto é as matrizes formadas por uma única linha e n colunas De acordo com 31 ℓx c1x1 c2x2 cnxn Mas ℓ corresponde a uma matriz linha enquanto o vetor x Kⁿ é visto como uma coluna Chegamos assim a ℓx c1 cn x1 xn c1 x1 c2 x2 cn xn 34 expressão que serve como definição do produto de uma matriz linha por uma matriz coluna A fórmula de multiplicação de uma matriz m n por uma matriz coluna n 1 decorre também imediatamente de 31 se T LKⁿ Km for representada pela matriz aij então y Tx tem coordenadas yi j1n aij xj i1m 35 Uma vez que já convencionamos que os nossos vetores são representados por colunas e Tx a11 a12 a1n a21 a22 a2n am1 am2 amnx1 x2 xn vemos que y y1 y2 ym Tx ℓ1 ℓ2 ℓm x ℓ1 x ℓ2 x ℓm x 36 o que vem da comparação de 35 com 34 i i ALinear 20051219 1325 page 28 44 i i i i i i 28 Aplicações Lineares Cap 3 Agora é fácil obter a fórmula de multiplicação de uma matriz p m por uma matriz mn uma matriz pm corresponde a uma aplicação linear S LKm Kp e uma matriz m n a uma aplicação linear T LKn Km A composição ST LKn Kp está bem definida e produz uma matriz p n Vamos caracterizar essa matriz Pela equação 32 Tej é igual a cj a jésima coluna de T Do mesmo modo STej corresponde à jésima coluna da matriz que representa ST Aplicando a fórmula 36 para x cj Tej temos então STej STej Scj ℓ1cj ℓpcj em que ℓk é a késima linha de S para k 1 p Mostramos assim a regra se S for uma matriz p m e T uma matriz m n então o produto ST é uma matriz p n cuja entrada kj é o produto da késima linha de S pela jésima coluna de T STkj ℓkcj em que S ℓ1 ℓp e T c1 cn Expressando de outra forma ST Sc1 Sc2 Scn com Sci denotando a iésima coluna da matriz ST Definimos assim o produto de uma matriz m n por uma matriz n p Note que uma vez que o produto de transformações lineares é associativo a multiplicação de matrizes é associativa Outras propriedades básicas da multi plicação de matrizes decorrem do mesmo modo das propriedades análogas da composição de aplicações lineares Definição 39 Seja A uma matriz n n Dizemos que A é invertível se existir uma matriz B tal que AB BA I em que I denota a matriz identidade n n É fácil ver que existe no máximo uma matriz B com tal propriedade veja o Exercício 5 Denotamos portanto B A1 e chamamos A1 de inversa da matriz A i i ALinear 20051219 1325 page 29 45 i i i i i i 33 Espaço Linha e Espaço Coluna 29 33 Espaço Linha e Espaço Coluna Para 1 i m e 1 j n suponhamos conhecidos os valores aij e os valores bj Um sistema linear em m equações e n incógnitas procura a solução x1 xn que satisfaz a11x1 a1nxn b1 a21x1 a2nxn b2 am1x1 amnxn bm Em termos de matrizes esse sistema pode ser escrito como a11 a12 a1n a21 a22 a2n am1 am2 amn x1 x2 xn b1 b2 bm ou Ax b Se b 0 o sistema é chamado homogêneo se b 0 o sistema é não homogêneo Os sistemas Ax b e Ax 0 relacionamse de um modo especial de modo que informações sobre as soluções de um fornecem dados importantes para a solução do outro Por esse motivo no estudo do sistema Ax b o sistema Ax 0 é chamado sistema homogêneo associado Nesta e nas próximas seções estudaremos o sistema linear Ax b Para isso começamos estudando mais detalhadamente a matriz A aij MmnK Como sabemos ela pode ser vista por meio de suas linhas ou colunas A a11 a1n am1 amn c1 cn ℓ1 ℓm 37 Os vetores colunas c1 cn são vetores do Km Se C c1 cn chamamos de espaço coluna o espaço gerado por C isto é C Km Por outro lado podemos interpretar as linhas de A como elementos do próprio espaço Kn ou como elementos do dual Kn Se escrevermos L i i ALinear 20051219 1325 page 30 46 i i i i i i 30 Aplicações Lineares Cap 3 ℓ1 ℓm Kn chamamos de espaço linha o espaço gerado por L isto é L Kn Começamos interpretando o espaço coluna de uma matriz Para isso definimos Definição 310 Seja T X Y uma aplicação linear Definimos a imagem de T denotada por im T por im T y Y y Tx Definimos o núcleo de T denotado por ker T por ker T x X Tx 0 O núcleo e a imagem de T são subespaços vetoriais de X e Y respectivamente De fato se x1 x2 ker T e λ K então Tx1 λx2 Tx1 λTx2 0 λ0 0 provando que x1 λx2 ker T Se y1 y2 im T então existem x1 x2 X tais que y1 Tx1 e y2 Tx2 Logo se λ K y1 λy2 Tx1 λTx2 Tx1 λx2 o que mostra que y1 λy2 im T Lema 311 Considere o sistema linear nãohomogêneo Ax b em que A aij MmnK Então são equivalentes i Existe solução x para Ax b ii O vetor b é combinação linear das colunas de A Demonstração Basta notar que o sistema Ax b é equivalente à equação x1 a11 a21 am1 x2 a12 a22 am2 xn a1n a2n amn b1 b2 bm 2 Em outras palavras acabamos de mostrar que C é o subespaço im A Definição 312 Se A aij MmnK for uma matriz m n definimos a transposta de A como a matriz At at ij MnmK com at ij aji i i ALinear 20051219 1325 page 31 47 i i i i i i 33 Espaço Linha e Espaço Coluna 31 Assim se A for a matriz dada por 37 então At a11 am1 a1n amn Assim as colunas da matriz At são justamente as linhas da matriz A Como conseqüência imediata do Lema 311 temos que L im At 38 Se S for a aplicação linear representada pela matriz A com relação às bases canônicas do Kn e Km então L é a imagem da aplicação linear St que é chamada transposta da aplicação linear S e representada pela matriz At Vamos agora relacionar as dimensões dos espaços C e L de uma matriz A Mostraremos que esses espaços têm a mesma dimensão isso é um fato notável pois eles são subespaços de espaços vetoriais diferentes Teorema 313 Dada uma matriz m n seu espaço linha tem a mesma dimensão de seu espaço coluna Demonstração Suponhamos que os vetores b1 b11 b12 b1n b2 b21 b22 b2n br br1 br2 brn formem uma base do espaço linha da matriz A Então cada linha ℓi de A é combinação linear desses elementos ℓ1 λ11b1 λ1rbr ℓ2 λ21b1 λ2rbr ℓm λm1b1 λmrbr Igualando a componente i de cada uma dessas equações obtemos a1i λ11b1i λ12b2i λ1rbri a2i λ21b1i λ22b2i λ2rbri ami λm1b1i λm2b2i λmrbri i i ALinear 20051219 1325 page 32 48 i i i i i i 32 Aplicações Lineares Cap 3 Quer dizer a1i a2i ami b1i λ11 λ21 λm1 b2i λ12 λ22 λm2 bri λ1r λ2r λmr mostrando que as colunas de A são combinações lineares dos r vetores λ11 λ21 λm1 λ1r λ2r λmr Isso quer dizer que o espaço coluna tem dimensão no máximo igual a r ou seja dim C dim L Procedendo da mesma maneira com relação a uma base do espaço coluna mostramos que dim L dim C Assim essas duas dimensões são iguais2 2 Definição 314 Definimos o posto da matriz A denotado por posto A como sendo dim C dim L Se A for uma representação matricial da aplicação linear T definimos posto T posto A 34 Resolução de Sistemas Lineares Vamos estudar a resolução do sistema Ax b Para isso mais sinteticamente ainda representaremos esse sistema por uma única matriz chamada matriz 2De maneira mais elegante podemos notar que mostramos dim C dim L para qualquer matriz Aplicando esse fato à matriz At obtemos o resultado aumentada do sistema A A b a11 a12 a1n b1 a21 a22 a2n b2 am1 am2 amn bm É claro que se estivermos tratando de um sistema homogêneo Ax 0 não há necessidade de trabalhar com a matriz aumentada do sistema É fácil verificar que as seguintes operações sobre as linhas da matriz A não alteram o conjunto de soluções do sistema Ax b a Transpor as linhas i e j b Multiplicar a linha i por um escalar nãonulo c Substituir a linha j por sua soma com um múltiplo da linha i As operações a b e c são as operações elementares sobre as linhas da matriz A Consideremos então uma matriz satisfazendo as seguintes propriedades se existir o primeiro elemento nãonulo da linha i chamado pivô da linha i e se esse ocorrer na coluna j então se existir o pivô da linha i ℓ esse ocorre numa coluna k j para todo ℓ 1 m i o pivô de cada linha é igual a 1 Dizemos então que essa matriz ou o sistema está na forma escalonada e uma sucessão de operações elementares utilizadas para levar uma matriz qualquer C até Com relação a operação c note que x x1 x2 xn satisfaz ai1 x1 ain xn bi aj1 x1 ajn xn bj se e somente se satisfizer ai1 x1 ain xn bi aj1 α ai1 x1 ajn α ain xn bj α bi i i ALinear 20051219 1325 page 34 50 i i i i i i 34 Aplicações Lineares Cap 3 uma matriz na forma escalonada é um escalonamento da matriz C Segundo o Exercício 11 a uma matriz podem estar associadas diferentes formas escalonadas Dada uma matriz arbitrária C cij MmnK a sucessiva aplicação de operações elementares sobre suas linhas pode levála até uma forma escalonada De fato se existir algum elemento nãonulo na primeira coluna de C ao aplicarmos as operações elementares a e b obtemos uma nova matriz C c ij com c 11 1 A aplicação da operação elementar c torna possível transformar em zero qualquer outro elemento nãonulo da primeira coluna O resultado então seguese daí por indução sobre o número de linhas de C Suponhamos agora que uma matriz C esteja na forma escalonada Se cada pivô for o único elemento nãonulo de sua coluna dizemos que a matriz está na forma escalonada reduzida por linhas Aplicando a operação elementar c podemos fazer com que uma matriz na forma escalonada atinja sua forma reduzida por linhas De fato consideremos o pivô da última linha nãonula de C A aplicação da operação elementar c torna possível zerar os elementos que estão acima do pivô mantendo ainda a matriz na forma escalonada A demonstração agora seguese daí por indução aplicando o mesmo procedimento ao pivô da penúltima linha nãonula de C e assim sucessivamente Duas matrizes A e B são equivalentes por linha se existir uma sucessão de operações elementares sobre as linhas de A que a transforma na matriz B Note que a aplicação de uma única operação elementar não altera o espaço linha de uma matriz Por conseguinte são iguais os espaços linhas de duas matrizes equivalentes por linha Proposição 315 Seja A MmnK O sistema Ax b não possui solução se e somente se a forma escalonada reduzida por linhas da matriz aumentada A A b possuir um pivô na última coluna Demonstração Se a forma escalonada reduzida por linhas de A possuir uma linha com a forma 0 1 claramente o sistema Ax b não tem solução Denotaremos por R c a forma escalonada reduzida por linhas da matriz A uma vez ignorada todas as linhas nulas Suponhamos que a forma R c não possua uma linha do tipo 0 1 É claro que o número de coordenadas de c corresponde ao número de pivôs em R i i ALinear 20051219 1325 page 35 51 i i i i i i 34 Resolução de Sistemas Lineares 35 as colunas correspondentes aos pivôs formam uma base do espaço coluna de R Assim c é um vetor com o mesmo número de coordenadas que a dimensão do espaço coluna de R Ou seja c está no espaço coluna de R e portanto o sistema Rx c possui solução Veja o Exercício 23 do Capítulo 1 Como o conjunto de soluções não é alterado por operações elementares o sistema Ax b possui solução 2 Vamos agora mostrar que existe apenas uma forma escalonada reduzida por linhas para A A b Começamos com uma observação simples que é a base da prova do próximo resultado uma vez que o espaço linha de uma matriz não é alterado pela aplicação de uma sucessão de operações elementares quaisquer que sejam as maneiras de se escalonar a matriz aumentada A b do sistema Ax b as formas escalonadas obtidas ou terão todas pivôs na última coluna correspondente à coluna do vetor b e portanto o sistema não terá solução ou nenhuma delas terá pivô na última coluna e portanto o sistema terá solução Lema 316 Consideremos o sistema Ax b para x Kn Seja A A b a matriz aumentada desse sistema Então os pivôs obtidos em qualquer escalonamento de A são sempre os mesmos Demonstração Denotemos por ck a késima coluna de A Qualquer que seja o escalonamento de A ele terá um pivô na primeira coluna apenas quando c1 0 Assim a existência de um pivô na primeira coluna independe do modo de se escalonar A Consideremos então a existência de um pivô na coluna k com k 2 n Tomemos a submatriz Bk1 obtida de A ao se considerar suas k1 colunas iniciais Bk1 c1 c2 ck1 Notamos que se uma seqüência de operações elementares produzir um esca lonamento de A então ela produz um escalonamento de Bk1 Reciprocamente se tivermos um escalonamento de Bk1 então as k 1 colunas iniciais de A foram escalonadas Para x Kk1 consideremos então o sistema Bk1x ck i i ALinear 20051219 1325 page 36 52 i i i i i i 36 Aplicações Lineares Cap 3 Esse sistema não possui solução se e somente se ao escalonarmos a matriz aumentada Bk1 ck obtivermos um pivô em sua última coluna Mas como já vimos a existência desse pivô independe de como foi feito esse escalonamento O resultado está provado 2 É claro que numa matriz A MmnK o número máximo possível de pivôs é igual a n um para cada coluna de A Chamamos de variável livre do sistema Ax b a toda coordenada de x correspondente a uma coluna de A sem pivô Teorema 317 Matrizes escalonadas reduzidas por linha têm o mesmo espaço linha se e somente se tiverem as mesmas linhas nãonulas Em particular cada matriz é equivalente a uma única matriz na forma escalonada reduzida por linhas Demonstração É claro que duas matrizes que possuem as mesmas linhas não nulas possuem o mesmo espaço linha Por outro lado suponhamos que duas matrizes A e B ambas na forma escalonada reduzida por linhas tenham o mesmo espaço linha Seja ℓ a última linha nãonula de A Suponhamos que essa seja a késima linha de A Como os pivôs de duas formas escalonadas reduzidas por linhas ocorrem nas mesmas posições a matriz B possui exatamente k linhas nãonulas ℓ1 ℓk Denotemos as coordenadas de ℓ por ℓ1 ℓn e as de ℓi por ℓ1 i ℓn i para i 1 k Quer dizer estamos supondo que A e B tenham n colunas Suponhamos que o pivô da linha ℓ ocorra na posição r Como pivôs ocorrem na mesma posição concluímos que o pivô da linha ℓk ocorre na posição r Como os espaços linhas de A e B são iguais existem escalares λ1 λk tais que ℓ λ1ℓ1 λkℓk 39 Como as coordenadas ℓ1 ℓr1 de ℓ são todas nulas e os pivôs de ℓ1 ℓk devem ocorrer em posições anteriores à posição r necessariamente λk 1 e λ1 λk1 0 Quer dizer a última linha nãonula de A é igual à última linha nãonula de B Repetindo sucessivamente esse argumento concluímos que todas linhas nãonulas de A e B são iguais 2 Dois sistemas Ax b e Ax b são equivalentes se possuírem as mesmas soluções Isso quer dizer que as matrizes aumentadas desses sistemas têm o mesmo espaço linha Passando à forma escalonada reduzida por linhas podemos aplicar o Teorema 317 e concluir que as matrizes aumentadas desses sistemas possuem a mesma forma escalonada reduzida por linhas 35 O Teorema do Núcleo e da Imagem Nesta Seção provaremos um dos resultados mais importantes da Álgebra Linear Teorema 318 do Núcleo e da Imagem Seja T LXY Então os espaços vetoriais Xker T e im T são canonicamente isomorfos Em particular se X e Y tiverem dimensão finita então dim X dimker T dimim T 310 Para motivar a demonstração que apresentaremos cujo fundamento perpassa o estudo de todas as estruturas algébricas apresentamos o Exemplo 319 Para A MmnK considere o sistema linear nãohomogêneo Ax b Suponhamos que xp seja uma solução desse sistema Claramente xp z também é solução do sistema qualquer que seja z ker A Mas essas são as únicas soluções De fato se x for outra solução temos que Ax xp 0 de modo que x xp z ker A A igualdade x xp z significa que x xp mod ker A Portanto no espaço quociente Kⁿker A a equação Ax b terá solução única xp Demonstração A prova do Teorema do Núcleo e da Imagem é sintetizada no seguinte diagrama setas verticais sempre indicarão isomorfismos X im T Tq Xker T Vamos definir Tq Xker T im T por Tqx Tx e mostrar que Tq é um isomorfismo canônico Temos 1 Tq está bem definida x y mod ker T quer dizer que Tx y 0 ou seja Tx Ty 2 Tq é linear Tqx λy Tqx λy Tx λy Tx λTy Tqx λTqy 3 Tq é injetora se Tqx Tqy então Tx Ty e Tx y 0 donde x y mod ker T 4 Tq é sobrejetora por definição Logo Tq é um isomorfismo canônico Se X e Y tiverem dimensão finita deduzimos que dim Xker T dimim T Mas como já vimos dimXker T dim X dimker T de onde seguese a afirmação sobre as dimensões completando a prova do teorema A demonstração anterior nos mostra a utilidade essencial do espaço quociente mesmo se T não tiver inversa podemos construir de maneira natural um isomorfismo a partir de T no caso a aplicação Tq Devido a sua importância apresentaremos uma demonstração alternativa da fórmula 310 sem fazer uso do conceito de espaço quociente Demonstração alternativa da fórmula 310 Seja x₁xj uma base de ker T Completamos esse conjunto até obter uma base 𝓑 x₁xj wj1wn de X Claramente X ker T W em que W é o espaço gerado por wj1wn Afirmamos que Twj1Twn é uma base de im T Y De fato suponhamos que αj1 Twj1 αn Twn 0 Então Tαj1 wj1 αn wn 0 mostrando que αj1 wj1 αn wn ker T Mas então αj1 αn 0 pois X ker T W Isso mostra que os vetores Twj1Twn são linearmente independentes i i ALinear 20051219 1325 page 39 55 i i i i i i 35 O Teorema do Núcleo e da Imagem 39 Seja agora y im T Então existe x X tal que Tx y Como B é base de X x α1x1 αjxj αj1wj1 αnwn e portanto y Tx αj1Twj1 αnTwn mostrando que esses vetores geram im T Isso conclui a prova 2 Se você comparar essas duas demonstrações perceberá que a essência da segunda é o procedimento aplicado na primeira mostramos que existe um isomorfismo entre o espaço gerado por wj wn que denotaremos por W e o espaço im T cuja base é Twj Twn Note que W é isomorfo a X ker T segundo o Teorema 129 Mostraremos agora algumas conseqüências do Teorema do Núcleo e da Imagem Nesses resultados T X Y denota uma aplicação linear As demonstrações seguemse imediatamente da fórmula dim X dimim T dimker T Corolário 320 Suponhamos que dim Y dim X Então dimker T 1 Demonstração Note que em particular dimim T dim Y dim X 2 O Corolário 320 é muitas vezes formulado em termos de sistemas lineares Corolário 321 Seja A MmnK com m n Então o subespaço de todas as soluções do sistema linear homogêneo Ax 0 têm dimensão maior do que ou igual a 1 Corolário 322 Se dim X dim Y então T é injetora se e somente se for sobrejetora Demonstração Se T for injetora Tx 0 implica x 0 Logo dimker T 0 Assim dimim T dim X dim Y e portanto im T Y Reciprocamente se T for sobrejetora im T Y e portanto dimker T 0 2 Em particular se dim X dim Y o Corolário 322 garante que T é injetora se e somente se ker T 0 Esse resultado é válido na verdade para quaisquer espaços vetoriais X e Y De fato4 se T for injetora claramente ker T 0 se existisse x1 x2 tal que Tx1 Tx2 então Tx1 x2 0 com x1 x2 0 A formulação do Corolário 322 em termos de sistemas lineares é a seguinte 4Veja o Exercício 13 do Capítulo 1 i i ALinear 20051219 1325 page 40 56 i i i i i i 40 Aplicações Lineares Cap 3 Corolário 323 Seja A MnnK Então o sistema nãohomogêneo Ax b tem solução única para todo b Y se e somente se o sistema homogêneo Ax 0 tiver solução única O seguinte resultado decorre imediatamente do Teorema 313 Corolário 324 Se A MmnK então dimim A dimim At O próximo resultado vale apenas para matrizes quadradas Corolário 325 Seja A uma matriz n n Então dimker A dimker At Demonstração De fato se r dimim A dimim At a aplicação do Teorema do Núcleo e da Imagem garante que dimker A n r e dimker At m r Daí decorre o afirmado 2 Finalmente enunciamos o resultado apresentado no Exemplo 319 que não passa de uma caracterização do isomorfismo dado na primeira demonstração do Teorema do Núcleo e da Imagem Proposição 326 Seja b Km um elemento da imagem de T Kn Km Então existe um único elemento xp Kn tal que toda solução de Tx b é congruente a xp módulo ker T isto é se Tx b então x xp z para algum z ker T Em outras palavras se o sistema Ax b possuir uma solução xp então todas as suas soluções são xp z em que z ker A 36 Aplicações Lineares e Matrizes parte 2 Na primeira Seção deste Capítulo mostramos como associar a cada aplicação linear T Kn Km uma matriz A aij que representa T com relação às bases canônicas do Kn e Km Mostraremos agora que a mesma associação entre aplicações lineares e matrizes é válida para o caso de uma aplicação linear T X Y entre espaços vetoriais de dimensão finita X e Y A principal diferença nesse caso consiste em não termos uma escolha natural para bases nos espaços X e Y Suponhamos que dim X n e dim Y m i i ALinear 20051219 1325 page 41 57 i i i i i i 36 Aplicações Lineares e Matrizes parte 2 41 Escolhendo uma base arbitrária B x1 xn do espaço X e escrevendo x λ1x1 λnxn a aplicação B X Kn definida por Bx λ1 λn λ1e1 λnen é um isomorfismo entre X e Kn Da mesma forma ao se escolher uma base C y1 ym no espaço Y obtémse um isomorfismo C entre Y e Km Temos assim o seguinte diagrama as setas verticais sempre indicam isomorfismos T X Y B C Kn Km TK 311 A aplicação linear TK é definida como composta de aplicações lineares estamos usando a notação de composta para enfatizar TK C T B1 e é representada por uma matriz A de acordo como o que vimos na primeira seção deste capítulo É usual chamar a matriz A de representação da aplicação linear T com respeito às bases B e C dos espaços X e Y respectivamente e denotar A T C B Temos assim uma identificação entre a aplicação linear T com X e Y considerados com as bases B e C respectivamente e a matriz A T C B Com essa identificação o diagrama 311 pode ser condensado T C B X B Y C 312 estamos enfatizando na expressão dos espaços X e Y as bases que produziram a matriz T C B Note entretanto que X B é uma notação para o espaço Kn ressaltando a base usada em X para tornálo isomorfo a Kn Suponhamos que exista T 1 Essa aplicação linear terá uma representação matricial T 1B C É fácil verificar que A1 T 1B C veja o Exercício 23 Exemplo 327 Sejam X e Y espaços vetoriais com bases B x1 xn e C y1 ym respectivamente Seja T X Y uma aplicação linear Vejamos como obter T C B Para isso usamos o diagrama T X Y B C Kn Km T C B Como vimos a iésima coluna da matriz procurada é obtida ao se calcular T𝓒ℬ e₁ CTB¹ei Mas Bxi ei de modo que CTB¹ei CTB¹ei CTxi Como C é a aplicação que associa a Txi Y as suas coordenadas na base C temos que a iésima coluna da matriz procurada é TxiC Note que em particular teremos a representação matricial de uma aplicação linear T Kⁿ Kᵐ se escolhermos bases arbitrárias em Kⁿ e Kᵐ Associamos assim a cada aplicação linear T X Y uma matriz cuja expressão depende dos isomorfismos entre X Kⁿ e Y Kᵐ Esses por sua vez dependem das bases consideradas nos espaços X e Y Uma vez que cada escolha de base em X produz um isomorfismo diferente entre X Kⁿ e o mesmo acontece com Y Kᵐ vemos que existem muitas maneiras distintas de representar uma transformação linear por meio de uma matriz Como se relacionam essas diferentes matrizes que representam a aplicação linear T Para responder a essa pergunta começamos estudando como se relacionam as representações de x em bases 𝓑 x₁xₙ e 𝓑 x₁xₙ do espaço X O mesmo procedimento anterior pode ser utilizado X X B 𝓑 Kⁿ Kⁿ P𝓑𝓑 Para sermos coerentes com a notação anterior deveríamos escrever I𝓑𝓑 ao invés de P𝓑𝓑 Entretanto é usual denotar esse tipo de matriz pela letra P De acordo com o exemplo 327 a iésima coluna de P𝓑𝓑 é obtida calculandose a expressão de BIB¹e₁ BIx₁ xi𝓑 A matriz P𝓑𝓑 é chamada matriz mudança⁵ da base 𝓑 para a base 𝓑 Dadas as coordenadas de x na base 𝓑 isto é x𝓑 as coordenadas de x na base 𝓑 são dadas por P𝓑𝓑x𝓑 x𝓑 Claramente a matriz P𝓑𝓑 possui inversa P𝓑𝓑 Consideremos agora uma outra representação T𝓒ℬ relativa às bases 𝓑 de X e 𝓒 de Y Temos o diagrama X B Y C PBB QCC X B Y C TCB Esse diagrama cujas componentes são matrizes nos mostra que TCB QCC1 TCB PBB QCC TCB PBB O caso em que os espaços X e Y são iguais permite que se tome a mesma base nos dois espaços Nesse caso denotamos TBB por TB que é chamada representação de T na base B A relação entre TB e TB é dada por TB PBB1 TB PBB PBB TB PBB para qualquer outra base B de X Observação 328 Dada uma aplicação linear T X X entre espaços de dimensão n a escolha de bases B e C em X pode fazer com que a representação matricial de T assuma formas bem gerais Por exemplo se T for invertível TCB pode ser a matriz identidade Veja o Exercício 39 Assim a representação de T em bases completamente arbitrárias quase não nos passa informação relevante sobre a aplicação T Exemplo 329 Considere a aplicação linear T R2 R2 definida por Txy 4x 2y 2x y Para simplificarmos a notação neste exemplo escreveremos os nossos vetores indiferentemente como linhas ou colunas Seja B a base do R2 formada pelos vetores v1 11 e v2 10 Vamos achar a matriz que representa T com relação à base B Quer dizer estamos utilizando a mesma base no domínio e na imagem e procuramos a matriz TB Para isso calculamos Tv1 23 311 10 3v1 v2 Note que escrevemos a imagem de Tv1 na base B utilizada também no contradomínio De acordo com a notação introduzida na Definição 115 temos Tv1B 3 1 Da mesma forma Tv2 42 211 210 2v1 2v2 e portanto Tv2B 2 2 Assim TB 3 2 1 2 As colunas de TB são as imagens dos vetores da base B escritas na própria base B utilizada nesse caso também no contradomínio Se quisermos calcular a imagem do vetor 12 1e1 2e2 utilizando a matriz TB primeiro expressamos esse vetor na base B 1 2 211 110 2v1 v2 Calculando TB21 3 21 221 4 4 obtemos a resposta na base B Se quisermos a resposta na base canônica precisamos escrever o resultado obtido nessa base 4v1 4v2 411 410 04 0e1 4e2 que é o mesmo resultado que obtemos ao calcular diretamente T12 utilizando a expressão Txy 4x 2y 2x y Para entendermos melhor a estrutura deste exemplo temos o seguinte diagrama R2 E R2 E PBE PBE R2 B R2 B TB Aqui TE é a representação natural da transformação Txy 4x 2y 2x y Isso é a matriz cujas colunas são respectivamente T10 4 2t e T01 2 1t A matriz TB é a matriz obtida no exemplo A matriz PBE é a matriz mudança da base E para a base B Ela é obtida pelo mesmo método escrevemos a imagem dos vetores e1 e2 pela aplicação identidade na base B Temos 10 011 110 0v1 v2 e 01 111 110 1v1 1v2 A matriz PBE é então PBE 0 1 1 1 O diagrama anterior garante que TE PBE1 TB PBE ou seja 4 2 2 1 0 1 1 11 3 2 1 2 0 1 1 1 Se calcularmos a inversa da matriz PBE verificaremos esse fato Entretanto é fácil obter PEB Essa matriz tem como colunas a expressão dos vetores v1 e v2 na base canônica Assim é claro que PEB 1 1 1 0 Verifique que PEB PBE1 37 A Transposta de uma Aplicação Linear Esta Seção é mais avançada e pode ser omitida sem prejuízo para o restante do texto Existe uma maneira intrínseca de se definir a aplicação transposta Tt de um operador linear T No caso de aplicações lineares denotase a transposta Tt também por T o que faremos a seguir Veja o Exercício 10 do Capítulo 2 Para isso sejam T X Y uma aplicação linear entre os espaços X e Y Considere ℓ Y isto é ℓ Y K é linear Então o produto dessas aplicações isto é a composta ℓT X K é um elemento do dual X Nossa notação provisória é mℓx ℓTx Note que variando ℓ Y obtemos diferentes aplicações m X Consideremos então T Y X definida por Tℓ ℓT mℓ Desse modo a aplicação T é uma aplicação definida no espaço dual Y e tomando valores no espaço dual X Afirmamos que T é linear De fatoTℓ1 λℓ2 ℓ1 λℓ2T ℓ1T λℓ2T Tℓ1 λTℓ2 para quaisquer ℓ1 ℓ2 Y e λ K Vamos agora introduzir uma nova notação para a avaliação de um elemento do dual em um ponto do espaço até agora ℓz denota a avaliação de ℓ Z K no ponto z Z É usual denotar ℓz por ℓ z Abandonaremos a notação provisória mℓ e usaremos a notação Tℓ Assim por definição Tℓ x ℓ Tx ou o que é o mesmo Tℓ ℓT 313 Nosso próximo objetivo é caracterizar a aplicação T para o caso de T Rn Rm Veremos que podemos representar T a aplicação transposta por uma matriz que é justamente a transposta da matriz que representa T com relação às bases canônicas do Rn e Rm O lado direito de 313 tem interpretação imediata como ℓ Rm ℓ é dada por uma matriz linha de modo que ℓT c1 cm a11 a1n am1 amn i i ALinear 20051219 1325 page 47 63 i i i i i i 38 Exercícios 47 Se quisermos interpretar T como uma matriz então devemos identificar Km com Km e Kn com Kn Assim T Km Kn passa a ser vista como uma aplicação T Km Kn O vetor coluna ℓ Km quando aplicado a T satisfaz a igualdade T ℓ ℓT ou seja se B bij for a representação matricial de T com relação às bases canônicas do Km e Kn então T c1 cm b11 b1m bn1 anm c1 cm c1 cm a11 a1n am1 amn A segunda igualdade mostra que B bij deve satisfazer bij aji como se verifica mediante escolha adequada de c1 cm Mas então B At como antes definido 38 Exercícios 1 Seja A c1 ck cn uma matriz descrita por meio de suas colunas Se x x1e1 xnen interprete Ax como uma multiplicação das colunas de A pelo vetor x Em seguida interprete a multiplicação AB de duas matrizes como uma operação envolvendo as colunas dessas matrizes 2 Considere os polinômios p1t 7t5 6t2 p2t 1 t no espaço K6t de todos os polinômios de grau menor que 6 a Se S p1 p2 descreva S b ache uma base B de K6t que completa o conjunto linearmente independente S c determine a representação de cada um dos vetores de B nessa base d determine a representação de q K6t em termos da base B 3 Mostre que LX Y introduzido na Definição 37 é um espaço vetorial 4 Se você tiver lido o Capítulo 2 represente em matrizes a base dual da base canônica e1 en do Rn 5 Dada uma matriz A n n mostre que existe no máximo uma matriz B tal que AB BA I em que I MnnK i i ALinear 20051219 1325 page 48 64 i i i i i i 48 Aplicações Lineares Cap 3 6 Mostre que uma matriz quadrada A tem inversa se e somente se o sistema Ax 0 só possuir a solução trivial 7 Seja A MnnK uma matriz diagonal com todos os elementos diagonais distintos Se B comutar com A mostre que B é diagonal 8 Quais matrizes A MnnK comutam com todas as matrizes B MnnK 9 Exiba uma base de MnnK formada apenas por matrizes invertíveis 10 Seja Kt o espaço de todos os polinômios na incógnita t Considere T Kt K6t definida da seguinte maneira se p Kt então Tp é o polinômio em K6t cujos coeficientes de grau menor que 6 são iguais aos coeficientes de p Mostre que T é linear Ache uma base para im T e ker T O Teorema do Núcleo e da Imagem pode ser aplicado Justifique 11 Mostre que o escalonamento do mesmo sistema pode produzir duas formas escalonadas distintas 12 Mostre que a equivalência por linhas tal qual definida na página 34 é uma relação de equivalência 13 Seja A uma matriz n n Mostre que são equivalentes as seguintes afirmações a existe uma matriz B n n tal que BA I b a matriz A é equivalente por linhas à matriz identidade I c a matriz A é invertível 14 Sejam A e B matrizes m n equivalentes por linhas com colunas a1 an e b1 bn respectivamente a As colunas aj1 ajk de A são linearmente independentes se e somente se as colunas correspondentes bj1 bjk de B forem linear mente independentes b se existirem escalares tais que aℓ αj1aj1 αjkajk então existem escalares tais que bℓ βj1bj1 βjkbjk i i ALinear 20051219 1325 page 49 65 i i i i i i 38 Exercícios 49 c o espaço gerado pelas linhas de A é igual ao espaço gerado pelas linhas de B 15 Mostre a Proposição 326 utilizando o isomorfismo Tq definido na primeira demonstração do Teorema do Núcleo e da Imagem 16 Enuncie e demonstre o Teorema do Núcleo e da Imagem substituindo X ker T por um espaço Z tal que X ker T Z Você deve dar uma demonstração direta isto é sem apelar para o próprio Teorema do Núcleo e da Imagem 17 Uma projeção é uma aplicação linear π X X tal que π2 π Mostre que toda projeção π X X satisfaz X ker π im π compare com o Exercício 28 Seja X W1 W2 e x w1 w2 com wi Wi Mostre que Π X W1 definida por Πx w1 é uma projeção 18 Sejam π1 π2 X X projeções Mostre que são equivalentes a π1 π2 é uma projeção b π1π2 π2π1 0 c π1π2 π2π1 0 19 Sejam X e Y espaços vetoriais e B uma base de X mesmo que X tenha dimensão infinita Faça corresponder de maneira arbitrária um vetor yx Y a cada elemento x B Mostre que existe uma única transformação linear T X Y tal que Tx yx para todo x B Note que em particular isso implica que uma transformação linear T Kn Km fica completamente determinada pela imagem que ela assume em qualquer base do Kn Mostre então que uma transformação linear T X Y é injetora se e somente se levar vetores linearmente independentes em vetores linearmente independentes 20 Sejam X e Y espaços vetoriais com a mesma dimensão finita Suponha que para as aplicações linear T X Y e S Y X seja verdadeiro ST I a identidade em X Mostre que S T 1 Compare com o Exercício 29 21 Se T X Y e S Y Z forem aplicações lineares invertíveis mostre que ST1 T 1S1 Mostre também que St1 S1t i i ALinear 20051219 1325 page 50 66 i i i i i i 50 Aplicações Lineares Cap 3 22 Seja A MmnK Considere os seguintes métodos para obterse uma base para im A a Escolha uma base para Kn Calcule a imagem dos vetores dessa base Esses vetores geram a imagem Extraia então um subconjunto linearmente independente que é a base procurada b Obtenha uma base para ker At Complete até obter uma base do espaço inteiro Os vetores introduzidos formam uma base do espaço im A c Escalone a matriz At veja a Seção A As transpostas das linhas não nulas de At nos dão uma base de im T d Calcule uma base de ker T Complete esse conjunto até obter uma base do espaço inteiro As imagens dos vetores adicionados à base de ker T formam uma base de im A e Seja b b1 b2 bmt um vetor genérico do Km Monte a matriz aumentada do sistema veja a Seção A Escalone o sistema e imponha que ele possua solução Cada linha nula no escalonamento de A produz uma equação na matriz aumentada e a imagem é o conjunto dos pontos que satisfazem essas equações Extraia daí uma base O que acontece se não houver linha nula f Escalone a matriz A As colunas de A correspondentes aos pivôs veja a Seção A da forma escalonada de A são uma base de im A Justifique quais desses métodos realmente produzem bases de im A Considere agora A 3 1 2 4 1 1 1 1 1 2 2 2 2 1 1 Utilize todos os métodos corretos dentre as alternativas anteriores para obter bases para im A 23 Seja T X Y uma aplicação linear invertível representada com relação às bases B e C dos espaços X e Y respectivamente pela matriz T C B Mostre que a aplicação inversa T 1 é representada com relação às bases C e B pela matriz T C B1 24 Seja X um espaço vetorial de dimensão finita sobre K Para v w X definimos v w se existir uma transformação linear invertível T X X tal que Tv w Mostre que assim está definida uma relação de equivalência Mostre também que essa relação de equivalência possui apenas duas classes uma formada apenas pelo elemento 0 X e a outra formada por todos os outros vetores de X 25 Se M a11 a12 a21 a22 defina T M22K M23K por TM a12 a11 a12 a21 a12 a22 a21 a11 a22 a21 Sejam B 1 0 0 1 1 1 0 0 1 1 1 0 1 1 1 1 B 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 C 1 0 0 0 1 1 0 0 1 1 1 01 1 1 1 1 1 1 C 1 0 0 0 0 1 0 0 0 1 00 0 0 1 0 0 1 a Mostre que T M22 M23 é linear b mostre que B e B são bases de M22 enquanto C e C são bases de M23 c ache a representação matricial de T relativa às bases B e C bem como a relativa às bases B e C d ache a relação entre essas matrizes e obtenha bases para ker T e im T 26 Sejam Txyx xyzyzx e B 101 010 101 Então a ache a matriz TB b usando essa matriz especifique uma base para ker T e im T c calcule T111 utilizando a representação matricial calculada em a 27 A definição dos espaços ker T e im T de uma aplicação linear T X Y independe da existência de bases nesses espaços Contudo se A for uma matriz que representa uma aplicação linear tanto ker A como im A dependem das bases consideradas no domínio e no contradomínio Explique 28 Sejam X um espaço vetorial de dimensão finita e T X X uma aplicação linear Mostre que X ker T im T se e somente se ker T ker T2 29 Sejam A e B matrizes não necessariamente quadradas Suponha que AB I a identidade no espaço apropriado Mostre que posto A posto B 30 Sejam S T X Y e R Y Z aplicações lineares Mostre a postoST postoS postoT b postoRS minpostoS postoT 31 Dê exemplo de matrizes A B tais que AB0 mas BA0 32 Sejam A B matrizes quadradas invertíveis Mostre que AB1 B1A1 33 Sejam A Mmn e B Mnp matrizes em blocos A11 A12 A21 A22 q mq e r nr B11 B12 B21 B22 r nr t pt i i ALinear 20051219 1325 page 54 70 i i i i i i 54 Aplicações Lineares Cap 3 39 Sejam X Y espaços de dimensão finita Duas aplicações lineares S T X Y são equivalentes em bases se existirem bases B B de X e C C de Y de modo que T C B SC B Mostre que assim está definida uma relação de equivalência Mostre que duas aplicações de mesmo posto são sempre equivalentes em bases Descreva em termos de diagramas a equivalência em bases Em particular mostre que S e T são equivalentes em bases se e somente se existirem aplicações lineares invertíveis P X X e Q Y Y tais que S PTQ 40 Sejam X um espaço vetorial e U V X subespaços Mostre que U V V e U U V são isomorfos Esse isomorfismo é canônico 38 Exercícios com blocos A₁₁ Mqr A₁₂ Mqnr A₂₁ Mmqr A₂₂ Mmqnr para a matriz A e blocos B₁₁ Mrt B₁₂ Mrpt B₂₁ Mnrt B₂₂ Mnrpt para a matriz B Mostre que AB A₁₁B₁₁ A₁₂B₂₁ A₁₁B₁₂ A₁₂B₂₂ A₂₁B₁₁ A₂₂B₂₁ A₂₁B₁₂ A₂₂B₂₂ 34 Sejam A e D matrizes p p e n p n p respectivamente Mostre que a matriz X A B 0 D é invertível se e somente se as matrizes A e D forem invertíveis Nesse caso X¹ A¹ A¹BD¹ 0 D¹ 35 Sejam A B C D MnnK Suponha que A seja invertível Mostre que existem matrizes X Y MnnK tais que P A B C D A O C I I Y 0 X Decomponha P de maneira similar se B C ou D forem invertíveis 36 Seja T X X uma transformação linear e X W₁ Wk Suponhamos que TWᵢ Wᵢ para i 1 k dizemos que os subespaços Wᵢ são invariantes por T Se Bᵢ for uma base de Wᵢ mostre que B B₁ Bk é uma base de X Ache TB em termos de TBᵢ 37 Seja X um espaço de dimensão finita e T X X um operador tal que TV V para algum subespaço V X Sempre existe W X tal que TW W e X V W 38 Sejam A B MnnK o espaço das matrizes n n com coeficientes em K Dizemos que A é semelhante a B se existir uma matriz invertível P MnnK tal que B P¹AP Mostre que a semelhança é uma relação de equivalência Esboce um diagrama que representa essa relação de equivalência É usual dizer então que A e B são iguais a menos de uma mudança de base Essa frase faz sentido para você 38 Exercícios com blocos A₁₁ Mqr A₁₂ Mqnr A₂₁ Mmqr A₂₂ Mmqnr para a matriz A e blocos B₁₁ Mrt B₁₂ Mrpt B₂₁ Mnrt B₂₂ Mnrpt para a matriz B Mostre que AB A₁₁B₁₁ A₁₂B₂₁ A₁₁B₁₂ A₁₂B₂₂ A₂₁B₁₁ A₂₂B₂₁ A₂₁B₁₂ A₂₂B₂₂ 34 Sejam A e D matrizes p p e n p n p respectivamente Mostre que a matriz X A B 0 D é invertível se e somente se as matrizes A e D forem invertíveis Nesse caso X¹ A¹ A¹BD¹ 0 D¹ 35 Sejam A B C D MnnK Suponha que A seja invertível Mostre que existem matrizes X Y MnnK tais que P A B C D A O C I I Y 0 X Decomponha P de maneira similar se B C ou D forem invertíveis 36 Seja T X X uma transformação linear e X W₁ Wk Suponhamos que TWᵢ Wᵢ para i 1 k dizemos que os subespaços Wᵢ são invariantes por T Se Bᵢ for uma base de Wᵢ mostre que B B₁ Bk é uma base de X Ache TB em termos de TBᵢ 37 Seja X um espaço de dimensão finita e T X X um operador tal que TV V para algum subespaço V X Sempre existe W X tal que TW W e X V W 38 Sejam A B MnnK o espaço das matrizes n n com coeficientes em K Dizemos que A é semelhante a B se existir uma matriz invertível P MnnK tal que B P¹AP Mostre que a semelhança é uma relação de equivalência Esboce um diagrama que representa essa relação de equivalência É usual dizer então que A e B são iguais a menos de uma mudança de base Essa frase faz sentido para você 4 Determinantes Aqui é feita uma apresentação elementar da teoria de determinantes e suas propriedades incluindo a regra de Cramer A relação entre determinantes e volumes será apresentada nos exercícios do Capítulo 8 41 Determinantes de Matrizes 2 2 Consideremos inicialmente uma matriz A a b c d c₁ c₂ com entradas no corpo K e colunas c₁ c₂ Denotase por det A o determinante de A que é definido por det A ad bc As seguintes propriedades são de verificação imediata i Se duas colunas forem iguais então o determinante da matriz A é igual a zero det a a c c 0 ii O determinante é uma aplicação linear em cada uma de suas colunas Mais precisamente detc₁ αc₁ c₂ det a λα b c λc d det a b c d λ det a b c d detc₁ c₂ α detc₁ c₂ e detc₁ c₂ αc₂ det a b μb c d μd det a b c d μ det a b c d detc₁ c₂ α detc₁ c₂ iii O determinante da matriz identidade 2 2 é igual a 1 Também temos iv Se trocarmos as colunas de A o determinante muda de sinal detc₂ c₁ det b a d c det a b c d detc₁ c₂ v Se somarmos a uma coluna um múltiplo da outra então o determinante de A não se altera det a λb b c λd d det a b c d e det a b μa c d μc det a b c d vi Se c₁ αc₂ então det A 0 det αc c αd d α det c c d d 0 vii det A det Aᵗ det a b c d det a c b d Consideremos agora um sistema linear com duas equações nas incógnitas x₁ e x₂ ax₁ bx₂ y₁ cx₁ dx₂ y₂ em que as constantes a b c d y₁ e y₂ são arbitrárias Multiplicando a primeira equação por d e a segunda por b e então somando obtemos x₁ad bc y₁d y₂b Analogamente x2ad bc ay2 cy1 Escrevendo o sistema matricialmente na forma Ax y a b c dx1 x2 y1 y2 vemos que sua solução se det A 0 pode ser escrita em termos de determinantes x1 det y1 b y2 d det A e x1 det a y1 c y2 det A Essa é a regra de Cramer para a solução de um sistema de duas equações em duas incógnitas 42 Função Determinante Definiremos uma função determinante a partir das propriedades satisfeitas pelo determinante de uma matriz 2 2 Definição 41 Sejam c1 c2 cn ℝn Uma função determinante Dc1 cn é uma função D ℝn ℝn ℝ c1 cn Dc1 cn satisfazendo as seguintes propriedades d1 D é uma função alternada isto é se ci cj para i j i j 1 n então Dc1 cn 0 d2 Dc1 cn é uma função nlinear isto é D é uma aplicação linear em cada coordenada as outras sendo mantidas fixas mais precisamente se todos os cj com j i estiverem fixos Dc1 λci ci cn λDc1 ci cn Dc1 ci cn d3 De1 en 1 em que e1 en é a base canônica do ℝn i i ALinear 20051219 1325 page 58 74 i i i i i i 58 Determinantes Cap 4 Para melhor entendermos o significado da hipótese d3 em muitos resultados consideraremos apenas uma função satisfazendo as propriedades d1 e d2 É claro que a definição de uma função satisfazendo as propriedades d1 e d2 pode ser expressa em termos de matrizes se A c1 c2 cn for uma matriz n n com colunas c1 cn então DA Dc1 c2 cn Lema 42 Seja D uma função satisfazendo a propriedade d2 Então são equivalentes as afirmações d1 D é uma função alternada d 1 Se os vetores consecutivos ci e ci1 forem iguais então Dc1 ci ci1 cn 0 Demonstração d 1 d1 Faremos indução sobre as posições com colunas iguais Ou seja para j i k faremos indução sobre k N 1 2 Se k 1 temos a própria afirmativa d1 Suponhamos o resultado verdadeiro para k sempre que ci cik então Dc1 ci cik cn 0 Simplificando a notação escreveremos Dci cik cik1 ao invés de Dc1 ci cik cik1 cn Suponhamos ci cik1 Então vale verifique cuidadosamente cada passagem Dci cik cik1 Dci cik cik cik1 Dci cik cik cik1 Dci cik1 cik cik1 Dci cik cik1 cik cik1 0 A implicação d1 d 1 é imediata 2 Não é óbvia a existência de uma função satisfazendo as propriedades d1 e d2 Contudo outras propriedades de uma tal função seguemse imediatamente da definição Lema 43 Uma função que satisfaz as propriedades d1 e d2 também satisfaz as propriedades d4 D é uma função antisimétricaisto é se trocarmos ci por cj então o valor de D é multiplicado por 1 Sendo mais preciso Dc1 ci cj cn Dc1 cj ci cn d5 Se somarmos a um vetor ci um múltiplo do vetor cj o valor de D não se altera d6 Se c1 cn forem linearmente dependentes então Dc1 cn 0 Demonstração Como vamos trocar apenas as colunas ci e cj os outros vetores permanecendo fixos denotaremos Dc1 ci cj cn simplesmente por Dci cj Temos 0 Dci cj ci cj Dci ci cj Dcj ci cj Dci ci Dci cj Dcj ci Dcj cj Dci cj Dcj ci Logo Dci cj Dcj ci mostrando d4 As propriedades d1 e d2 implicam Dci λcj cj Dci cj λDcj cj Dci cj 0 Dci cj Quanto a d6 suponhamos que c1 cn sejam linearmente dependentes Então um desses elementos pode ser escrito como combinação linear dos restantes Vamos supor que c1 λ2c2 λncn A propriedade d2 nos garante que Dc1 cn Dλ2c2 λncn c2 cn λ2Dc2 c2 cn λnDcn c2 cn Por d1 todos os termos na última linha são nulos isso mostra d6 Observação 44 Seja A uma matriz real nn Nesse caso DA pode ser positivo negativo ou nulo Nos dois primeiros casos a imagem da base canônica 𝒮 do ℝn é uma base ℬ desse espaço cujos vetores correspondem às colunas de A Dizemos que a base ℬ está positivamente orientada ou que 𝒮 e ℬ têm a mesma orientação se DA 0 Se DA 0 dizer que a função determinante é antisimétrica é dizer que permutando duas colunas de A alteramos a orientação da base ℬ Veja a Observação 852 i i ALinear 20051219 1325 page 61 77 i i i i i i 44 Unicidade da Função Determinante 61 podem ser nãonulos em 41 Contudo como as colunas ci e ci1 são iguais também são iguais as matrizes A1i e A1i1 Do mesmo modo para a1i e a1i1 Disso decorre que 41 é igual a zero d2 Suponhamos que jésima coluna de A seja cj λc j isto é que para j fixo a sua entrada ij seja aij λa ij para todo i 1 n Se k j o termo a1k não depende de j enquanto A1k depende linearmente da coluna j de A Assim 11ka1kA1k depende linearmente da jésima coluna de A para todo k j Por outro lado se k j então a1j λa 1j depende linearmente da coluna j enquanto A1j não depende da coluna jésima coluna de A Assim todos os termos de 41 dependem linearmente da coluna j da matriz A d3 Se A for a matriz identidade I então apenas a parcela 111a11DI11 não é nula em 41 Mas nesse caso I11 é a matriz identidade n 1 n 1 e portanto DI11 1 Isso mostra que D1I 1 2 Definição 48 Seja A uma matriz nn Sendo D uma função determinante definida para matrizes n 1 n 1 definimos indutivamente DiA 1i1ai1DAi1 1inainDAin Esta igualdade é a expansão do determinante de A segundo os cofatores da i ésima linha de A Corolário 49 A função Di definida anteriormente é uma função determinante Demonstração Basta verificar que pode ser repetido todo o procedimento utilizado na demonstração de que D1A é uma função determinante 2 Mostramos assim a existência de várias funções determinante Nosso objetivo é mostrar que todas elas são iguais existe uma única função determinante 44 Unicidade da Função Determinante Definição 410 Seja I 1 2 n ou mais geralmente um conjunto x1 xn com n elementos distintos Uma permutação é uma aplicação sobrejetora p I I 43 Existência de uma Função Determinante Precisamos contudo mostrar que existe alguma função satisfazendo as propriedades da função determinante É o que faremos agora Definição 45 Seja A uma matriz n n Para i j 1 n Aij denota a matriz obtida ao se eliminar a iésima linha e a jésima coluna de A Exemplo 46 Seja A 2 3 5 7 11 13 17 19 23 Então A11 11 13 19 23 A12 7 13 17 23 A13 7 11 17 19 e assim por diante Teorema 47 Existe uma função determinante Demonstração Se A for uma matriz n n faremos indução em n Se n 2 então todas as propriedades da função determinante já foram verificadas anteriormente¹ Suponhamos a existência de uma função determinante D para matrizes n 1 n 1 e consideremos uma matriz A aij ℳnn Definimos D1A 111a11DA11 11ja1jDA1j 11na1nDA1n 41 Mostraremos que D1A satisfaz as propriedades d1 d3 Como a propriedade d1 é equivalente à propriedade d1 D1A é uma função determinante d1 Suponhamos que duas colunas ci e ci1 de A sejam iguais Em particular duas colunas de A1k são iguais se k i i1 Assim apenas os termos 11ia1iDA1i e 11i1a1i1DA1i1 ¹Não há impedimento em se tomar n1 e considerar Da a As propriedades ii e iii da função determinante são obviamente verdadeiras e a propriedade i vale por vacuidade Existem várias notações para uma permutação p I I Escreveremos pi ao invés de pi ou de pxi e representaremos uma permutação p por p 1 2 n p1 p2 pn ou por uma matriz A aij com aij 0 se i pj e aij 1 se i pj chamada representação matricial da permutação p ou matriz da permutação p Exemplo 411 Considere a permutação p 1 2 3 4 2 4 3 1 A permutação p é representada pela matriz 0 0 0 1 1 0 0 0 0 0 1 0 0 1 0 0 A Note que cada coluna da matriz A corresponde a um vetor distinto da base canônica do Kn É claro que uma permutação é necessariamente injetora Permutações podem ser compostas e têm inversa Denotamos por pq a composta das permutações p e q Exemplo 412 Considere as permutações p 1 2 3 4 2 4 1 3 e q 1 2 3 4 3 4 1 2 Então qp 1 2 3 4 4 2 3 1 e p1 1 2 3 4 3 1 4 2 Proposição 413 A composta de duas permutações do conjunto 1n equivale à multiplicação das matrizes de suas permutações i i ALinear 20051219 1325 page 63 79 i i i i i i 44 Unicidade da Função Determinante 63 Demonstração Consideremos o espaço Kn e sua base canônica Podemos identificar o conjunto 1 n com e1 en Uma permutação do conjunto E e1 en induz uma aplicação linear T Kn Kn definida por Tej epj e a matriz que representa p é justamente a matriz TE Essa aplicação linear é um isomorfismo pois leva base em base A composição de permutações equivale à composta dessas aplicações lineares Mas já vimos que a composta de aplicações lineares equivale à multiplicação das matrizes que as representam Isso conclui a demonstração 2 Note que a Proposição 413 justifica a introdução da notação matricial para uma permutação Definição 414 Uma transposição é uma permutação τ I I tal que existem dois elementos i j I ou xi xj I com τi j τj i e τk k k I com k i j O próximo resultado garante a unicidade da função determinante quando restrita às matrizes de permutação Lema 415 Se D1 e D2 forem funções que satisfazem as propriedades d1 e d2 e D1I D2I então D1A D2A para toda matriz de permutação A Demonstração Seja A uma matriz de permutação n n Uma transposição corresponde à troca de duas colunas da matriz A e altera o sinal de seu determinante Claramente um número finito no máximo igual a n1 de transposições transforma a matriz A na matriz identidade basta fazer com que o vetor e1 seja transposto para a primeira coluna obtendo assim a matriz A1 depois transpor e2 para a segunda coluna obtendo a matriz A2 e assim sucessivamente Se k tais transposições forem utilizadas nesse processo temos D1A D1A1 D1A2 1kD1I 42 Essa igualdade mostra que a função determinante de qualquer matriz de permutação é caracterizada pelos valores que ela assume na matriz identidade Como o mesmo cálculo vale para D2A isso mostra que essas funções coincidem se A for uma matriz de permutação 2 O próximo resultado esclarece o significado de d3 na definição da função determinante Teorema 416 Sejam D1 e D2 funções satisfazendo as propriedades d1 e d2 Se D1I D2I então D1 D2 Demonstração Sejam c1cn Kn vetores arbitrários Escrevendo cada um desses vetores em termos da base canônica do Kn obtemos c1 a11 e1 an1 en c2 a12 e1 an2 en cn a1n e1 ann en estamos usando essa notação para os índices pois os vetores c1cn são colunas Assim D1c1cn D1a11 e1 an1 en c2cn a11 D1e1 c2 cn an1 D1en c2 cn Se substituirmos agora c2 por a12 e1 an2 en obteremos uma expressão semelhante Feitas todas as substituições de c2cn chegaremos a D1c1cn Sumi1in1n ai1 ai2 ain D1ei1ein 43 e a mesma igualdade vale para D2 Nesse somatório tanto para D1 como para D2 são nulas todas as parcelas em que há repetição de algum dos índices i1in De fato nesse caso temos que ik ij para k j e então eik eij Para m 1 2 a propriedade d1 do determinante garante então que Dm ei1eijeikein 0 Quer dizer basta considerar o caso em que todos os índices i1in são diferentes entre si Mas então está estabelecida uma permutação dos inteiros 1n e o resultado seguese do Lema 415 Corolário 417 Existe uma única função determinante Está assim mostrada a existência de apenas uma função determinante definida para qualquer matriz quadrada Relembramos a definição dada no início do Capítulo i i ALinear 20051219 1325 page 65 81 i i i i i i 44 Unicidade da Função Determinante 65 Definição 418 Sejam D a função determinante e A c1 cn uma matriz n n denotada por meio de suas colunas Definimos det A Dc1 cn Em outras palavras passamos a utilizar a notação habitual det A para o determinante da matriz A Agora vamos mostrar algumas propriedades de permutações que normalmente são utilizadas na prova da unicidade do determinante A demonstração do Lema 415 nos garante que Corolário 419 Toda permutação é um produto de transposições Além disso se p τk τ1 é uma decomposição de p como produto de transposições então Dcp1 cpn 1kDc1 cn Definição 420 Sejam p uma permutação e A a matriz que representa p Definimos o sinal da permutação p por ǫp ǫA detA Fazendo ci ei no Corolário 419 temos que DA 1k se p τk τ1 for a decomposição de p como produto de k transposições Mas a definição do sinal garante em particular que ǫp independe de como uma permutação pode ser escrita como produto de transposições Assim o Corolário 419 pode ser escrito como Dcp1 cpn ǫpDc1 cn 44 Proposição 421 O sinal de uma permutação tem as seguintes propriedades i se id for a permutação identidade então ǫid 1 ii se τ for uma transposição ǫτ 1 iii se p e p forem permutações então ǫpp ǫpǫp Demonstração i e ii decorrem das propriedades d3 e d4 da função determinante Como toda permutação é produto de transposições p τk τ1 e p τ j τ 1 Assim pp τ j τ 1τk τ1 e ǫpp 1jk 1j1k ǫpǫp 2 Tão logo verifiquemos que detAB det A det B será possível apresentar uma prova muito mais elegante de 421 iii veja o Exercício 11 Sabemos que basta considerarmos as permutações do conjunto 1n na equação 43 Tendo em vista a definição do sinal de uma permutação 43 escrevese como Dc1cn Sump εp ap1 ap2 apn 45 que é a expressão clássica do determinante em termos de permutações Exemplo 422 Sejam c1 a11 a21 e c2 a12 a22 vetores do K2 Calcule o determinante Dc1 c2 Precisamos em primeiro lugar determinar todas as permutações do conjunto 1 2 Elas são a identidade e uma transposição Assim temos εp1 1 e εp2 1 Então Dc1 c2 Sump εp ap1 ap2 1a11 a22 1a12 a21 a11 a22 a12 a21 O Exercício 4 deixa claro que o cálculo de determinantes por meio de permutações é um processo enfadonho e pouco aplicável O escalonamento de uma matriz nos fornece um método muito mais eficaz Exemplo 423 Consideremos a matriz A 1 1 1 1 1 2 2 2 1 1 3 3 4 3 2 1 Multiplicando a primeira linha por 1 e somando à terceira e à quarta e então multiplicando a primeira linha por 4 e somando à quarta linha não alteramos o valor do determinante det A det 1 1 1 1 1 2 2 2 1 1 3 3 4 3 2 1 det 1 1 1 1 0 1 1 1 0 0 2 2 0 1 2 3 Continuando o escalonamento obtemos de acordo com as propriedades do determinante det A det 1 1 1 1 0 1 1 1 0 0 2 2 0 1 2 3 2 det 1 1 1 1 0 1 1 1 0 0 1 1 0 0 1 2 Então det A 2 det 1 1 1 1 0 1 1 1 0 0 1 1 0 0 1 2 2 det 1 1 1 1 0 1 1 1 0 0 1 1 0 0 0 1 É claro que levando a última matriz à forma escalonada reduzida por linhas obteremos a matriz identidade Veja também o Exercício 16 Assim det A 2 45 Propriedades do Determinante de uma Matriz Nesta Seção mostraremos propriedades clássicas do determinante de uma matriz 451 O Determinante da Matriz Transposta Teorema 424 Seja A uma matriz n n e A t a transposta da matriz A Então det A det A t Demonstração A equação 45 garante que det A p ϵ p a p 1 1 a p 2 2 a p n n Mas se p i j então i p ¹ p i p ¹ j Como p i denota p i p ¹ j será denotado por p ¹ j de modo que a última expressão pode ser escrita como i p ¹ j i i ALinear 20051219 1325 page 69 85 i i i i i i 45 Propriedades do Determinante de uma Matriz 69 Demonstração alternativa do teorema 426 Como antes temos que detBA DBA1 BAn Suponhamos que det B 0 Definimos então a função D por DA1 An DA detBA det B Em virtude da expressão para detBA obtida podemos escrever D como DA1 An DBA1 BAn det B 46 Vamos provar que a função D satisfaz as propriedades d1 d3 da função determinante det A Temos d1 Se Ai Aj para i j então BAi BAj Como D satisfaz à propriedade d1 temos D 0 d2 Como Bx λy Bx λBy cada BAi é uma função linear de Ai Como D é nlinear o mesmo vale para D d3 Para Ai ei temos De1 en DBe1 Ben det B Mas Bei Bi a iésima coluna de B Logo De1 en DB1 Bn det B det B det B 1 Uma vez que existe uma única função determinante DA1 An detA Isso prova o afirmado se det B 0 pois DA1 An detBA det B Suponhamos agora que det B 0 Como vimos a função DBA1 BAn detBA satisfaz as propriedades d1 e d2 Além disso quando Ai ei temos 0 det B DBe1 Ben O Teorema 416 garante que DBA1 BAn 0 Assim detBA 0 e o mesmo valor é assumido por det A det B como queríamos mostrar Demonstrações alternativas do caso em que det B 0 são apresentadas nos Exercícios 10 e 25 c 2 Assim se p 1 j então a p 1 1 a j p ¹ j Da mesma forma para os outros índices de modo que p ϵ p a p 1 1 a p 2 2 a p n n p ϵ p a 1 p 1 1 a 2 p 1 2 a n p 1 n Mas se p percorrer todas as permutações de 1 n o mesmo acontece com p 1 Uma vez que o sinal de p e o de p 1 é o mesmo chegamos a det A p 1 ϵ p 1 a 1 p 1 1 a 2 p 1 2 a n p 1 n p ϵ p a 1 p 1 1 a 2 p 2 2 a n p n que é o determinante da matriz transposta pois cada uma de suas entradas aparece na forma a j i ao invés de a i j Corolário 425 A expansão em cofatores pode ser feita também segundo qualquer coluna da matriz quadrada A 452 O Determinante do Produto de Matrizes Quadradas Teorema 426 Sejam A a i j e B b i j matrizes n n Então det B A det B det A Demonstração Sejam A j B j e D j as jésimas colunas de A B e B A respectivamente A equação 32 garante que a jésima coluna de uma matriz é obtida ao se calcular o seu valor em e j Assim B A e j B A e j B A j Por definição D j a 1 j B 1 a n j B n Assim se D denotar a função determinante det B A D a 1 1 B 1 a n 1 B n a 1 n B 1 a n n B n Expandindo essa última expressão como feito com a equação 43 e aplicando a equação 44 encontramos det B A p a p 1 1 a p n n D B p 1 B p n p ϵ p a p 1 1 a p n n D B 1 B n det B p ϵ p a p 1 1 a p n n det B det A 46 A Regra de Cramer Sejam A a i j uma matriz n n e b ℝ n um vetor Consideremos a equação A x b Suponhamos que x j1 n x j e j seja uma solução dessa equação Denotando por c j a jésima coluna de A podemos escrever A x j1 n x j A e j j1 n x j c j b Isso quer dizer que c 1 c j c n x 1 x j x n b 1 b n j1 n x j c j b e b i j1 n x j a i j 47 Definimos A k como sendo a matriz obtida ao se substituir a késima coluna de A pelo vetor b Descrevendo essa matriz em termos de suas colunas obtemos A k c 1 c k1 b c k1 c n c 1 c k1 j1 n x j c j c k1 c n 48 desde que x seja uma solução de A x b Assim utilizando a notação de D para a função determinante det A k j1 n x j D c 1 c k1 c j c k1 c n Logo se x for solução de A x b vale det A k x k det A 49 pois todos os outros termos se anulam no somatório Portanto x k det A k det A 410 desde que det A 0 Essa é a regra de Cramer para se obter a solução da equação A x b para um dado b Ela garante que se det A 0 então a única solução x de A x b tem coordenadas que satisfazem a igualdade x k det A k det A Teorema 427 Para k 1 n seja B 11k det A1k 1ik det Aik 1nk det Ank em que a matriz B está sendo descrita em termos de suas colunas Então vale B A A B det AI 411 Assim A é invertível se e somente se det A 0 Nesse caso A 1 1det A B ou seja A 1ki 1ik det Aik det A 412 A matriz B é chamada de adjunta clássica de A Demonstração Tome x Rn arbitrário e defina u Ax De acordo com a equação 48 se expandirmos det Ak com relação a sua késima coluna obtemos det Ak sumi1n 1ik det Aik ui Decorre da equação 49 que det A xk sumi1n 1ik det Aik ui 413 A equação 47 nos mostra como se multiplica uma matriz descrita em termos de suas colunas por um vetor observe a inversão de índices na definição de B det A x1 xn 11k det A1k 1ik det Aik 1nk det Ank u1 un Quer dizer mostramos que ao definir u Ax então vale det A x Bu 414 Como u Ax vem det A x B A x para todo x e portanto B A det A I Se det A 0 então 1det A B é a inversa de A veja o Exercício 13 do Capítulo 3 Se por outro lado A tiver inversa A1 aplicando o determinante em ambos os lados de A A1 I obtemos det A det A1 det I 1 Logo det A 0 Para A B 0 no caso em que det A 0 veja o Exercício 19 47 Matrizes Semelhantes Definição 428 Seja A aij uma matriz quadrada Definimos o traço da matriz A denotado por tr A por tr A sumi1n aii Teorema 429 O traço é uma aplicação linear e tr A B tr B A Demonstração A linearidade do traço é óbvia Por definição temos A Bii sumk1n aik bki e B Akk sumi1n bki aik Assim tr A B sumi1n sumk1n aik bki sumk1n sumi1n bki aik tr B A Definição 430 Duas matrizes A e B são semelhantes se existir uma matriz invertível P tal que B P1 A P Claramente temos assim definida uma relação de equivalência no conjunto das matrizes n n Teorema 431 Matrizes semelhantes possuem o mesmo determinante e o mesmo traço Demonstração Temos det B detP1 A P det P1 det A det P det A detP1 P det A det I det A Também pelo Teorema 429 tr B tr P1 A P tr A P P1 tr A I tr A Como vimos anteriormente dada uma aplicação linear T de um espaço X de dimensão n nele mesmo ao se escolher uma base de X podemos representar T por uma matriz Duas representações de T obtidas pela escolha de duas bases distintas são semelhantes Aplicando o teorema anterior vemos que faz sentido a seguinte definição Definição 432 Seja T V V uma aplicação linear definida no espaço vetorial de dimensão finita V Definimos tr T tr TBB tr TB e det T det TBB det TB em que B é qualquer base de V 48 Exercícios 1 Seja K R ou K C Mostre que a propriedade d4 da função determinante implica a propriedade d1 Assim poderíamos ter definido a função determinante como uma que satisfaz as propriedades d2 d3 d4 2 Sem calcular o determinante da matriz que a representa obtenha εp sendo p 1 2 3 4 5 6 5 4 2 1 6 3 Escreva p como produto de transposições 3 Seja A uma matriz de permutação Mostre que A1 At e que εA εA1 4 Repita o Exemplo 422 para três vetores genéricos do K3 Em outras palavras calcule o determinante de uma matriz 3 3 utilizando a expressão 45 5 Sejam c1 cn Kn as colunas da matriz A Mostre que det A 0 implica que os vetores c1 cn são linearmente dependentes 6 Aplique as propriedades da função determinante para calcular o determinante da matriz 2 5 3 2 2 3 2 5 1 3 2 2 1 6 4 3 7 Mostre o Corolário 425 8 Seja A uma matriz n n Mostre que dettI A é um polinômio mónico3 de grau n na variável t 9 Seja Bt uma matriz n n cujas entradas bijt dependem continuamente da variável t Mostre que det Bt depende continuamente de t 10 Suponha provado que detAB det A det B se det B 0 Usando os Exercícios 8 e 9 defina Bt B tI e mostre a validade do resultado também no caso em que det B 0 11 Representando permutações por matrizes verifique que a Proposição 421iii é consequência imediata do Teorema 426 12 Seja A Mmnℝ uma matriz de posto r Mostre que r é o maior número natural tal que A possui uma submatriz Ar r r com det Ar 0 13 Sejam x1 x2 x3 K Mostre que det1 x1 x12 1 x2 x22 1 x3 x32 x2 x1x3 x1x3 x2 Se x1 xn K mostre então por indução que Vn det1 x1 x1n1 1 x2 x2n1 1 xn xnn1 ij xi xj em que o produtório é tomado sobre todos os termos xj xi com i j Esse determinante é o determinante de Vandermonde de ordem n 14 Mostre que se as funções f1 f2 forem de classe C2 e se ψt detf1t f2t f1t f2t 3Isto é o coeficiente do termo de maior grau é igual a 1 então ψt detf1t f2t f1t f2t Generalize então para matrizes n n ψt det At detf1t f2t fnt f1t f2t fnt f1n1t f2n1t fnn1t com fjt suficientemente suave para j 1 n A função ψt é muitas vezes denotada por Wf1 fnt e chamada Wronskiano das funções f1 fn 15 Sejam f1 fn I ℝ ℝ funções de classe Cn1 Mostre que se existir um ponto t0 I tal que Wf1 fnt0 0 então essas funções são linearmente independentes no espaço Cn1I de todas as funções de classe Cn1 definidas no intervalo I Generalize para funções analíticas definidas num aberto U ℂ Mostre então que se λ1 λn ℂ forem distintos e nãonulos as funções eλ1 t eλn t são linearmente independentes 16 Seja A uma matriz triangular superior isto é uma matriz da forma A a11 a12 a1n 0 a22 a2n 0 0 ann Mostre que det A a11 ann Mostre o resultado análogo para uma matriz triangular inferior isto é para uma matriz com a forma da transposta da matriz A dada acima 17 Considere a matriz n n Q A B 0 D em que A é uma matriz m m e D uma matriz n m n m Mostre que det Q det A det D Generalize para uma matriz A que seja triangular superior em blocos isso é uma matriz da forma P A1 0 A2 0 0 Aj em que denota uma matriz de tamanho adequado e cada matriz Ai é quadrada 18 Sejam A B C D MnnK com det A 0 Mostre que det P det A B C D detAD ACA1B Para isso encontre X e Y tais que A B C D A 0 C II Y 0 X A matriz X é chamada complemento de Schur de A em P Em particular se AC CA isso implica que det P detAD CB Nesse caso utilizando a continuidade da função determinante veja o Exercício 9 mostre que o resultado continua válido também se det A 0 19 Dada a matriz quadrada A seja B a adjunta clássica de A Mostre que a adjunta clássica de At é igual a Bt Utilize então a igualdade Bt At det At I para concluir a demonstração do Teorema 427 20 Mostre a igualdade α1 det Ai1 α2 det Ai2 αn det Ain det à em que à é a matriz obtida de A trocandose sua iésima linha pela linha α1 α2 αn Mostre também o resultado análogo para β1 det A1j βn det Anj e produza uma nova demonstração do Teorema 427 i i ALinear 20051219 1325 page 77 93 i i i i i i 48 Exercícios 77 21 Usando a regra de Cramer determine os valores de k para os quais o sistema kx y z 1 x ky z 1 x y kz 1 possui solução única Compare com o resultado obtido por meio de escalonamento método de Gauss veja o Apêndice A 22 Sejam A B matrizes n n Mostre que a igualdade AB BA I nunca é satisfeita 23 Seja B MnnK uma matriz fixa Defina ϕB MnnK MnnK por ϕBA AB BA Mostre que ϕB é linear e que det ϕB 0 24 Sejam A B matrizes nn Mostre que se AB BA A então det A 0 Os próximos resultados dependem da teoria de escalonamento e de matrizes elementares veja o Apêndice A 24 Utilizando escalonamento e matrizes elementares mostre que A possui inversa se e somente se det A 0 Veja o Teorema 427 25 Mostre que detAB det A det B utilizando matrizes elementares Para isso a Mostre o resultado no caso de A ser uma matriz elementar b Suponha que a matriz A seja invertível e portanto um produto de matrizes elementares pelo Exercício 13 do Capítulo 11 Mostre o resultado usando a c Mostre que se AB for invertível então A e B são invertíveis Conclua que se A não tiver inversa então detAB 0 det A det B 26 Mostre que det At det A utilizando matrizes elementares i i ALinear 20051219 1325 page 78 94 i i i i i i 5 Operadores e Polinômios Neste Capítulo introduzimos autovalores e autovetores apresentamos alguns resultados simples sobre diagonalização de operadores demonstramos o Teorema de CayleyHamilton e definimos a complexificação de um espaço real 51 Autovetores e Autovalores Dados um espaço vetorial X de dimensão finita e um operador linear T X X queremos encontrar uma base B de X na qual a representação TB desse operador seja a mais simples possível Consideremos a seguinte situação ideal suponhamos a existência de uma decomposição X W1 W2 Wn dim Wi 1 TWi Wi 1 i n 51 Seja wi uma base de Wi Então B w1 wn é uma base de X Como TWi Wi existe λi K tal que Twi λiwi A representação de T na base B no domínio e na imagem é a matriz diagonal A TB dada por A λ1 0 0 0 λ2 0 0 0 λn Dizemos então que T é diagonalizável Note que podemos ter λi λj para i j Observe que a igualdade Twi λiwi garante que wi kerλiI T assim detλiIT detλiIA 0 de acordo com a Definição 432 veja o Exercício 78 1 Isso quer dizer que λᵢ é uma raiz do polinômio pt dettI A chamado polinômio característico do operador T ou da matriz A Lembramos¹ que pt é um polinômio mónico de grau n Assim podemos concluir mesmo quando λᵢ λⱼ para i j que pt t λ₁t λ₂ t λₙ 52 e wᵢ kerλᵢI T Note que a equação Tx λᵢx é satisfeita por qualquer elemento de Wᵢ Mudemos agora o enfoque e consideremos o operador T com seu polinômio característico pt dettI T As raízes λ 𝕂 do polinômio característico são os autovalores de T Se existirem n raízes distintas λᵢ 𝕂 isto é se pt t λ₁ t λₙ com λᵢ λⱼ para i j o espaço Wᵢ kerT λᵢI terá dimensão 1 De fato existe pelo menos um vetor nãonulo wᵢ tal que T λᵢIwᵢ 0 pois como T λᵢI não tem inversa o sistema T λᵢIx 0 tem solução nãotrivial wᵢ Esse vetor wᵢ 0 é um autovetor de T associado ao autovalor λᵢ Isso quer dizer que dim Wᵢ 1 Para garantir que dim Wᵢ 1 aceitaremos momentaneamente que autovetores wᵢ associados a autovalores distintos λᵢ são linearmente independentes resultado que será demonstrado mais adiante Admitido esse resultado concluímos que w₁ wₙ é uma base de X e dim Wᵢ 1 Quer dizer nesse caso especial em que o polinômio característico possui n raízes distintas no corpo 𝕂 teremos provado que X W₁ W₂ Wₙ com Wᵢ kerT λᵢI e TWᵢ Wᵢ pois Tcwᵢ cTwᵢ cλᵢwᵢ Wᵢ Estamos assim em um caso particular da situação em que iniciamos logo a representação de T na base 𝓑 w₁ wₙ será justamente a matriz diagonal dada por A Entretanto nem sempre o polinômio característico é produto de fatores lineares distintos mesmo se o operador T for diagonalizável Considere o seguinte exemplo Exemplo 51 O polinômio característico da aplicação identidade I ℝⁿ ℝⁿ é pt dettI I t 1ⁿ que possui apenas a raiz 1 Vale a decomposição 51 𝕂ⁿ V₁ Vₙ com Vᵢ ceᵢ c 𝕂 e IVᵢ Vᵢ Contudo ao autovalor 1 está associado o espaço W₁ ker1I I ker 0 𝕂ⁿ ¹Veja o Exercício 8 do Capítulo 4 Antes de mostrarmos a afirmação que autovetores associados a autovalores distintos são linearmente independentes ressaltaremos algumas definições Definição 52 Sejam X um espaço vetorial sobre o corpo 𝕂 com dimensão finita n e T X X um operador O polinômio pt dettI T é o polinômio característico de T As raízes λᵢ 𝕂 desse polinômio são os autovalores de T A multiplicidade algébrica de um autovalor é a sua multiplicidade como raiz de pt² Os elementos nãonulos do núcleo kerλᵢI T são os autovetores associados ao autovalor λᵢ ou simplesmente autovetores de T O autoespaço Xλ associado ao autovalor λ é definido por Xλ kerλI T x X λI Tx 0 O conjunto dos autovalores de T é o espectro de T e denotado por σT Se existir uma base 𝓑 de X tal que T𝓑 seja uma matriz diagonal dizemos que T é diagonalizável Observação 53 Note que a equação 411 tem implicação importante no caso em que det A 0 como AB det AI concluímos que cada coluna nãonula da matriz B é um autovetor de A associado ao autovalor 0 Frisamos que apenas as raízes λᵢ 𝕂 do polinômio característico são autovalores do operador Assim se T ℝ² ℝ² for definido por Txy y x então seu polinômio característico é pt t² 1 que não possui raízes reais Portanto T não possui autovalores e σT Considerando T ℂ² ℂ² definido da mesma maneira pt t² 1 t it i e σT i i Isso mostra que a análise de uma aplicação linear T X X depende muito do corpo 𝕂 sobre o qual X é espaço vetorial Observação 54 O polinômio característico de T X X é especialmente importante por causa de suas raízes os autovalores de T Como detT tI 1ⁿ dettI T em que n é a dimensão de X é um polinômio que possui as mesmas raízes de dettI T é usual chamar de polinômio característico de T também ao polinômio detT tI Mostraremos agora a afirmativa de que autovetores associados a autovalores distintos são linearmente independentes Sendo mais preciso ²Veja o Exercício 3 para a definição de multiplicidade de uma raiz i i ALinear 20051219 1325 page 81 97 i i i i i i 51 Autovetores e Autovalores 81 Teorema 55 Se wi for um autovetor de T X X associado ao autovalor λi K e se λi λj para i j então o conjunto w1 wk é linearmente independente Demonstração Faremos indução no número k de elementos do conjunto w1 wk Se k 1 o resultado é óbvio Suponhamos verdadeiro para k 1 vetores e consideremos o caso de k vetores Se α1w1 α2w2 αkwk 0 53 aplicando T em 53 obtemos α1Tw1 α2Tw2 αkTwk 0 Mas Twi λiwi Assim α1λ1w1 αkλkwk 0 Por outro lado multiplicando 53 por λk vem α1λkw1 α2λkw2 αkλkwk 0 Subtraindo essas duas últimas equações concluímos que α1λ1 λkw1 α2λ2 λkw2 αk1λk1 λkwk1 0 Como λi λk 0 para todo i 1 k 1 a hipótese de indução garante que αi 0 para i 1 k 1 Levando em 53 concluímos que αk 0 e que w1 wk é linearmente independente 2 O corolário a seguir traz o enunciado do resultado verificado no início da Seção Corolário 56 Se X for um espaço vetorial de dimensão n e se o polinômio característico do operador linear T X X possuir n raízes distintas então X possui uma base B formada por autovetores de T A aplicação T representada na base B é uma matriz diagonal sendo os elementos da diagonal principal os autovalores de T Finalizamos esta Seção apresentando uma caracterização dos operadores lineares diagonalizáveis T X X definidos no espaço vetorial de dimensão finita X Teorema 57 Seja X um espaço de dimensão finita Uma aplicação linear T X X é diagonalizável se e somente se existir uma base 𝓑 de X formada por autovetores de T Demonstração Suponhamos que 𝓑 v₁ vₙ seja uma base de X tal que T𝓑 seja uma matriz diagonal não estamos supondo que os λᵢ sejam distintos T𝓑 D λ₁ 0 0 0 λ₂ 0 0 0 λₙ Claramente Deᵢ λᵢeᵢ Seja B X 𝕂ⁿ o isomorfismo dado por Bvᵢ eᵢ Então T B¹DB e Tvᵢ B¹DBvᵢ B¹Deᵢ B¹λᵢeᵢ λᵢB¹eᵢ λᵢvᵢ mostrando que cada vᵢ é autovetor de T A recíproca é imediata É fácil dar exemplos de operadores que não são diagonalizáveis Exemplo 58 Consideremos o operador T ℝ² ℝ² cuja representação matricial na base canônica do ℝ² é A 0 1 0 0 O polinômio característico de A e de T é pt t² de modo que seu único autovalor é λ 0 A esse autovalor de A está associado um único autovetor Ae₁ 0e₁ Pelo Teorema 57 não existe uma base 𝓑 de ℝ² na qual A assuma uma representação diagonal 52 Subespaços Invariantes Os resultados apresentados na Seção anterior tornaram clara a utilidade de encontrarmos subespaços invariantes por um operador linear T X X Nesta Seção apresentaremos um critério para verificar se um subespaço é invariante por T Para isso consideremos um espaço vetorial X Suponhamos que esteja escrito como uma soma direta X W₁ Wℓ 54 isto é que cada ponto x X tenha uma única representação x x₁ xℓ xj Wj j 1 ℓ Para j 1 ℓ definimos as projeções canônicas πj X Wj X x xj Claramente vale πj πi δij πi 55 em que δij 0 se i j e δii 1 com i j 1 ℓ Além disso j1ℓ πj I 56 Reciprocamente se os operadores lineares π₁ πℓ satisfizerem 55 e 56 definindo Wj πj X temos que 54 se verifica e que os operadores πj são as projeções canônicas dessa decomposição Definição 59 Suponhamos que X W₁ Wℓ e que T X X satisfaça TWj Wj para j 1 ℓ Dizemos então que os subespaços Wj são invariantes pelo operador linear T LX X Definimos então os blocos Tj de T por Tj TWj Wj Wj Dizemos também que T é a soma direta dos operadores Tj Proposição 510 Suponhamos que T LX X e X W₁ Wℓ com projeções correspondentes πj j 1 ℓ Então TWj Wj se e somente se Tπj πj T Demonstração Suponhamos que TWj Wj Tome x X arbitrário Então πj x Wj e conseqüentemente Tπj x Wj Logo πi Tπj x δij Tπj x para todo j 1 ℓ Somando todos esses termos e utilizando 56 obtemos Tπi x j1ℓ δij Tπj x j1ℓ πi Tπj x πi T j1ℓ πj x πi T x i i ALinear 20051219 1325 page 85 101 i i i i i i 53 O Polinômio Mínimo 85 53 O Polinômio Mínimo Sejam T X X um operador linear e q Kz com qz αkzk αk1zk1 α1z α0 Mesmo se X tiver dimensão infinita está bem definido o operador qT αkT k αk1T k1 α1T α0I Se X for um espaço de dimensão finita a aplicação linear qT X X é representada por uma matriz n n ao se escolher uma base de X Nosso objetivo é generalizar esse procedimento de modo a averiguarmos em qual situação é possível obter fT mesmo que f não seja um polinômio Esse é o objetivo do Capítulo 6 Começamos contudo estudando funções polinomiais Lembramos que um polinômio é mônico se o coeficiente de seu termo de maior grau for igual a 1 Definição 512 Um polinômio mínimo m Kz de uma aplicação T X X é um polinômio mônico de menor grau tal que mT 0 Lema 513 Todo operador linear T X X definido em um espaço X de dimensão n possui um polinômio mínimo Demonstração O espaço LX X de todas as aplicações lineares T X X é um espaço vetorial de dimensão n2 Esse espaço é isomorfo ao espaço MnnK de todas as matrizes n n com entradas em K Assim as aplicações lineares I T T 2 T n2 são necessariamente linearmente dependentes Quer dizer existem escalares α0 α1 αn2 K nem todos nulos tais que α0I α1T αn2T n2 0 Definindo pz α0 α1z αn2zn2 temos 0 p e pT 0 Dividindo pelo coeficiente do termo de maior grau obtemos um polinômio mônico p O polinômio mínimo então existe como decorrência da aplicação do Princípio da Boa Ordenação ao conjunto de todos os polinômios mônicos que anulam T 2 Lema 514 Se pT 0 para um polinômio p Kz e m um polinômio mínimo de T então p é um múltiplo de m Reciprocamente se T comutar com todo πj para todo x Wj vale T x T πj x πj T x Wj mostrando que TWj Wj Note que os resultados apresentados independem do fato do espaço X ter dimensão finita Por outro lado se os subespaços Wj da decomposição X W₁ Wℓ forem invariantes por T X X e X tiver dimensão finita a escolha de bases 𝓑i para os espaços Wi produz uma base 𝓑 𝓑₁ 𝓑n para X A representação de T nessa base T𝓑 é uma matriz diagonal em blocos isto é T𝓑 T₁𝓑₁ 0 0 0 T₂𝓑₂ 0 0 0 Tℓ𝓑ℓ Reciprocamente se existir uma base 𝓑 do espaço X na qual T X X é representado por uma matriz diagonal com ℓ blocos então existe uma decomposição X W₁ Wℓ com TWi Wi veja o Exercício 11 A decomposição do espaço X como soma direta de subespaços invariantes pelo operador T X X será exaustivamente estudada no Capítulo 7 Exemplo 511 Sejam W₁ x0z0 ℝ⁴ e W₂ 0y0w ℝ⁴ Claramente vale ℝ⁴ W₁ W₂ Considere a aplicação T ℝ⁴ ℝ⁴ definida por Txyzw x z y w x 2z w Claramente TWi Wi para i 12 Tomemos as bases 𝓑₁ 10101010 e 𝓑₂ 01010001 de W₁ e W₂ respectivamente A representação de T na base 𝓑 𝓑₁ 𝓑₂ é T𝓑 32 12 0 0 32 32 0 0 0 0 2 1 0 0 1 0 Para obtermos p1A decorre de 57 que Ak tem a forma veja o Exercício 15 λk 0 A1k e portanto p1A p1λ 0 p1A1 p1λ 0 0 de acordo com nossa hipótese de indução Assim os tamanhos das matrizes I são diferentes em cada expressão pA A λIp1A 0 0 A1 λI p1λ 0 0 0 0 0 0 completando a demonstração Uma demonstração alternativa do Teorema de CayleyHamilton válida para R ou C é sugerida no Exercício 16 O próximo resultado é consequência imediata do Lema 514 Corolário 516 Seja T X X um operador no espaço complexo de dimensão finita X O polinômio mínimo de T é um divisor do polinômio característico de T Como mostraremos na próxima Seção esse mesmo resultado vale sem a hipótese de X ser um espaço complexo 55 A Complexificação de um Espaço Vetorial Definição 517 Sejam A MnnK e z Kn um vetor qualquer Definimos a matriz conjugada Ḃ MnnK como a matriz obtida ao se tomar o conjugado em cada uma das entradas de A e o vetor conjugado ž Kn como o vetor obtido ao se tomar o conjugado em cada uma das coordenadas de z É de verificação imediata que A λḂ A λḂ AB A B para quaisquer matrizes A B MnnK e λ K Além disso também vale Az Až para qualquer z Kn Demonstração Se I denotar o conjunto de todos os polinômios com coeficientes em 𝕂z que anulam T claramente a soma de dois polinômios em I bem como a multiplicação de p por qualquer polinômio com coeficientes em 𝕂 estão em I Quer dizer I é um ideal A divisão euclidiana de p por m nos dá p qm r Como r p qm pertence a I e o grau de m é mínimo concluímos que r 0 Note que em particular esse resultado implica a unicidade do polinômio mínimo de T 54 O Teorema de CayleyHamilton Apresentamos agora um dos resultados mais importantes da Álgebra Linear Ele também é válido para operadores definidos em espaços reais de dimensão finita como mostraremos posteriormente veja o Corolário 522 Teorema 515 CayleyHamilton Seja X um espaço complexo de dimensão finita Se p 𝕂z for o polinômio característico de T X X então pT 0 Demonstração Faremos indução sobre n dim X ou o que é o mesmo sobre o tamanho da matriz que representa o operador T Se n 1 o resultado é óbvio Suponhamos que ele seja válido para qualquer espaço complexo de dimensão n 1 e consideremos T X X com dim X n Seja λ ℂ uma raiz do polinômio característico p de T e tome x₁ tal que T x₁ λ x₁ Considere então uma base x₁ x₂ xn de X cujo primeiro elemento é x₁ Nessa base T é representado por uma matriz com a forma A λ 0 A₁ 57 em que A₁ denota uma matriz quadrada e representa n 1 entradas sobre as quais não temos controle Claramente pt dettI A t λ dettI A₁ t λ p₁t em que p₁t é o polinômio característico de A₁ Assim veja o Exercício 14 pA A λI p₁A i i ALinear 20051219 1325 page 88 104 i i i i i i 88 Operadores e Polinômios Cap 5 Definição 518 Definimos a complexificação de um espaço vetorial real X como sendo o conjunto XC u iv u v X Em XC definimos a soma de vetores e a multiplicação por um número complexo de maneira natural É fácil verificar que XC tornase assim um espaço vetorial sobre os complexos Definição 519 Sejam X um espaço real e T X X uma aplicação linear Definimos a complexificação de T como sendo a aplicação TC XC XC dada por TCu iv Tu iTv Proposição 520 Sejam X um espaço vetorial real de dimensão finita e T X X uma aplicação linear As seguintes afirmativas são válidas i toda base de X sobre R é uma base de XC sobre C ii os polinômios característicos de T e TC são iguais iii se λ for um autovalor de TC então λ também é um autovalor de TC as multiplicidades algébricas dos autovalores λ e λ são iguais iv seja W XC um subespaço tal que w u iv W w u iv W Então W possui uma base formada por vetores reais Demonstração i Basta notar que as partes real u e imaginária v de qualquer vetor u iv podem ser escritas como combinação linear dos elementos da base de X ii Escolhida uma base de X sobre os reais decorre imediatamente de i pois as representações de T e TC nessa base são iguais iii Sejam λ um autovalor de TC e pz o polinômio característico de TC Como pz também é o polinômio característico de T os coeficientes de pz são reais Tomando o conjugado na equação pλ 0 obtemos pλ 0 o que mostra que λ também é uma raiz do polinômio característico de TC Se pλ pd1λ 0 e pdλ 0 isto é se λ for raiz de multiplicidade d do polinômio característico tomando o conjugado em cada uma dessas equações obtemos pλ pd1λ 0 e pdλ 0 o que garante que λ também tem multiplicidade d iv Seja w1wk uma base de W com wj uj ivj j 1k Somando e subtraindo os vetores wj e wj obtemos que uj uj i0 e vj vj i0 estão em W Assim o conjunto S u1 v1 uk vk é um conjunto de vetores reais que gera W Uma base formada de vetores reais é obtida ao se tomar um subconjunto de S com k elementos que seja linearmente independente em X Veja o Exercício 19 Exemplo 521 Consideremos o operador T R2 R2 definido por Txy yx Sua representação matricial na base canônica do R2 é a matriz A 0 1 1 0 A complexificação TC do operador T é definida por TCx1y1 ix2y2 Tx1y1 iTx2y2 y1x1 iy2x2 A representação matricial de TC com relação à base canônica de C2 também é dada pela matriz A Decorre de i que XC é um espaço vetorial de dimensão n sobre os complexos Entretanto ele é um espaço vetorial de dimensão 2n sobre os reais Se os escalares forem reais X XC é um subespaço Veja o Exercício 13 Corolário 522 CayleyHamilton Seja T X X um operador sobre o espaço real de dimensão finita X e p o polinômio característico de T Então pT 0 Demonstração No caso real o resultado decorre da Proposição 520 ii Note que no caso de um espaço X real de dimensão finita o Corolário 516 decorre imediatamente do corolário anterior e do Lema 514 Corolário 523 Sejam T X X um operador linear e TC sua complexificação Se o subespaço W XC possuir uma base formada por vetores reais então ele é a complexificação de um subespaço W X isto é WC W Se WC for invariante por TC então os polinômios mínimos de TCW e de TW são iguais Demonstração Todo vetor de W é da forma w u iv sendo u e v vetores reais Escrevendo u e v em termos dos vetores da base real seguese imediatamente daí que W é a complexificação do espaço real W gerado pelos vetores dessa base Como a representação matricial de TCW e de TW em termos da base real é a mesma seus polinômios mínimos coincidem 56 Um Homomorfismo de Álgebras Polinômios em Kz e operadores lineares T X X definidos em um espaço vetorial sobre o corpo K têm em comum além de ambos serem espaços vetoriais uma importante propriedade existe uma multiplicação em ambos os conjuntos Definição 524 Uma álgebra A sobre o corpo K é um espaço vetorial sobre o corpo K que possui adicionalmente uma multiplicação satisfazendo as seguintes propriedades para todos uvw A e k K i uvw uvw associatividade ii uv w uv uw distributividade iii kuv kuv ukv Se existir um elemento e A tal que eu ue u para todo u A a álgebra A possui uma unidade Se uv vu para todos uv A temos uma álgebra comutativa Exemplo 525 O espaço vetorial Kz de todos os polinômios com coeficientes em K é uma álgebra comutativa com unidade O espaço vetorial MnnK é uma álgebra nãocomutativa com unidade O espaço LXX é uma álgebra Se X for um espaço de dimensão finita essa álgebra pode ser identificada com MnnK ao escolhermos uma base em X Fixado T LXX seja KT o conjunto de todas as aplicações lineares obtidas ao se avaliar o polinômio p Kz em T LXX T pT LXX É fácil verificar que KT é uma subálgebra comutativa de LXX Consideremos agora as álgebras Kz e KT definidas no exemplo anterior A aplicação ϕ Kz KT p pT é uma aplicação linear que satisfaz adicionalmente ϕpq pqT pTqT ϕpϕq A segunda igualdade de verificação imediata é o Exercício 14 Ela já foi utilizada anteriormente A aplicação ϕ é um homomorfismo de álgebras O núcleo de ϕ é o conjunto de múltiplos do polinômio mínimo m de T A divisão euclidiana do polinômio p por m mostra que KT é constituída de polinômios em T com grau menor do que o do polinômio mínimo Estamos convencionando que o grau do polinômio identicamente nulo é Por definição o homomorfismo ϕ é sobrejetor 57 Exercícios 1 Seja B uma base do espaço X e T X X um operador Mostre que tI TB tI TB 2 Se λ1 λj forem autovalores distintos de T e Wi kerλiI T mostre que o subespaço W W1 Wj é a soma direta dos subespaços Wi ou seja W W1 Wj Em outras palavras sejam wi1 wiki autovetores linearmente independentes associados ao autovalor λi da aplicação linear T com i 1 j Então o conjunto w11 w12 w1k1 w21 w2k2 wj1 wjk j é linearmente independente 3 Suponha que o polinômio pz seja da forma z λdqz com qλ 0 e d 2 3 Mostre que pλ pd1λ 0 mas pdλ 0 Dizemos que a raiz λ de pz tem multiplicidade d 4 Seja A MnnC Mostre que o polinômio característico de A aij tem a forma pz zn tr Azn1 1n det A Se λ1 λn forem os autovalores de A com a mesma multiplicidade que eles aparecem no polinômio característico conclua que ni1 λi tr A e ni1 λi det A 5 Sejam A B MnnK com A invertível Mostre que os polinômios característicos de AB e BA coincidem Utilizando a continuidade da função determinante verifique que a hipótese de A ser invertível pode ser retirada 6 Seja A uma matriz n n e B P1AP Se m e p forem respectivamente os polinômios mínimo e característico de B mostre que esses polinômios também são os polinômios mínimo e característico de A 7 Considere T R3 R3 dada por Tx y z 3x y z 2x 2y z 2x 2y Ache seu polinômio mínimo 8 Sejam T X X um operador linear e q um polinômio com coeficientes em K Mostre que se λ for um autovalor de T então qλ é um autovalor de qT 9 Sejam T X X um operador linear e p Kz Mostre que se K C e μ for um autovalor de pT então existe um autovalor λ de T tal que μ pλ Dê um exemplo mostrando que esse resultado não é válido se K R 10 Mostre que os polinômios mínimo e característico de um operador T X X possuem as mesmas raízes a menos de multiplicidade 11 Seja A MnnK uma representação matricial de T X X Se A for uma matriz diagonal em blocos mostre que X pode ser decomposto como soma direta de subespaços invariantes por T 12 Seja T X X um operador linear e W X um subespaço invariante Mostre que os polinômios característico pW e mínimo mW de TW W W dividem os polinômios característico p e mínimo m de T i i ALinear 20051219 1325 page 94 110 i i i i i i 94 Operadores e Polinômios Cap 5 dimensão finita sobre o corpo K Dado x X arbitrário basta mostrar que pTx 0 Para isso seja m é o maior natural tal que o conjunto S v Tv T m1v é linearmente independente a Mostre que os elementos de S formam uma base de W S b Mostre que TW W c Obtenha a representação matricial A de TW na base S d Calcule desenvolvendo dettI A o polinômio característico pW de A e Mostre que pWTx 0 f Mostre que pt qtpwt e então conclua 17 Sejam X um espaço vetorial real e S T X X operadores lineares Mostre as seguintes propriedades da complexificação TC XC XC i S αTC SC αTC para todo α R ii STC SCTC 18 Seja TC a complexificação do operador T X X sendo X é um espaço vetorial real Suponha que λ R seja um autovalor de TC e portanto de T Mostre que se w1 wk é uma base do espaço invariante Wλ XC com wj uj ivj então tanto u1 uk quanto v1 vk são bases de Wλ Suponha agora que λ CR seja um autovalor de TC e w1 wk uma base de Wλ sendo wj uj ivj É verdade que u1 uk é uma base de Wλ 19 Na demonstração da Proposição 520 iv o que garante a existência de um subconjunto de u1 v1 uk vk com k elementos que seja linearmente independente Definição 526 Seja T X X um operador Um polinômio p anula o vetor x X com relação a T se pTx 0 O polinômio mônico de menor grau que anula x X com relação a T é o polinômio mínimo de x X ou Tanulador de x Se X W1 W2 com W1 W2 invariantes por T e se r e s forem os polinômios mínimos de TW1 e TW2 respectivamente mostre que o polinômio mínimo de T é mmcr s o mínimo múltiplo comum dos polinômios r e s 13 Seja X um espaço vetorial real de dimensão n Mostre que XC tem dimensão 2n sobre os reais 14 Sejam p q Kz polinômios com coeficientes em K e T X X uma aplicação linear Mostre que pqT pTqT 15 Seja A uma matriz diagonal em blocos A A1 0 0 0 A2 0 0 0 Aℓ em que as submatrizes Ai i 1 ℓ são quadradas Mostre que não é necessário utilizar o Exercício 33 do Capítulo 3 Ak Ak1 0 0 0 Ak2 0 0 0 Akℓ Além disso se A A1 A2 0 A4 com blocos quadrados A1 e A4 possivelmente de tamanhos diferentes mostre que vale Ak Ak1 0 Ak4 em que designa uma matriz de tamanho adequado 16 O objetivo desse exercício é oferecer uma demonstração alternativa do Teorema de CayleyHamilton válida para R ou C Seja pt o polinômio característico do operador T X X em que X é um espaço vetorial de i i ALinear 20051219 1325 page 95 111 i i i i i i 57 Exercícios 95 19 Sejam X um espaço de dimensão finita e T X X um operador a Mostre a existência do Tanulador de x X b mostre que qualquer polinômio que anula x X é um múltiplo do T anulador de x conclua que o polinômio mínimo de T é um múltiplo do polinômio mínimo de x c mostre que existe x X para o qual o Tanulador e o polinômio mínimo de T coincidem 20 Dependência contínua dos autovalores Mostre que os autovalores de uma matriz A aij MnnC dependem continuamente das entradas da matriz A Mais precisamente seja B bij MnnC Dados ǫ 0 e λ σA existem δ 0 e µ σB tais que aij bij δ implica λ µ ǫ Para isso a verifique que basta provar que as raízes do polinômio px xn an1xn1 a1x a0 dependem continuamente de an1 a0 b mostre que é suficiente provar a no caso de 0 ser raiz de p c verifique a dependência contínua nesse último caso i i ALinear 20051219 1325 page 96 112 i i i i i i 6 O Cálculo Funcional Neste capítulo apresentaremos para o caso de dimensão finita a versão generalizada do cálculo funcional de Dunford e Schwartz 8 de modo a podermos dar sentido para fT no caso em que T X X é um operador linear no espaço de dimensão finita X e f U C C uma função suave o suficiente Esse tipo de aplicação linear fT é usualmente chamado de função de matriz Note contudo que essa denominação não é precisa como não se estuda como f varia com T não estamos lidando com uma função mas sim com a aplicação linear fT isto é o valor assumido por f em T 61 O Polinômio Interpolador Definição 61 Uma função f U C C ou f I R R é euclidiana com relação ao polinômio p se i todas as raízes de p pertencem a U respectivamente a I ii se z0 for uma raiz de p com multiplicidade1 k então f tem derivadas até a ordem k em z0 Note que se U for um aberto e f analítica em U veja o Exercício 2 para a definição e propriedades de uma função analítica a condição ii verificase imediatamente A terminologia utilizada na definição dada é motivada pelo seguinte resultado válido tanto para funções definidas em I R como em U C Convencionaremos que o grau do polinômio identicamente nulo é 1Veja o Exercício 3 do Capítulo 5 para a definição da multiplicidade de uma raiz 96 i i ALinear 20051219 1325 page 97 113 i i i i i i 61 O Polinômio Interpolador 97 Proposição 62 Seja f euclidiana com relação ao polinômio p Então existem uma função q contínua em cada uma das raízes do polinômio p e um polinômio r tais que f qp r gr r gr p Demonstração Seja r um polinômio arbitrário Consideremos a função q definida nos pontos do domínio de f que não são raízes de p por q f r p Queremos mostrar que podemos escolher r com grau menor do que o de p de modo que q possua extensão contínua em cada uma das raízes de p Notamos que q é tão suave quanto f em cada ponto z que não é uma raiz de p Seja z0 uma raiz de multiplicidade k do polinômio p isto é pz z z0ksz sendo s um polinômio tal que sz0 0 Queremos achar r de modo que o quociente fz rz z z0k possua extensão contínua em z0 De acordo com a regra de LHospital isso acontece quando fz0 rz0 f z0 rz0 f k1z0 rk1z0 61 e se existir f kz0 Basta portanto mostrar que existe um polinômio r com grau menor do que o de p satisfazendo relações como 61 em cada raiz z0 do polinômio p A existência de tal polinômio será mostrada no lema a seguir 2 Para mostrarmos a existência do polinômio r denotaremos f 0 f Lema 63 Sejam dados os valores fz1 f z1 f d11z1 fzℓ f zℓ f dℓ1zℓ em que z1 zℓ são distintos Seja n igual a d1 d2 dℓ Então existe um único polinômio r de grau menor do que ou igual a n 1 satisfazendo rkizi fkizi para todo i 1 ℓ e ki 0 di 1 Exemplo 64 Antes de passarmos ao caso geral vejamos em um exemplo a demonstração do Lema 63 Suponhamos conhecidos os valores fz0 fz1 e fz1 Queremos encontrar um polinômio de grau 2 tal que rz0 fz0 rz1 fz1 e rz1 fz1 Seja rz az2 bz c Então os coeficientes de r devem satisfazer ao sistema matricial z02 z0 1 z12 z1 1 2z1 1 0 a b c fz0 fz1 fz1 62 Se os valores fz0 fz1 e fz1 forem nulos basta tomar r 0 A unicidade de r nesse caso é consequência do argumento apresentado a seguir Suponhamos que o sistema 62 não possua solução ou que essa não seja única Então o sistema homogêneo associado possui uma solução nãotrivial a0 b0 c0t Consideremos o polinômio nãonulo tz a0 z2 b0 z c0 É claro que tz tem raízes z0 e z1 a segunda com multiplicidade 2 já que z1 é raiz da derivada de t Mas isso implica que tz é um múltiplo de z z0z z12 e tem grau maior do que ou igual a 3 o que é um absurdo Logo 62 tem solução única para quaisquer valores fz0 fz1 e fz1 Demostração O polinômio r procurado satisfaz a um sistema linear que pode ser escrito matricialmente como Bz b sendo z o vetor que tem como coordenadas os coeficientes procurados de r b um vetor cujas n coordenadas são os valores conhecidos de f e B a matriz n n do sistema linear assim formado Se B não possuir inversa o sistema Bz 0 tem solução não trivial z0 a0 an 1t i i ALinear 20051219 1325 page 99 115 i i i i i i 61 O Polinômio Interpolador 99 Consideremos o polinômio tz a0 a1z an1zn1 que é um polinômio de grau menor do que ou igual a n 1 Como z0 satisfaz o sistema homogêneo associado temos que tz deve ser um múltiplo de z z1d1 z zℓdℓ o que é um absurdo pois o último polinômio tem grau n Assim B possui inversa e o sistema Bz b solução única qualquer que seja o vetor b 2 O polinômio r é chamado de polinômio interpolador Apresentamos agora uma conseqüência da Proposição 62 que está ausente de nossos cursos básicos de uma variável complexa a álgebra H de todas as funções analíticas f C C é euclidiana com relação a todo polinômio p Mais geralmente temos Proposição 65 Na divisão euclidiana f qp r gr r gr p da função analítica f U C C pelo polinômio p cujas raízes estão em U o quociente q é analítico Demonstração De acordo com a demonstração da Proposição 62 a função q f r p é analítica pois o numerador e o denominador se anulam exatamente nos mesmos pontos e os zeros do numerador possuem multiplicidade maior do que ou igual à dos zeros do denominador Assim q possui uma expansão em série de potências em cada ponto de U 2 Esse resultado possui extensão para funções f I R R de classe C e polinômios cujas raízes estão todas em I a regra de LHospital implicará então que q C i i ALinear 20051219 1325 page 100 116 i i i i i i 100 O Cálculo Funcional Cap 6 62 Funções de Matrizes Algumas vezes escreveremos fz para distinguir a função f U C C ou f I R R da aplicação linear fT Sejam T X X um operador definido no espaço de dimensão finita X e m o polinômio mínimo de T Suponhamos que f seja euclidiana com relação ao polinômio m Então fz qzmz rz com gr r gr m Uma vez que mT 0 é natural definir fT rT Definição 66 Seja mz z λ1d1 z λℓdℓ o polinômio mínimo do operador T Se estiverem definidos os valores fλ1 f λ1 f d11λ1 fλℓ f λℓ f dℓ1λℓ dizemos que f é euclidiana com respeito a T e definimos fT rT sendo r o polinômio interpolador dado pelo Lema 63 A Definição 66 tem uma conseqüência importante que salientamos desde já o operador fT sempre comuta com o operador T Observação 67 Se compararmos a definição anterior com a definição de uma função euclidiana f com respeito a m vemos que as exigências sobre f são menos restritivas Qual a razão dessa diferença A resposta é simples ao considerarmos abstratamente a divisão fz qzmz rz 63 precisamos impor condições em f que possibilitem definir uma função q que dê um sentido àquela divisão Se essas exigências forem satisfeitas podemos então concluir que r é dado pelo polinômio interpolador que está definido sob condições menos exigentes Por outro lado ao considerarmos fT supondo possível a substituição de z por T em 63 obtemos fT qTmT rT teremos fT rT independente da definição de qT Assim apenas o valor do polinômio r em T é importante A possibilidade da substituição de z por T em 63 é aceita implicitamente em muitos textos Mas uma dificuldade incontornável antepõese a ela em situações gerais qT tem que estar previamente definido para que a substituição faça sentido Contudo a Definição 66 é muitas vezes pouco aplicável é mais fácil obter o polinômio característico p de T do que o polinômio mínimo m Seria proveitoso se pudéssemos utilizar p ao invés de m na definição do operador fT E isso pode ser feito Podemos utilizar múltiplos de m enquanto a suavidade de f permitir Ao mostrarmos esse resultado manteremos a notação f qm r sendo r o polinômio interpolador definido antes para simbolizar que fT foi definido como rT Suponhamos que s seja outro polinômio que anula a matriz T e r1 o polinômio interpolador gerado por s Então teríamos f q1 s r1 isto é fT seria definido como r1T Mas o Lema 63 garante que r1z q2zmz rz 64 De fato se λ for uma raiz de multiplicidade d de mz notamos que r1iλ fiλ riλ for i 0d 1 Uma vez que todos os termos da equação 64 são polinômios a substituição de z por T faz sentido de acordo com a Seção 56 Assim r1T rT o que autoriza a utilização de qualquer múltiplo sz do polinômio mínimo mz do operador T ao invés de mz na Definição 66 Observação 68 Note que na argumentação anterior não verificamos que r1 r mas apenas que r1T rT Exemplo 69 Consideremos a matriz A 2 1 1 1 2 1 1 1 2 Os autovalores de A são 1 e 4 Seu polinômio mínimo é mz z 1z 4 como se verifica facilmente Se quisermos calcular A1000 definimos a função fz z1000 e consideramos o polinômio rz az b satisfazendo r4 f4 41000 e r1 f1 1 Definindo c 41000 então rz c 13 z 4 c3 Assim A1000 rA c 23 c 13 c 13 c 13 c 23 c 13 c 13 c 13 c 23 Notamos que uma vez que fz z1000 é um polinômio poderíamos ter feito a divisão euclidiana fz qzmz rz obtendo assim r donde se segue que A1000 rA em virtude do homomorfismo de álgebras 56 Exemplo 610 Consideremos a matriz A 0 0 1 0 0 0 0 0 0 Queremos calcular cos A Os polinômios característico e mínimo de A são pz z3 e mz z2 Utilizando p obtemos o polinômio interpolador rpz az2 bz c em que a 12 b 0 e c 1 pois c r0 cos 0 1 b r0 sen 0 0 e 2a r0 cos 0 1 Utilizando m obtemos o polinômio interpolador rmz az b em que a 0 e b 1 Assim rp rm Contudo rpA 12 0 0 1 0 0 0 0 0 0 2 1 0 0 0 1 0 0 0 1 1 0 0 0 1 0 0 0 1 rmA e cos A rpA rmA I i i ALinear 20051219 1325 page 103 119 i i i i i i 63 Estendendo o Homomorfismo de Álgebras 103 63 Estendendo o Homomorfismo de Álgebras Sejam T X X uma aplicação linear definida no espaço X de dimensão n e m o seu polinômio mínimo Suponhamos que f e g sejam euclidianas com relação a T Nosso objetivo nesta seção é mostrar que em fgz é válida a substituição de z por T fgT fTgT Assim suponhamos que mz z λ1d1 z λℓdℓ o polinômio mínimo de T Como vimos na Seção 56 existe um homomorfismo natural φ entre Kz a álgebra de polinômios com coeficientes em K e KT a álgebra de operadores lineares obtida ao se avaliar cada polinômio p Kz em T Denotamos por J a álgebra de todas as funções euclidianas com respeito a T É claro que Kz é uma subálgebra de J Definimos então Φ J KT por Φf fT sendo fT dado pela Definição 66 Claramente Φ é uma aplicação linear Vamos verificar que Φfg ΦfΦg Se f q1m rf e g q2m rg denotam as divisões euclidianas de f e g por m claramente ΦfΦg rfTrgT rfrgT Por outro lado seja fg q3m rfg a divisão euclidiana de fg por m Como vimos antes da Definição 66 vale a divisão de polinômios rfrg q4m rfg o que implica Φfg rfgT rfrgT ΦfΦg Isso mostra que Φ é um homomorfismo de álgebras que estende o homomorfismo φ Kz φ ւ ց J KT Φ O núcleo de Φ é constituído pelas funções f J que possuem resto nulo quando divididas por m isto é pelas funções f tais que fλ1 0 f d11λ1 0 fλℓ 0 f dℓ1λℓ 0 Observação 611 Os resultados aqui descritos são mais avançados e requerem conhecimentos da topologia do Kn É possível introduzir uma topologia em Kz na qual o homomorfismo φ é contínuo Para isso seja K K um conjunto compacto que contenha σT em seu interior Definimos k maxd1 1 dℓ 1 e a norma pCkK max zK pz pkz i i ALinear 20051219 1325 page 113 129 i i i i i i 65 Exercícios 113 a o valor r está bem definido e é positivo b se um vetor z 0 satisfizer Az rz então z é um autovetor de A associado ao autovalor r c vale a desigualdade Ax Ax em que v denota o vetor com coordenadas iguais ao valor absoluto das coordenadas de v d o autovetor z é positivo e o valor r é o maior autovalor de A e o autovalor r é simples Assim se Aw rw então w é um múltiplo de z i i ALinear 20051219 1325 page 119 135 i i i i i i 72 O Teorema Espectral 119 Do mesmo modo π2 1 2 1 1 0 1 0 0 0 0 1 0 0 2 1 0 As relações 71 seguemse daí imediatamente Logo x1 x2 x3 x4 R4 2x2 x3 x4 0 0 2x2 x3 x4 x1 2x2 x3 x4 x2 x3 2x2 x3 W1 W2 A matriz D é definida por D 3π1 2π2 2 2 1 1 0 2 0 0 0 0 2 0 0 2 1 3 e a matriz nilpotente N por N A D 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 É fácil verificar que N 2 0 e ND DN Se escolhermos por exemplo bases B1 w1 1 0 0 1 e B2 w2 1 0 0 0 w3 2 1 0 2 w4 1 0 1 1 para os espaços W1 e W2 respectivamente então T é representado pela matriz diagonal em blocos B 3 0 0 0 0 0 0 2 0 0 0 3 1 0 1 1 i i ALinear 20051219 1325 page 121 137 i i i i i i 72 O Teorema Espectral 121 o qual não é divisível por z λidi contrariando o Exercício 19 do Capítulo 5 Veja também o Exercício 15 deste Capítulo 2 O resultado anterior nos indica uma maneira alternativa de encontrar os espaços Wi vale kerT λiI kerT λiIdi kerT λiIdi1 kerT λiIsi 72 Para as inclusões estritas veja o Exercício 5 as igualdades são conseqüências de z λidi e z λisi serem respectivamente os polinômios mínimos e característico de TWi O índice di do autovalor λi é encontrado quando essa seqüência de subes paços estabilizase Ou alternativamente kerT λiIdi é o primeiro subespaço da seqüência que tem dimensão si Corolário 77 Seja X um espaço de dimensão finita Um operador linear T X X é diagonalizável se e somente se o seu polinômio mínimo for produto de fatores lineares distintos Demonstração Suponhamos que T seja diagonalizável Sejam λ1 λℓ os autovalores distintos de T Então X possui uma base formada por autovetores de T de acordo com o Corolário 56 Considere o polinômio hz z λ1 z λℓ Se v for um autovetor de T associado ao autovalor λi então T λiIv 0 Isso implica que hTv 0 para qualquer autovetor de T Como o Teorema Espectral 73 implica que o polinômio mínimo e característico possuem os mesmos fatores irredutíveis mostramos que h é o polinômio mínimo de T Reciprocamente se mz z λ1 z λℓ for o polinômio mínimo de T então o polinômio mínimo de TWi é z λiI Isso quer dizer que Wi kerT λiI Assim todo elemento de Wi é um autovetor de T Tomando bases Bi de cada espaço Wi temos que B B1 Bℓ é uma base de X formada por autovetores de T 2 i i ALinear 20051219 1325 page 122 138 i i i i i i 122 Teoria Espectral Cap 7 73 Decomposição Primária Esta seção pode ser omitida a critério do instrutor Seja T X X um operador linear sobre o espaço real X de dimensão n Se o polinômio característico p de T tiver suas n raízes em R o Teorema Espectral 73 pode ser aplicado Se esse não for o caso aquele resultado não é imediatamente aplicável Teorema 78 da Decomposição Primária Sejam X um espaço vetorial real de dimensão finita X e T X X uma aplicação linear Seja p Rz o polinômio característico de T Se pz p1zs1 pℓzsℓ for a decomposição de pz em fatores irredutíveis com pi pk para i k Então o polinômio mínimo de T é mz p1zd1 pℓzdℓ em que 0 di si para i 1 ℓ O espaço X decompõese como soma direta de subespaços X W1 Wℓ sendo Wi kerpiTdi kerpiTsi invariante por T Se pi tiver grau dois dim Wi 2si Demonstração Suponhamos que XC W1 Wℓ 73 seja a decomposição espectral de TC de acordo com o Teorema Espectral 73 ao espaço invariante Wi está associado apenas o autovalor λi de TC De acordo com o Lema 520 i escolhendo uma base B para X obtemos uma matriz real A que representa tanto T quanto TC nessa base Seja λ um autovalor real de TC e Wλ kerTC λId um dos subespaços da decomposição espectral 73 de TC Estamos utilizando a Proposição 76 Sejam w Wλ kerTC λId e x a representação de w na base B Então A λIdx 0 Tomando o conjugado nessa equação obtemos A λIdx 0 Assim w Wλ De acordo com o Lema 520 iii Wλ possui uma base formada i i ALinear 20051219 1325 page 124 140 i i i i i i 124 Teoria Espectral Cap 7 O polinômio característico de A é detA λI 10 λ 0 0 7 1 0 λ 1 0 0 0 1 λ 0 0 13 0 0 9 λ 1 4 0 0 3 1 λ Expandindo esse determinante com relação à segunda coluna obtemos detA λI λ det 10 λ 0 7 1 0 λ 0 0 13 0 9 λ 1 4 0 3 1 λ det 10 λ 0 7 1 0 1 0 0 13 0 9 λ 1 4 0 3 1 λ Desenvolvendo esses dois determinantes obtemos detA λI λ2 det 10 λ 7 1 13 9 λ 1 4 3 1 λ det 10 λ 7 1 13 9 λ 1 4 3 1 λ λ2 1λ3 2λ2 λ λλ2 1λ 12 Pelo Teorema da Decomposição Primária R5 ker A kerA2 I kerA I2 i i ALinear 20051219 1325 page 127 143 i i i i i i 74 Forma Canônica de Jordan 127 74 Forma Canônica de Jordan Seja X um espaço complexo de dimensão finita Nesta seção mostraremos como encontrar uma base de X na qual um operador linear T X X assume uma matriz especialmente simples Definição 714 Sejam λ1 λj os autovalores distintos de uma matriz J n n A matriz J está na forma canônica de Jordan se J J1 0 0 0 J2 0 0 0 Jk em que Ji λi 1 0 0 0 λi 1 0 0 0 λi 1 0 0 0 λi Ao autovalor λi está associado pelo menos um bloco Ji às vezes definese Ji com a subdiagonal de 1s situandose abaixo da diagonal principal O bloco Ji pode ser uma matriz 1 1 O bloco Ji é um bloco de Jordan associado ao autovalor λi Mostraremos na seqüência que toda matriz complexa é semelhante a uma matriz na forma canônica de Jordan Consideramos um espaço vetorial complexo apenas para garantir que os autovalores estão todos presentes no corpo veja o Exemplo 718 a seguir Note que a demonstração que apresentaremos é bem simples quase tudo que faremos é introduzir notação Denotaremos N0 0 e Nk kerA λiIk para k 1 di Note que Wi Ndi No enunciado e na demonstração do próximo resultado utilizaremos o isomorfismo canônico Q descrito em 129 entre XY e Z um espaço complementar a Y com relação a X isto é X Y Z Como para os nossos propósitos a notação do quociente é muito mais elucidativa do que mencionarmos o espaço complementar envolvido ao denotarmos x XY estamos na verdade considerando x Z em que X Y Z Nℓ1 Nℓ Zℓ A λiI Nℓ Nℓ1 Zℓ1 Zℓ Zℓ1 Q Q Nℓ1 Nℓ Nℓ Nℓ1 Em outras palavras ao escrevermos por exemplo A λiI Nℓ1 Nℓ Nℓ Nℓ1 estamos realmente considerando a aplicação A λi Zℓ Zℓ1 i i ALinear 20051219 1325 page 131 147 i i i i i i 74 Forma Canônica de Jordan 131 Reciprocamente se estas duas condições se verificarem então A e B são semelhantes Em particular é única a menos de ordenamento dos blocos a forma canônica de Jordan de uma matriz Demonstração Suponhamos que A e B sejam semelhantes Como matrizes semelhantes têm o mesmo polinômio característico veja o Exercício 6 vale i Notamos agora que os núcleos de duas matrizes semelhantes têm dimensão igual De fato se C Q1DQ e x1 xk for uma base do núcleo de C então Qx1 Qxk é uma base do núcleo de D Temos também que se A e B forem semelhantes então também são semelhantes as matrizes A aI e B aI bem como qualquer potência delas A aIm P 1B aImP A relação ii decorre então de os núcleos dessas matrizes terem a mesma dimensão Reciprocamente de acordo com a hipótese ii os subespaços Mℓ kerB λiℓ têm a mesma dimensão do espaço correspondente Nℓ Em outras palavras o procedimento aplicado a Nℓ se repetido para a matriz B produzirá o mesmo número de elementos para cada base de MℓMℓ1 Ordenando os autovalores comuns de A e B e então seguindo o procedimento para se obter uma forma de Jordan em cada bloco a representação de B numa base de Jordan ordenada como a base de A fará com que as duas matrizes tenham exatamente a mesma forma de Jordan pois seus autovalores também são iguais Assim existem mudanças de base Q1 e Q2 tais que Q1 1 AQ1 J Q1 2 BQ2 Definindo P Q2Q1 1 obtemos A P 1BP Note que o processo de construção de uma base que coloca um operador na forma de Jordan implica em particular a unicidade a menos do ordenamento dos blocos de Jordan da forma canônica de Jordan de um operador 2 i i ALinear 20051219 1325 page 132 148 i i i i i i 132 Teoria Espectral Cap 7 Exemplo 718 Seja T R4 R4 definido por Tx1 x2 x3 x4 2x1 x2 x4 3x2 x3 x2 x3 x2 3x4 Vamos obter a forma canônica de Jordan de T bem como uma base na qual T assume essa forma O polinômio característico de T é pt t 3t 23 verifique Assim todos os autovalores de T estão no corpo R e podemos obter uma a forma de Jordan de T Verificamos que N1 kerT 2I x1 x2 x2 x2 x1 x2 R N2 kerT 2I2 x1 x2 x3 2x3 2x2 x1 x2 x3 R Como a dimensão de kerT 2I2 é igual à multiplicidade de 2 como raiz do polinômio característico pt de T temos que o espaço W2 do Teorema Espectral 73 ou D5 é dado por kerT 2I2 Vamos obter uma base de Jordan para W2 Para isso notamos que existem três vetores em N2 e que dimN2N1 1 Isso quer dizer que teremos um bloco 2 2 e um bloco 1 1 associados ao autovalor 2 Claramente o vetor w2 0 1 0 2 N2 e w2 N1 Calculamos então w1 T2Iw2 1 1 1 1 A demonstração do Teorema de Jordan garante que w2 N1 e que w1 w2 são linearmente independentes esses vetores produzem o bloco 2 2 Para obtermos uma base de N1 escolhemos o vetor w3 1 0 0 0 N1 que claramente é linearmente independente com w1 Mais uma vez a demonstração do Teorema de Jordan garante que w1 w2 w3 são linearmente independentes o vetor w3 produz o bloco 1 1 Para o autovalor 3 a forma escalonada reduzida de T 3I 1 1 0 1 0 0 1 0 0 1 2 0 0 1 0 0 é 1 0 0 1 0 1 0 0 0 0 1 0 0 0 0 0 Assim o subespaço W3 kerT 3I do Teorema Espectral 73 ou D5 é dado por x1 0 0 x1 x1 R Esse subespaço tem base 1 0 0 1 w4 e produz um bloco 1 1 associado ao autovalor 3 i i ALinear 20051219 1325 page 134 150 i i i i i i 134 Teoria Espectral Cap 7 Verificamos que N1 kerA 2I 0 0 x3 x3 x4 x43 x3 x4 R O número de elementos em N1 nos dá o número de blocos de Jordan associados ao autovalor 2 Assim dois blocos de Jordan estão associados a esse autovalor Como o espaço invariante W2 associado ao autovalor 2 tem dimensão 5 existem apenas duas possibilidades para a decomposição de Jordan desse subespaço ou existe um bloco 2 2 e outro bloco 3 3 ou existe um bloco 4 4 e um bloco 1 1 Um novo cálculo nos mostra que N2 kerA 2I2 0 0 x3 x4 x5 3x5 x4 x39 Ora isso indica que a única possibilidade para decompor os blocos de Jordan é um bloco 4 4 e um bloco 1 1 Em particular W2 N4 Verificamos então que N3 kerA 2I3 0 x2 x3 x4 x5 2x2 3x3 3x4 9x527 N4 kerA 2I4 x1 x2 x3 x4 x5 27x5 9x4 9x3 6x2 10x181 Já era claro que deveríamos ter 5 graus de liberdade em kerA 2I4 Escolhemos então o vetor w5 1 0 0 0 0 1081 N4 N3 Obtemos w4 A2Iw5 0 1 1 0 1 1027 w3 A2Iw4 0 0 0 1 0 19 e w2 A 2Iw3 0 0 0 0 1 13 Note que w2 é um autovetor de A pois ele pertence a N1 Como N1 tem dimensão 2 existe um outro autovetor nesse espaço linearmente independente com w2 Esse é w6 0 0 1 1 0 0 Tendo obtido os vetores w1 w6 a representação de A nessa base satisfaz Aw1 w1 pois A Iw1 0 Aw2 2w2 pois A 2Iw2 0 Aw3 w2 2w3 pois A 2Iw3 w2 Aw4 w3 2w4 pois A 2Iw4 w3 Aw5 w4 2w5 pois A 2Iw5 w4 Aw6 2w6 i i ALinear 20051219 1325 page 138 154 i i i i i i 138 Teoria Espectral Cap 7 mostrando que os autovetores w 1 u1 iv1 de TC dão origem às colunas α β β α 0 0 0 0 quando representamos T na base S Se para j 2 r tivermos TCwj λwj wj1 vemos que Tuj iTvj αuj βvj uj1 iβuj αvj vj1 uj1 αuj βvj ivj1 βuj αvj vj1 Em particular se j 2 os vetores w 2 dão origem às colunas 1 0 0 1 α β β α 0 0 0 0 o que implica que na base u1 v1 u2 v2 uk vk de Wλλ T é representado por blocos da forma descrita no enunciado do teorema 2 76 Decomposição Racional Essa Seção é opcional podendo ser omitida a critério do professor sem prejuízo para o restante do texto Em última instância a decomposição racional também chamada de decomposição de Frobenius é o resultado mais geral válido para um operador qualquer em um espaço de dimensão finita X Essa generalidade é dada pelo fato desse resultado independer do corpo sobre o qual X é espaço vetorial Consonante com nossa proposta de estudar espaços vetoriais sobre R ou C vamos inverter a perspectiva natural e obter a decomposição racional como conseqüência da forma canônica complexa de Jordan i i ALinear 20051219 1325 page 140 156 i i i i i i 140 Teoria Espectral Cap 7 Seja x0 X tal que o Tanulador de x0 é o polinômio mínimo m de T Se o grau de m for igual a k então os vetores x0 Tx0 T k1x0 são todos linearmente independentes Se fossem linearmente dependentes o Tanulador de x0 teria grau menor do que ou igual a k 1 Seja W o subespaço de X gerado por tais vetores Como m mx0 é mônico e tem grau k mTx0 a0I a1T T kx0 0 75 Daí seguese imediatamente que T kx0 é combinação linear de x0 Tx0 T k1x0 Dizemos então que x0 é um vetor cíclico de ordem k Em outras palavras provamos que TW W Note que a representação de TW na base B x0 Tx0 T k1x0 de W é a matriz B 0 0 0 0 a0 1 0 0 0 a1 0 1 0 0 a2 0 0 1 0 a3 0 0 0 1 ak1 76 Chamamos W de subespaço gerado pelo Tanulador de x0 Definição 725 Um bloco cíclico ou bloco de Frobenius de uma matriz A é uma submatriz quadrada B com a forma 76 Essa submatriz é chamada matriz companheira de ordem k e está associada a um polinômio mônico de grau k A matriz companheira do polinômio 1 é a matriz 0 Colocamos agora a questão existe um subespaço W invariante por T tal que X W W Se o polinômio mínimo for igual ao polinômio característico de T sabemos a resposta sim com W justifique Ou seja W X e obtemos uma representação simples para o operador T Note que se uma tal decomposição for possível então obteremos uma representação de T em blocos de Frobenius o primeiro associado ao polinômio mínimo de T Um segundo bloco de Frobenius estará associado ao polinômio mínimo do operador S TW E assim sucessivamente i i ALinear 20051219 1325 page 141 157 i i i i i i 76 Decomposição Racional 141 Vamos mostrar que uma tal decomposição sempre existe Mais precisamente denotemos W Zx0 T o subespaço gerado pelo Tanulador de x0 e generalizando Zxk T o subespaço gerado pelo Tanulador de xk X Então temos Teorema 726 Decomposição Racional Frobenius Seja T X X um operador definido no espaço de dimensão finita X Então existem vetores nãonulos x0 x1 xk tais que X Zx0 T Zx1 T Zxk T em que cada espaço Zxi T é invariante por T e se pi denotar o Tanulador de xi então pi divide pi1 para todo i e p0 é o polinômio mínimo de T Além disso o inteiro k e os Tanuladores p0 pk são determinados de maneira única por essas condições Os polinômios p0 pk são chamados fatores irredutíveis de T A demonstração do Teorema 726 será feita utilizandose a forma de Jordan do operador T Começamos mostrando como obter vetores de determinadas ordens Lema 727 Sejam T X X um operador linear e λ 1 0 0 0 λ 1 0 0 0 λ 1 0 0 0 λ um bloco de Jordan de T de ordem k k Se S T λI seja C Sk1x Sk2x Sx x a base de Jordan responsável por esse bloco Então x é um vetor de ordem k Demonstração Seja B x Tx T k1x Por indução é fácil verificar que B é linearmente independente se e somente se C for linearmente independente Como o polinômio mínimo de TW é t λk temos Skx 0 Desses fatos decorre imediatamente o afirmado 2 Agora mostraremos como dar origem a blocos de ordem maior i i ALinear 20051219 1325 page 146 162 i i i i i i 146 Teoria Espectral Cap 7 Exemplo 732 Consideremos a matriz real A 0 2 0 6 2 1 2 0 0 2 1 0 1 3 2 1 2 1 1 2 1 4 3 3 4 Calculando os polinômios característico p e mínimo m de A obtemos pt t 2t2 22 e mt t 2t2 2 Assim A é diagonalizável como matriz complexa mas não como matriz real Uma base B na qual A assume sua forma de Jordan é dada por B 0 1 1 1 2 3 2i 2 1i 2 2 1 i 2 2 0 1 i 2 2 3 2i 2 1i 2 2 1 i 2 2 0 1 i 2 2 3 2i 2 0 1 i 2 4 1 2 i 2 4 0 3i 2 4 3 2i 2 0 1 i 2 4 1 2 i 2 4 0 3i 2 4 Como matriz complexa podemos escolher como vetores de ordem 1 responsáveis pelos blocos associados aos autovalores 1 i 2 e i 2 tanto o primeiro segundo e terceiro vetores da base B quanto o primeiro quarto e quinto vetores da base B Para cada vetor complexo tomamos o vetor e seu conjugado Se somarmos o primeiro o segundo e o terceiro vetores de B obtemos o vetor x0 0 0 3 1 0 que é responsável pelo bloco de Frobenius associado ao polinômio mínimo de A Nesse caso o segundo bloco de Frobenius é obtido ao se somar o quarto e quinto vetores da base B x1 0 0 2 1 0 i i ALinear 20051219 1325 page 148 164 i i i i i i 148 Teoria Espectral Cap 7 Você percebeu que essas inclusões estritas já haviam sido provadas na demonstração do Teorema de Jordan 717 6 Seja A uma matriz tal que Ak 0 Mostre que Bk 0 para qualquer matriz B semelhante a A 7 Seja N uma matriz n n com n 2 Se N for nilpontente mostre que não existe uma matriz A tal que A2 N 8 Dê exemplos de operadores N M X X ambos nilpotentes tais que NM e N M não sejam nilpotentes 9 Seja A uma matriz diagonalizável e W um subespaço invariante por A Mostre que AW é diagonalizável 10 Diagonalização simultânea de operadores Sejam X um espaço vetorial de dimensão finita n e S T X X operadores diagonalizáveis Se ST TS mostre que T e S são simultaneamente diagonalizáveis isto é que existe uma base B de X formada por elementos que são ao mesmo tempo autovetores de S e T 11 Se dim X n sejam S T X X sejam operadores diagonalizáveis Suponha que ST TS Mostre que S T é diagonalizável Descreva o espectro de S T 12 Sejam N M X X operadores nilpotentes com NM MN Mostre que M N é nilpotente 13 O Teorema 73 garante a existência de uma decomposição T D N com DN ND sendo D diagonalizável e N nilpotente Mostre que as aplicações lineares D e N são únicas 14 Sejam X um espaço complexo de dimensão finita e T X X um operador linear invertível Mostre que T DN com D diagonalizável e N nilpotente Mostre também que essa decomposição é única 15 Seja x X arbitrário Demonstre por indução que T λiIkx 0 implica que x Wi e obtenha assim uma outra demonstração de que kerT λiIdi Wi i i ALinear 20051219 1325 page 149 165 i i i i i i 77 Exercícios 149 16 Encontre a decomposição dada pelo Teorema 73 para a matriz A 1 1 1 1 1 0 1 1 1 1 0 0 1 1 1 0 0 0 2 1 0 0 0 0 2 17 Obtenha a decomposição primária do operador T do Exemplo 710 utilizando o cálculo funcional 18 Seja A MnnK uma matriz tal que A2 2A I A matriz A é diagonalizável 19 Dê uma demonstração direta do Lema 715 Mostre portanto que a aplicação A λiI está bem definida e tem as propriedades descritas no lema 20 Demonstre a Proposição 713 21 Sejam A e B matrizes reais tais que A P 1BP para alguma matriz complexa P Mostre que A Q1BQ para alguma matriz real Q 22 Obtenha bases B na quais as seguintes matrizes estejam na forma canônica de Jordan a 2 5 0 0 0 0 2 0 0 0 0 0 1 0 1 0 0 0 1 0 0 0 0 0 1 b 1 1 0 0 1 0 4 0 0 1 1 1 1 3 3 4 0 0 1 0 1 1 2 1 0 0 0 1 1 1 4 5 0 0 0 0 1 0 1 5 0 0 0 0 0 1 1 1 0 0 0 0 0 0 1 2 0 0 0 0 0 0 0 3 i i ALinear 20051219 1325 page 150 166 i i i i i i 150 Teoria Espectral Cap 7 23 Sejam mt t λ1d1 t λrdr e pt t λ1s1 t λrsr os polinômios mínimo e característico do operador T X X definido no espaço complexo X Mostre que a existe ao menos um bloco di di associado ao autovalor λi b o número de blocos associados ao autovalor λi é igual à multiplicidade geométrica de λi isto é à dimensão do autoespaço Xλi associado ao autovalor λi do autovalor λi 24 A menos de ordenamento dos blocos determine todas as possíveis formas canônicas de Jordan para uma matriz complexa a cujo polinômio característico é pt t 23t 52 b cujos polinômios mínimo é mt t 22 sabendo que A é uma matriz 7 7 c cujo polinômio característico é pt t 34t 54 e cujo polinômio mínimo é mt t 32t 52 25 Suponha que sejam reais os autovalores de A MnnR e que A2 seja semelhante a A Quais são os possíveis autovalores de A 26 Seja T X X um operador no espaço complexo X Suponha que T k I para algum inteiro positivo k Mostre que T é diagonalizável 27 Seja A MnnC uma matriz invertível e J a sua forma canônica de Jordan Qual é a forma canônica de Jordan de A1 28 Verifique que a demonstração do Teorema 722 garante em particular que os subespaços Wλ e Wλ associados aos autovalores conjugados λ λ possuem a mesma dimensão Você é capaz de dar uma outra demonstração desse fato 29 Seja T X X um operador no espaço de dimensão finita X Mostre que existe um espaço invariante W X com dim W 1 ou dim W 2 i i ALinear 20051219 1325 page 151 167 i i i i i i 77 Exercícios 151 30 Considere a matriz i 1 0 0 0 i 0 0 0 0 i 0 0 0 0 i Essa matriz é a forma de Jordan de alguma aplicação T R4 R4 E de uma aplicação S C4 C4 31 Seja T R4 R4 um operador que tem a forma de Jordan complexa dada por i 1 0 0 0 i 0 0 0 0 i 1 0 0 0 i Ache a sua forma de Jordan real Definição 733 Um operador T X X definido no espaço real X é semi simples se sua complexificação TC XC XC for diagonalizável 32 Sejam X um espaço real de dimensão finita e T X X um operador Mostre que T D N com D semisimples e N nilpotente sendo que DN ND 33 Verifique que na base C descrita no Exemplo 731 a matriz A assume sua decomposição racional 34 Verifique que a matriz A do Exemplo 732 assume sua forma de Jordan na base B ali descrita Verifique também que na base C daquele exemplo A assume sua decomposição racional 35 Seja que na base B a matriz A assume sua forma racional Obtenha uma base C na qual A assume a forma de Jordan i i ALinear 20051219 1325 page 155 171 i i i i i i 82 Norma 155 Assim podemos escrever x y x y cos θ expressão muitas vezes usada na definição do produto escalar x y de vetores x y R3 A desigualdade de CauchySchwarz permite que justifiquemos a notação x x x12 Veja também o Exercício 3 Proposição 87 Todo espaço com produto interno E tem uma norma definida por x x x12 Dizemos que essa norma é gerada pelo do produto interno Demonstração A primeira propriedade de norma decorre imediatamente da definição do produto interno Além disso λx2 λx λx λλx x λ2 x2 Finalmente denotando por Re z a parte real de z C temos que x y2 x y x y x2 x y y x y2 x2 2Re x y y2 81 x2 2Re x y y2 x2 2x y y2 x y2 2 Observação 88 Consideremos o isomorfismo entre um espaço vetorial E com base B v1 vn e o espaço Kn Seja xB a representação de x na base B e yB o vetor obtido ao se tomar o conjugado em cada uma das entradas de yB Definimos um produto interno em E por x y xt ByB Essa definição é a generalização do Exemplo 82 Veremos posteriormente uma certa recíproca desse resultado caracterizando produtos internos em espaços de dimensão finita Parafraseando Lima 22 ao dizermos que um espaço vetorial de dimensão finita é euclidiano não estamos atribuindo uma propriedade especial a esse espaço Estamos na verdade escolhendo naquele espaço um determinado produto interno entre os vários produtos internos com que ele poderia ser considerado Compare i i ALinear 20051219 1325 page 157 173 i i i i i i 83 Bases Ortonormais 157 Lema 812 Em um espaço com produto interno E todo conjunto ortogonal formado por vetores nãonulos é linearmente independente Demonstração Sejam x1 xm X elementos arbitrários do conjunto ortogonal Suponhamos que α1x1 αmxm 0 para escalares α1 αm Então 0 0 xi α1x1 αmxm xi α1x1 xi αmxm xi αixi xi Como xi xi xi2 0 temos αi 0 2 Assim se dim E n e o conjunto ortogonal x1 xn for formado por vetores nãonulos obtemos imediatamente uma base ortonormal ao dividir cada vetor por sua norma Suponhamos que B x1 xn seja uma base ortonormal de E Para x E temos x α1x1 αnxn Os escalares αi podem ser facilmente determinados Como a base é ortonormal seguese daí que αi x xi i 1 n Consideremos então um outro vetor y E Temos que x y α1x1 αnxn β1x1 βnxn α1β1 αnβn o que mostra que com relação a uma base ortonormal2 qualquer produto interno em E tem a forma dada pela Observação 88 Em particular quando y x temos x2 α1α1 αnαn α12 αn2 Podemos ainda explorar mais as relações anteriores com a Observação 88 Se x α1x1 αnxn concluímos facilmente que a aplicação S E Kn Sx α1 αn é um isomorfismo que transforma um dado produto interno em E no produto escalar usual no Kn Seja B x1 xn uma base ortonormal de E e T E E uma aplicação linear É fácil verificar que se A aij é a representação de T na base B então aij xi Txj 2Para o caso de bases que não são ortonormais veja o Exercício 19 i i ALinear 20051219 1325 page 168 184 i i i i i i 168 Estrutura Euclidiana Cap 8 i ou ambas as equações em 84 têm solução para quaisquer x y E e u v E Claro que então ambas as equações em 85 possuem apenas a solução trivial ii ou as equações em 84 possuem exatamente o mesmo número de soluções linearmente independentes Se x ker T e u ker T então u y 0 e x v 0 Demonstração Suponhamos que Tx y tenha solução para qualquer x y E Isso que dizer que im T E kerT e portanto ker T 0 Do Teorema 832 v seguese que dimker T dimker T O item iv nos mostra que se y im T então u y 0 e o item iii garante que x v 0 2 86 Isometrias Definição 836 Sejam E F espaços euclidianos e M E F uma aplicação não necessariamente linear A aplicação M é uma isometria se para quaisquer x y E tivermos Mx My x y 86 Decorre imediatamente da definição que a composta de duas isometrias é uma isometria Um exemplo elementar de isometria é uma translação Tx x a para a E fixo Dada uma isometria podemos compôla com uma translação e produzir assim uma isometria que preserva a origem isto é leva 0 E em 0 F Recipro camente toda isometria é a composta de uma isometria que preserva a origem com uma translação Teorema 837 Sejam E F espaços euclidianos e M E F uma isometria com M0 0 Então Mx y Mx My Se E F forem espaços reais então M é linear i i ALinear 20051219 1325 page 169 185 i i i i i i 86 Isometrias 169 Demonstração Vamos denotar Mx x My y etc Por definição vale x y x y 87 Tomando sucessivamente x 0 e y 0 em 87 obtemos também x x e y y 88 Uma vez que x y x y x x x y y x y y ao elevarmos ao quadrado 87 e 88 obtemos x y y x x y y x 89 Do mesmo modo zxy2 z2y2x2z xx zz yy zx yy x Seguese de 87 88 e 89 que z x y2 z x y2 Escolhemos então z x y O lado direito dessa igualdade é então nulo Assim temos z x y 0 Mas isso mostra que Mx y Mx My Suponhamos agora que E F sejam espaços reais Então 89 implica que Mx My x y Agora completamos a prova da linearidade de M Mλx My λx y λx y λMx My λMx My Por conseguinte Mλx λMx My 0 Escolhendo sucessivamente y λx e y x obtemos Mλx λMx Mλx 0 e Mλx λMx λMx λMλx λMx Mx 0 i i ALinear 20051219 1325 page 170 186 i i i i i i 170 Estrutura Euclidiana Cap 8 Logo Mλx λMx Mλx λMx 0 mostrando a linearidade de M no caso real Veja o Exercício 38 2 Note que uma isometria linear entre espaços euclidianos E e F sempre é uma aplicação injetora Teorema 838 Sejam E F espaços euclidianos e M E F uma aplicação linear As seguintes afirmativas são equivalentes i M é uma isometria ii M preserva o produto interno Mx My x y iii M M I Se dim E dim F então essas condições são equivalentes a iv M e M são isometrias Demonstração A identidade de polarização Lema 89 adequada ao caso mostra i ii Para quaisquer x y E vale x y Mx My x M My x M My y 0 Escolhendo x M My y vemos que ii iii Uma vez que x y M Mx y Mx My temos que iii i Se dim E dim F de M M I decorre que M 1 M e portanto MM I Como x2 x MM x M x M x M x2 temos que M é uma isometria O mesmo cálculo com M M ao invés de MM garante que M também é uma isometria Assim iii iv É óbvio que iv i 2 Como uma isometria preserva a ortogonalidade temos imediatamente Corolário 839 Sejam E F espaços euclidianos e M E F uma isometria Então M transforma conjuntos ortogonais de E em conjuntos ortogonais de F i i ALinear 20051219 1325 page 171 187 i i i i i i 87 Operadores Lineares 171 Proposição 840 Sejam E F espaços euclidianos de mesma dimensão e M E F uma isometria linear Se esses espaços forem reais então det M 1 No caso complexo det M 1 Demonstração No caso real como M M t e det M t det M a igualdade M M I garante que det M2 1 e portanto det M 1 No caso complexo M M t Decorre daí que det M det M t det M det M Assim det Mdet M 1 provando o afirmado 2 O significado geométrico da Proposição 840 é que uma aplicação que preserva normas também preserva volumes Veja o Exercício 53 87 Operadores Lineares Nosso objetivo nesta seção é iniciar o estudo de operadores lineares T E E em que E é um espaço euclidiano Definição 841 Sejam E um espaço euclidiano e T E E um operador linear Dizemos que i T é unitário se T T TT I ii T é autoadjunto se T T iii T é antiautoadjunto se T T iv T é normal se T T TT A mesma denominação é utilizada para as matrizes que representam tais operadores com relação a uma base ortogonal Operadores unitários também são chamados de ortogonais especialmente se E for um espaço real enquanto operadores autoadjuntos também são chamados de hermitianos ou simétricos essas denominações sendo empregadas para diferenciar operadores autoadjuntos em espaços complexos e reais respectivamente Por esse motivo as denominações antihermitiano no caso complexo e anti simétrico no caso real são também utilizadas para um operador antiautoadjunto Operadores autoadjuntos antiautoadjuntos e unitários são sempre normais como podemos verificar facilmente Como vimos na seção anterior se o operador M E E for uma isometria então M M 1 e M é unitário i i ALinear 20051219 1325 page 177 193 i i i i i i 89 Exercícios 177 7 Seja E um espaço normado que satisfaz a identidade do paralelogramo Definindo E E K por meio da identidade de polarização conveniente mostre que é um produto interno em E e que a norma de E é gerada por esse produto interno 8 Considere agora o espaço Cπ π R com o produto interno definido no Exercício 4 Mostre que o conjunto X 1 sen t cos t sen 2t cos 2t é um conjunto ortogonal 9 Considere então o espaço vetorial C1 1 R com o produto interno definido no Exercício 4 Seja P C1 1 R o subespaço formado por todas as funções pares e I C1 1 R o subespaço formado por todas as funções ímpares Mostre que I P 10 Seja E um espaço com produto interno Interprete geometricamente a desigualdade de CauchySchwarz em termos de normas dos vetores nãonulos y e projxy 11 Seja Rt o espaço vetorial de todos os polinômios com coeficientes em R Nesse espaço considere o produto interno definido em C1 1 R Verifique que X 1 t t2 é uma base desse espaço Encontre os 4 primeiros termos da base p1 p2 obtida ao se aplicar o processo de ortogonalização de GramSchmidt à base X Os polinômios pnt são os polinômios de Legendre que são úteis no estudo de equações diferenciais 12 No processo de GramSchmidt passe de uma base arbitrária u1 un do espaço euclidiano E para uma base ortogonal x1 xn sem normalizar os vetores ortogonais em cada passo do processo Verifique que 0 xi ui para todo i 1 n Prove que xi 0 implica que ui está no espaço gerado por u1 ui1 enquanto xi ui significa que ui é ortogonal a cada vetor xj para j 1 i 1 13 Sejam E um espaço com produto interno e w1 wm uma base ortonormal do subespaço W Mostre que para todo v E vale a i i ALinear 20051219 1325 page 181 197 i i i i i i 89 Exercícios 181 28 Seja T X X um operador sobre o espaço euclidiano X Suponha que Tv λv e T w µw com λ µ Mostre que v w 0 29 Sejam E um espaço euclidiano e T E E um operador Suponha que F E seja um subespaço invariante por T e T Mostre que TF T F Assim a restrição de um operador normal respectivamente autoadjunto ou antiautoadjunto a um subespaço invariante tanto por T como por T é normal respectivamente autoadjunto ou antiautoadjunto 30 Sejam E um espaço euclidiano e π E E uma projeção Mostre que π é uma projeção ortogonal isto é ker π im π se e somente se πx x πx 0 para todo x E Mostre que se uma projeção π E E satisfizer πx x para todo x E então π é ortogonal 31 Sejam E um espaço euclidiano e π E E uma projeção Mostre que as seguintes afirmações são equivalentes a π é normal b π é autoadjunta c π é uma projeção ortogonal sobre sua imagem 32 Sejam S T E E operadores autoadjuntos no espaço euclidiano E Mostre que ST é autoadjunto se e somente se ST TS 33 Sejam E F espaços euclidianos e T E F uma aplicação linear Mostre que a T é injetora se e somente se T for sobrejetora b T é sobrejetora se e somente se T for injetora 34 Sejam E F espaços euclidianos e T E F uma aplicação linear Mostre que T T E E e TT F F têm o mesmo posto de T e de T 35 Seja E um espaço com produto interno e α β E vetores fixos Mostre que Tx x αβ define uma aplicação linear em E Mostre que T existe e obtenha sua expressão 36 Um isomorfismo dos espaços com produto interno E e F é uma bijeção linear T E F que satisfaz adicionalmente Tx Ty x y para todos x y E isto é T é uma isometria i i ALinear 20051219 1325 page 183 199 i i i i i i 89 Exercícios 183 Mostre também que o gráfico de uma aplicação linear T E F é um subespaço de E F 45 Considere o espaço com produto interno E F tal qual no Exercício 44 a Defina U E F F E por Ux y y x Mostre que U existe e obtenha sua expressão Obtenha também U U e UU b Se T E E possuir adjunta T E E qual é a relação entre os gráficos de T e T 46 Considere z z1 zn Kn e defina z max 1in zi zsum z1 zn z z1z1 znzn Mostre que sum e são normas em Kn Mostre também que z z zsum nz 47 Seja A MnnK Mostre que A A e AA A2 48 Seja A MnnK Se A for normal mostre que A2 A2 49 Considere que E Kn e resolva os Exercícios 7 e 8 do Apêndice F 50 Aceite o fato que todo espaço vetorial possui uma base um resultado que é demonstrado utilizandose o lema de Zorn Mostre então que todo espaço vetorial possui um produto interno e portanto uma norma Definição 851 Sejam v1 vr vetores em Kn O conjunto x1v1 xrvr com 0 xi 1 i 1 r é o paralelepípedo P Pv1 vr gerado por v1 vr Definimos indutivamente o volume rdimensional do paralelepípedo por volPv1 v1 e supondo definido o volume do paralelepípedo gerado por k 1 vetores definimos vol Pv1 vk h volPv2 vk em que h é a altura do paralelepípedo isto é se w for a projeção de v1 sobre o espaço gerado por v2 vk então h v1 w i i ALinear 20051219 1325 page 184 200 i i i i i i 184 Estrutura Euclidiana Cap 8 51 Dado um conjunto arbitrário v1 vk do espaço euclidiano E de dimensão n considere a matriz A k n cujas linhas são as coordenadas de vi com relação a uma base ortogonal B de E A v1t B vkt B a Mostre que AA é a matriz de Gram Gv1 vk vi vj conclua então que det Gv1 vk é diferente de zero se os vetores v1 vk forem linearmente independentes e nulo se esses vetores forem linearmente dependentes7 b mostre que det Gv1 vk h2 det Gv2 vk em que v1 h w sendo h ortogonal ao espaço gerado por v2 vk conclua a desigualdade de Hadamard 0 det G v12 vk2 c Mostre que volPv1 vk2 det Gv1 vk 52 Seja v1 vn Kn vetores linearmente independentes Conclua que volPv1 vn Dv1 vn em que D é a função determinante 53 Seja T Kn Kn um operador linear e P um paralelepípedo n dimensional em Kn Mostre que TP é um paralelepípedo e volTP det T volP Observação 852 Uma vez estabelecida a relação entre determinantes e volumes estamos em condições de interpretar o significado geométrico das outras duas 7O item b garante que det Gv1 vk 0 i i ALinear 20051219 1325 page 185 201 i i i i i i 89 Exercícios 185 operações elementares sobre as linhas de uma matriz A compare com a Observação 44 A multiplicação de uma linha por uma constante positiva c multiplica o volume do paralelepípedo formado pelas linhas de A também por c Isso é evidente quando c é inteiro ou mesmo uma fração A substituição de uma linha de A por sua soma com outra linha certamente não altera o determinante de A pois a altura do paralelepípedo gerado pelas linhas de A não é modificada a projeção do vetor altura sobre o espaço gerado pelos demais vetores permanece a mesma Isto também pode ser visto de outra maneira se a linha a ser alterada corresponder a um vetor vertical o que podemos obter por uma mudança de base adicionar a essa uma outra linha de A corresponde a inclinar o paralelepípedo Pelo Princípio de Cavalieri o volume não se altera i i ALinear 20051219 1325 page 193 209 i i i i i i 92 Diagonalização de Formas Quadráticas 193 A demonstração dada pode ser adaptada para se provar o Teorema de Lagrange para formas quadráticas hermitianas veja o Exercício 13 Apresentaremos ao invés uma demonstração que enfatiza a geometria da situação Teorema 913 Dada uma forma quadrática hermitiana no espaço euclidiano complexo E de dimensão n é possível fazer uma mudança de coordenadas linear Lx z de modo que na nova variável z a forma quadrática q seja diagonal isto é qL1z d1z1z1 dnznzn d1z12 dnzn2 94 em que di R para todo i 1 n Demonstração Suponhamos que qx x Ax sendo A uma matriz hermitiana Escolha v1 tal que qv1 v1 Av1 0 Se qx 0 a existência de um tal v1 está garantida pela Proposição 842 Consideremos agora o conjunto W1 formado por todos os vetores x E tais que x Av1 0 Claramente W1 é um subespaço de E Como Av1 0 temos então que dim W1 n 1 Se qW1 0 repetimos o processo e obtemos um vetor v2 tal que v2 Av2 0 e definimos o espaço W2 por W2 x Avi 0 para i 1 2 Se esse processo puder ser repetido n vezes obtemos então uma base v1 vn de E Caso contrário após um número r de passagens teremos obtido o conjunto linearmente independente v1 vr e encontraremos um subespaço Wr com dimensão n r 0 tal que qWr 0 Selecionamos nesse caso uma base vr1 vn desse subespaço Claramente v1 vn é uma base de E Por construção temos vi Avj 0 para i j Como A é autoadjunta segue se daí Avi vj 0 vj Avi e portanto vi Avj 0 para j i Assim se x z1v1 znvn for um vetor arbitrário x Ax z1v1 znvn z1v1 znvn z1z1v1 Av1 znznvnAvn Definindo di vi Avi obtemos o resultado 2 Notamos que por meio da identidade de polarização podemos expressar o Teorema de Lagrange como um resultado sobre formas autoadjuntas Veja o Exercício 14 Teorema 914 Dada uma matriz A MnnK hermitiana simétrica existe uma matriz M MnnK tal que M AM D 95 sendo D uma matriz diagonal i i ALinear 20051219 1325 page 194 210 i i i i i i 194 Formas Sesquilineares e Quadráticas Cap 9 Demonstração Considerada a mudança de variável linear Lx y que diagonaliza a forma quadrática hermitiana simétrica qx x Ax seja M L1 Então x My e qx x Ax My AMy y M AMy Claramente q tem a forma 94 ou 93 respectivamente se e somente se M AM for uma matriz diagonal Isso prova que os Teoremas 911 e 914 são equivalentes 2 Em muitas aplicações é importante utilizar mudanças de coordenadas tais que os comprimentos euclidianos da velha variável e da nova sejam o mesmo isto é v2 z2 Em termos da expressão matricial v Mz isso significa que M é uma isometria Assim de acordo com o Teorema 838 M deve satisfazer M M I Um dos resultados mais importantes da Matemática garante que dada uma forma quadrática q é possível diagonalizála por meio de uma mudança isométrica de coordenadas Em outras palavras de modo que tanto 95 como M M I sejam satisfeitas Veremos isso no próximo capítulo 93 A Lei da Inércia Se q for uma forma quadrática hermitiana notamos que a Proposição 843 garante que qx R para todo x E Definição 915 Dizemos que a forma quadrática hermitiana simétrica q é positiva definida respectivamente positiva semidefinida em um subespaço Y E se qx 0 resp qx 0 para todo 0 x Y Se Y E dizemos apenas que q é positiva definida resp positiva semidefinida De maneira análoga definimos quando q é negativa definida negativa semidefinida etc Se existirem pontos x y E tais que qx 0 e qy 0 a forma q é indefinida Note que escolhida uma base ortonormal B para o espaço E a forma q é positiva definida se e somente se a matriz AB for uma matriz positiva definida tal qual definido no Exercício 19 do Capítulo 8 Veja também o Exercício 20 deste Capítulo Assim podemos falar de matriz positiva semidefinida negativa definida etc i i ALinear 20051219 1325 page 198 214 i i i i i i 198 Formas Sesquilineares e Quadráticas Cap 9 b Seja B uma forma de posto 1 no espaço euclidiano real E Mostre que existem funcionais lineares f E R e g E R tais que Bx y fxgy 12 Se a matriz que representa uma forma B E E K com relação a uma base ortonormal for invertível mostre que para todo x0 E existe y0 E tal que Bx0 y0 0 13 Mostre o Teorema de Lagrange 913 para o caso de formas quadráticas hermitianas adaptando a demonstração apresentada para o caso de formas quadráticas simétricas 14 Enuncie o Teorema de Lagrange Teoremas 911 e 913 como um resultado sobre a diagonalização de uma forma sesquilinear autoadjunta 15 Dada a forma quadrática ax2 bxy cy2 encontre a matriz simétrica que a representa 16 Considere a forma quadrática q R4 R definida por qx1 x2 x3 x4 x2 1 6x1x2 5x2 2 4x1x3 12x2x3 4x2 3 4x2x4 x3x4 x2 4 Coloque q na forma diagonal Definição 918 Duas matrizes A e B em MnnK são congruentes se existir uma matriz invertível M MnnK tal que A M BM 17 Mostre que a congruência de matrizes é uma relação de equivalência em MnnK 18 Sejam A B MnnK matrizes congruentes Mostre que det A 0 se e somente se det B 0 19 Mostre que toda matriz simétrica hermitiana é congruente a uma matriz diagonal cujas entradas assumem apenas os valores 1 0 e 1 20 Mostre que uma forma quadrática simétrica hermitiana qx x Ax é positiva definida no espaço euclidiano E se e somente se a matriz AB que representa A numa base ortonormal B for positiva definida tal qual definido no Exercício 19 do Capítulo 8 Verifique o mesmo resultado para uma forma negativa definida positiva semidefinida etc i i ALinear 20051219 1325 page 199 215 i i i i i i 94 Exercícios 199 21 Mostre que uma forma quadrática hermitiana simétrica qx x Ax é positiva definida se e somente se A for congruente a I 22 Faça um diagrama para a relação M AM D em termos de mudanças de bases Definição 919 Seja A MnnK Para cada r n a submatriz aij 1 i j r n é a submatriz principal de A de ordem r denotada por Ar O determinante de Ar é o menor principal de ordem r 23 Mostre que se todos os menores principais de uma matriz simétrica hermitiana A MnnK forem positivos então a matriz A é positiva definida 24 Mostre que todos os menores principais de uma matriz simétrica hermitiana A MnnK positiva definida são positivos 25 Mostre que uma matriz simétrica hermitiana A aij é negativa definida se e somente se seus menores principais tiverem sinais alternados com det A1 a11 0 26 Seja X um espaço complexo Além das formas sesquilineares definidas em E são importantes as formas B X X C tais que para quaisquer α C e u1 u2 v1 v2 E i Bαu1 u2 v αBu1 v Bu2 v ii Bu αv1 v2 αBu v1 Bu v2 Essas são as formas bilineares definidas em X Denotaremos por BX o conjunto das formas bilineares2 em X Uma forma bilinear é simétrica se Bu v Bv u e antisimétrica se Bu v Bv u para quaisquer u v X Verifique as seguintes afirmações a Seja B x1 xn uma base de X Então existe um isomorfismo entre o espaço BX e o espaço MnnC 2Como o estrutura bilinear não está em acordo com uma estrutura de produto interno num espaço complexo não consideramos aqui espaços euclidianos i i ALinear 20051219 1325 page 201 217 i i i i i i 10 Teoria Espectral Euclidiana Alguns dos resultados mais importantes da Álgebra Linear em espaços euclidianos serão vistos neste Capítulo a diagonalização de operadores auto adjuntos e normais e as decomposições polar e em valores singulares de um operador 101 Operadores autoadjuntos Lema 101 Sejam E um espaço euclidiano e H E E um operador auto adjunto Então i H possui apenas autovalores reais ii autovetores correspondentes a autovalores distintos são ortogonais Demonstração Considerando a complexificação de H podemos supor que E seja um espaço complexo Seja x um autovetor associado ao autovalor λ de H Então λx x λx x Hx x x Hx x λx λx x de modo que λ λx x 0 Isso mostra que λ λ e prova i Sejam x y autovetores associados aos autovalores distintos λ µ R Então λx y Hx y x Hy x µy µx y de modo que λ µx y 0 Como λ µ isso implica x y completando a prova 2 201 i i ALinear 20051219 1325 page 202 218 i i i i i i 202 Teoria Espectral Euclidiana Cap 10 Teorema 102 Espectral dos Operadores Autoadjuntos Sejam E um espaço euclidiano complexo e H E E um operador hermitiano isto é autoadjunto Então os autovetores de H formam uma base ortogonal de E Demonstração De acordo com o Teorema Espectral 731 os autovetores generalizados de H geram o espaço E Para mostrarmos o afirmado precisamos mostrar que E possui uma base formada por autênticos autovetores de H De fato nesse caso podemos aplicar o processo de ortogonalização de GramSchmidt e obter bases ortogonais para os subespaços invariantes associados a cada autovalor Em virtude do Lema 101 esses espaços são ortogonais de modo que teremos uma base ortogonal formada por autovetores de H Assim como conseqüência do Teorema 57 H será representado nessa base por uma matriz diagonal Suponhamos que x seja um autovetor generalizado de H associado ao autovalor λ Então H λIdx 0 para algum d N Queremos mostrar que H λIx 0 Suponhamos inicialmente que d 2 Então tomando o produto interno com x obtemos 0 H λI2x x H λIx H λIx H λIx2 Mas isso implica que H λIx 0 como desejado2 Se d 2 reescrevemos H λIdx 0 como H λI2H λId2x 0 Definindo w H λId2x podemos concluir que H λIw 0 ou seja H λId1x 0 Por indução chegamos ao resultado desejado 2 O próximo resultado é apenas uma reformulação do Teorema 102 em termos de matrizes De fato normalizando a base ortogonal dada pelo Teorema 102 obtemos então uma matriz cujas colunas formam uma base ortonormal Veja o Exercício 26 do Capítulo 8 Teorema 103 Seja H uma matriz complexa autoadjunta Então existem uma matriz unitária U e uma matriz diagonal D tais que U HU D A versão do Teorema 102 para operadores simétricos é a seguinte 1Veja a página 204 para uma prova alternativa do Teorema 102 sem a utilização de resultados do Capítulo 7 2Considerando a forma canônica de Jordan esse resultado já implica b i i ALinear 20051219 1325 page 204 220 i i i i i i 204 Teoria Espectral Euclidiana Cap 10 Demonstração alternativa dos Teoremas 102 e 104 Seja H E E um operador autoadjunto no espaço euclidiano real ou complexo E Faremos a demonstração por indução na dimensão do espaço E o caso dim E 1 sendo trivial Suponhamos o resultado válido para espaços de dimensão n 1 e considere um espaço E de dimensão n Seja λ um autovalor de H que sabemos ser real e x um autovetor correspondente Considere a decomposição E x x De acordo com a Proposição 831 W x é invariante por H Como a restrição de H ao subespaço n 1dimensional W é um operador autoadjunto veja o Exercício 29 do Capítulo 8 o resultado está demonstrado 2 Uma conseqüência importante dos Teoremas 102 e 104 diz respeito a operadores autoadjuntos que comutam Proposição 106 Diagonalização simultânea de operadores autoadjuntos Sejam H K E E operadores autoadjuntos Então HK KH se e somente se os autoespaços de H forem invariantes por K Nesse caso existe uma base ortonormal de E formada por elementos que são ao mesmo tempo autovetores de K e H Demonstração Suponhamos que os operadores comutem Seja E Eλ1 Eλj a decomposição de E em termos dos autoespaços Eλi associados aos autovalores distintos λ1 λj de H Assim se w Eλi então Hw λiw Logo HKw KHw λiKw mostrando que Kw Eλi Consideramos então o operador autoadjunto justifique K Eλi Eλi e aplicamos o Teorema 102 ou o Teorema 104 Obtemos então uma base de Eλi formada por autovetores de K Como todo elemento de Eλi é um autovetor de H obtivemos assim uma base ortogonal desse espaço formada por autovetores tanto de K quanto de H Aplicamos então esse processo a cada autoespaço Eλi Reciprocamente acabamos de mostrar que H e K são simultaneamente diagonalizáveis Como as representações diagonais desses operadores comutam com relação a uma base ortonormal formada por autovetores de H e K o mesmo acontece com esses operadores 2 Note que o resultado anterior pode ser generalizado para qualquer número de aplicações autoadjuntas que comutem duas a duas i i ALinear 20051219 1325 page 206 222 i i i i i i 206 Teoria Espectral Euclidiana Cap 10 Teorema 1010 Unicidade da Raiz Quadrada Sejam E um espaço euclidiano e H E E um operador autoadjunto e positivo semidefinido Então H possui uma única raiz quadrada positiva semidefinida P E E Demonstração Consideremos a decomposição de E como soma direta ortogonal de autoespaços de H E Eλ1 Eλk em que λ1 λk são os autovalores distintos de H Se x x1 xk Eλ1 Eλk então Hx λ1x1 λkxk Definimos Px λ1x1 λkxk Claramente P 2x Hx mostrando que P é uma raiz quadrada de H O Lema 109 garante que P é positivo semidefinido Note que definimos diretamente a raiz quadrada de T sem apelar para os resultados de 644 O Exercício 15 pede que você faça isso usando o cálculo funcional Para mostrarmos a unicidade notamos inicialmente que toda raiz quadrada Q de H comuta com H QH QQ2 Q2Q HQ Assim cada autoespaço de H é invariante por Q pelo Teorema 106 e o Teorema da Imagem do Espectro 71 garante que o único autovalor de Q em cada autoespaço Eλi é λi Estamos usando apenas a versão polinomial daquele Teorema Assim Q coincide com P em cada subespaço Eλi e por conseguinte no espaço inteiro E 2 Demonstração alternativa do Teorema 1010 De acordo com o Teorema 106 se Q também satisfizer Q2 H então Q e H são simultaneamente diagonalizáveis por base ortonormal formada por autovetores de H como vimos no início da demonstração anterior Nessa base se λ1 λn forem os autovalores de H H λ1 0 0 0 λ2 0 0 0 λn e Q µ1 0 0 0 µ2 0 0 0 µn Como Q2 H devemos ter µi λi O mesmo argumento se aplica a P Assim os autovalores de P e Q coincidem Como os autoespaços de H são invariantes tanto por P quanto por Q seguese daí que Q P 2 102 Princípios de Minimax para os Autovalores Esta Seção pode ser omitida sem prejuízo para o restante do texto Ela apresenta ainda um outro método para se provar os Teoremas 102 e 104 que i i ALinear 20051219 1325 page 209 225 i i i i i i 103 Operadores Normais 209 Teorema 1012 Seja A E E um operador antiautoadjunto no espaço euclidiano complexo E Então i os autovalores de A são iguais a zero ou imaginários puros ii existe uma base ortonormal de E consistindo de autovetores de A Demonstração Considere uma base ortonormal x1 xn formada por autovetores de iA associados aos autovalores λ1 λn Então iAxj λjxj com λj R Se λj 0 então Axj iλjxj mostrando que A tem os mesmos autovetores de iA e que a cada autovalor λj nãonulo de iA está associado o autovalor imaginário iλj de A 2 Agora mostramos a teoria espectral de operadores normais em espaços euclidianos complexos Teorema 1013 Um operador linear N E E definido no espaço euclidiano complexo E possui uma base ortonormal consistindo de autovetores se e somente se for normal Demonstração Suponhamos que N seja normal Uma vez que N e N comutam o mesmo acontece com H N N 2 e A N N 2 Os operadores H e N são autoadjunto e antiautoadjunto respectivamente Aplicamos então o Teorema 102 e a Proposição 106 aos operadores H e iA existe uma base ortonormal formada por autovetores tanto de H quanto de iA e assim por autovetores tanto de H quanto de A Como N H A vemos que essa base é formada por autovetores de N Note que segundo os Teoremas 102 e 1012 se Hv av e Av ibv com a b R então Nv Hv Av a biv i i ALinear 20051219 1325 page 210 226 i i i i i i 210 Teoria Espectral Euclidiana Cap 10 Suponhamos agora a existência de uma base ortonormal B consistindo de autovetores de N Se N for representado nessa base por NB λ1 0 0 0 λ2 0 0 0 λn então N é representado nessa base por N B λ1 0 0 0 λ2 0 0 0 λn Como essas matrizes são diagonais elas comutam Mas isso implica que N e N comutam 2 Note que em particular mostramos que autovetores associados a autovalores distintos de um operador normal são ortogonais Uma demonstração alternativa do Teorema 1013 é sugerida nos exercícios deste Capítulo Aplicando o Teorema 1013 obtemos Teorema 1014 Seja U E E uma aplicação unitária definida no espaço euclidiano complexo E Então i Existe uma base ortonormal formada por autovetores de U ii Os autovalores de U tem valor absoluto igual a 1 Demonstração Como U U I U tem inversa U 1 U Isso implica que U é normal possuindo assim uma base ortonormal formada por seus autovetores Se λ for um autovetor de U associado ao autovalor v então Uv λv λ v Como U é isométrica λ 1 2 Teorema 1015 Resolução Espectral dos Operadores Normais Sejam E um espaço euclidiano complexo e N E E um operador normal com autovalores distintos λ1 λk Seja Eλj o autoespaço associado i i ALinear 20051219 1325 page 222 238 i i i i i i 222 Teoria Espectral Euclidiana Cap 10 106 Exercícios 1 O Teorema 914 mostra que toda matriz simétrica é congruente a uma matriz diagonal Dada a equivalência entre os Teoremas 911 e 914 podemos concluir que a Lei da Inércia é uma afirmação sobre matrizes simétricas Ela garante que no Teorema 914 o número de termos positivos negativos e nulos na matriz diagonal D independe da mudança de variável utilizada Por outro lado sabemos que se D for a diagonalização da matriz A então os elementos diagonais de D são os autovalores de A Mas sabemos que os autovalores de A independem da base na qual a matriz é representada Isso não implica a Lei da Inércia 2 Considere a matriz simétrica A 4 2 2 2 4 2 2 2 4 Ache uma matriz ortogonal isto é P t P 1 e uma matriz diagonal D tais que P 1AP D 3 Sejam E um espaço euclidiano e T E E uma isometria Se λ for um autovalor de T mostre que λ 1 4 Sejam E um espaço euclidiano complexo e λ um autovalor do operador normal T E E Mostre que todo autovetor de T é autovetor de T correspondente ao autovalor λ Conclua então que autovetores associados a autovalores distintos de um operador normal são sempre ortogonais 5 Seja E um espaço euclidiano complexo Sejam S T E E operadores lineares com ST TS Mostre que ST tem um autovetor em comum 6 Sejam N E E um operador normal no espaço euclidiano complexo E Mostre que se x for um autovetor de N então W x é invariante por N e N 7 Mostre por indução que todo operador normal N E E definido em um espaço euclidiano complexo E possui uma base ortonormal formada por autovetores i i ALinear 20051219 1325 page 223 239 i i i i i i 106 Exercícios 223 8 Considere uma base ortonormal x1 xn formada por autovetores do operador normal N E E definido no espaço euclidiano E Mostre que NN xi N Nxi e conclua que N é normal 9 Sejam R S T E E operadores autoadjuntos definidos no espaço euclidiano E Suponha que RT TR ST TS e que em cada auto espaço de T tanto R quanto S tenham um único autovalor Mostre que R possui uma base ortonormal formada por elementos que são autovetores das três aplicações 10 Seja T E F uma aplicação linear entre espaços euclidianos Qual a relação entre os autovalores de T T e os de TT 11 Seja T E E um operador linear definido no espaço real E Mostre que existe uma base ortonormal B na qual TB é diagonal se e somente se T for autoadjunto 12 Seja T E F uma aplicação linear entre os espaços euclidianos E e F Mostre a se T for injetora então T T possui inversa b im T im T T e im T im TT c se T for sobrejetora então TT possui inversa 13 Mostre que um operador T é positivo definido se e somente se T 0 e T for invertível 14 Mostre que são equivalentes as seguintes condições sobre um operador P E E definido num espaço euclidiano E a P T 2 para algum operador autoadjunto T b P SS para algum operador S c P é positivo semidefinido 15 Com a notação do Teorema 1010 mostre utilizando o cálculo funcional que P H é positiva semidefinida i i ALinear 20051219 1325 page 226 242 i i i i i i 226 Teoria Espectral Euclidiana Cap 10 34 Com a notação do Exercício 33 sejam S e T operadores normais Mostre que os operadores S e T são unitariamente equivalentes se e somente se tiverem o mesmo polinômio mínimo Conclua que dois operadores normais semelhantes são sempre unitariamente equivalentes 35 Sejam A B MnnR matrizes unitariamente equivalentes Mostre que A e B são ortogonalmente equivalentes isto é existe uma matriz ortogonal P MnnR tal que P AP P tAP B 36 Diagonalização simultânea de duas formas quadráticas Em geral não é possível encontrar uma mudança de variável Qx z que diagonalize simultaneamente as formas quadráticas simétricas q1x e q2x Dê um exemplo em que essa diagonalização é impossível Por outro lado se q1 for uma forma quadrática hermitiana simétrica positiva definida e q2 uma forma quadrática hermitiana simétrica então é possível diagonalizálas simultaneamente Mais precisamente sejam H K matrizes hermitianas H sendo positiva definida Mostre que existe uma matriz Q tal que QHQ I e QKQ é diagonal i i ALinear 20051219 1325 page 227 243 i i i i i i 11 Decomposições Matriciais Neste Capítulo estudaremos as decomposições matriciais de Cholesky Schur e QR Os resultados que apresentaremos são bastante úteis na Álgebra Linear Numérica 111 A Decomposição de Cholesky Como vimos no Lema 109 um operador autoadjunto é positivo definido se e somente se todos os seus autovalores forem positivos Lema 111 Seja A uma matriz n n simétrica positiva definida Então cada uma das submatrizes principais Ar é positiva definida e portanto det Ar 0 para 1 r n Demonstração Seja x x1 xr Rr um vetor nãonulo arbitrário e defina x x1 xr 0 0 Rn Como x Arx x Ax e A é positiva definida o resultado seguese daí 2 Note que o Lema 111 combinado com a Proposição A4 garante que uma matriz positiva definida A possui decomposição LU obtida mediante a sucessiva aplicação da operação elementar do tipo c à matriz A Em particular A possui uma fatoração LDU a matriz diagonal D dii tendo seus elementos diagonais positivos Mas como a matriz A é simétrica temos LDU A At U tDLt 227 i i ALinear 20051219 1325 page 228 244 i i i i i i 228 Decomposições Matriciais Cap 11 Pela Proposição A3 temos Lt U de modo que A LDLt Definindo D12 como a matriz D12 d11 0 0 0 d22 0 0 0 dnn Mas então A LDLt LD12D12Lt L1L2 a matriz L1 sendo triangular inferior e a matriz L2 sendo triangular superior Como A At seguese daí que L2 Lt 1 mostrando que A LLt chamada decomposição de Cholesky da matriz A Assim uma matriz n n positiva definida tem duas decomposições a decomposição A LDU e a decomposição de Cholesky A L1Lt 1 Já vimos que L1 LD12 o que nos mostra como obter a decomposição de Cholesky da matriz A O próximo resultado caracteriza as matrizes positivas definidas e apresenta um resumo dos resultados obtidos nesta seção Proposição 112 Seja A uma matriz simétrica n n As seguintes afirmações são equivalentes i A é positiva definida ii As submatrizes principais A1 An têm determinante positivo iii A matriz A tem uma decomposição LDU com os elementos diagonais da matriz diagonal D todos positivos iv A tem uma decomposição de Cholesky A LLt sendo L uma matriz triangular inferior com elementos diagonais positivos Demonstração Já vimos as implicações i ii iii iv Seja agora x Rn um vetor nãonulo arbitrário e y Ltx Como a matriz Lt possui inversa y 0 Assim x Ax xtLLtx xtLLtx yty y2 0 Isso mostra que iv i 2 i i ALinear 20051219 1325 page 229 245 i i i i i i 112 A Decomposição de Schur 229 112 A Decomposição de Schur Seja A uma matriz n n no corpo C Teorema 113 Schur Existe uma matriz unitária U tal que T U AU é triangular superior Demonstração Faremos indução em n o resultado sendo óbvio para n 1 Suponhamos válido para uma matriz k k qualquer e consideremos A matriz k 1 k 1 Seja w1 um autovetor unitário associado ao autovalor λ1 de A O processo de ortogonalização de GramSchmidt assegura a existência de uma base ortonormal w1 w2 wk1 para Ck1 A matriz R cuja iésima coluna é o vetor wi é unitária Consideremos então RAR RAR A primeira coluna dessa matriz é RAw1 Mas RAw1 λ1Rw1 λ1e1 pois as linhas de R são dadas pelos vetores w1 wk1 Assim a matriz RAR tem a forma λ1 0 S 0 em que S é uma matriz k k Pela hipótese de indução existe uma matriz unitária V1 tal que T1 V 1 SV1 é uma matriz triangular superior Definimos então V 1 0 0 0 V1 0 Claramente V é unitária e V RARV 1 0 0 0 V 1 0 λ1 0 S 0 1 0 0 0 V1 0 λ1 0 V 1 SV1 0 λ1 0 T1 0 T i i ALinear 20051219 1325 page 230 246 i i i i i i 230 Decomposições Matriciais Cap 11 uma matriz triangular superior Definimos então U RV A matriz U é unitária pois U U RV RV V RRV I Isso completa a demonstração 2 A demonstração apresentada continua válida se A for uma matriz real cujos autovalores estão no corpo R Uma prova alternativa do Teorema de Schur é indicada no Exercício 2 Note que o teorema pode também ser formulado para aplicações lineares ao invés de matrizes Apresentamos como conseqüência mais uma prova dos Teoremas 102 e 104 Corolário 114 Se A for uma matriz autoadjunta então existe uma matriz unitária U tal que U AU D sendo D uma matriz diagonal Se A for uma matriz real a matriz U é ortogonal Demonstração Seja A hermitiana De acordo com o Teorema de Schur 113 existe uma matriz unitária U tal que U AU T sendo T uma matriz triangular superior Mas T U AU U AU U AU T de acordo com a Proposição 830 Isso mostra que T é autoadjunta e portanto uma matriz diagonal Se A for real todos os autovalores de A são reais e portanto também seus autovetores Isso implica que a matriz U é ortogonal 2 113 A Decomposição QR O processo de ortogonalização de GramSchmidt pode ser interpretado como uma decomposição de uma matriz cujas colunas são linearmente independentes Teorema 115 A decomposição QR de uma base Seja A uma matriz m n de posto n Então A QR em que Q é uma matriz m n com colunas ortonormais e R é uma matriz n n triangular superior com elementos diagonais positivos i i ALinear 20051219 1325 page 233 249 i i i i i i 113 A Decomposição QR 233 R rij como sendo a matriz n r triangular superior dada por rij ui qj Uma vez que Q é uma isometria temos Ax QRx Rx de modo que ker A ker R Assim uma vez que A e R têm n colunas posto R n ker R n ker A r posto A Condensamos os nossos resultados no seguinte teorema Teorema 117 Decomposição QR Seja A uma matriz real m n com posto r Então podemos escrever A QR sendo Q a matriz n r de uma isometria satisfazendo im A im Q e R é uma matriz triangular superior n r de posto r Exemplo 118 O problema dos quadrados mínimos 3a parte Seja A uma matriz real m n Procuramos o vetor ˆx tal que Aˆx seja a melhor aproximação possível para o vetor b O vetor ˆx que melhor aproxima o vetor b deve ser a projeção ortogonal de b no espaço im A justifique Vamos resolver esse problema usando a decomposição QR Procuramos portanto um vetor ˆx tal que b QRˆx seja perpendicular à im Q im A Ora sabemos que im Q ker Q Assim o vetor b QRˆx pertence ao núcleo de Q Logo Qb QRˆx 0 Rˆx Qb Uma vez que QR A o vetor QQb é justamente a projeção ortogonal de b em im A Consideremos um exemplo concreto seja a matriz A 1 0 1 0 1 2 1 1 3 v1 v2 v3 A terceira coluna de A é igual a duas vezes a segunda coluna somada à primeira Se aplicarmos o processo de GramSchmidt às colunas v1 v2 e v3 obteremos os vetores q1 1 2 0 1 2t e q2 1 6 2 6 1 6t Assim Q 1 2 1 6 0 2 6 1 2 1 6 i i ALinear 20051219 1325 page 236 252 i i i i i i A Matrizes Elementares e a Decomposição LU Seja A MmnK Vamos mostrar como o escalonamento de uma matriz pode ser interpretado em termos de uma decomposição da matriz A Uma matriz E é elementar se puder ser obtida da matriz identidade m m por meio da aplicação de uma operação elementar O próximo resultado mostra que a aplicação de uma operação elementar sobre as linhas da matriz A é equivalente à multiplicação desse matriz por uma matriz elementar Proposição A1 Seja e uma operação elementar sobre as linhas de a matriz A MmnK e E a matriz elementar eI sendo I a matriz identidade m m Então eA EA Demonstração A demonstração deve ser feita para todos os tipos de operação elementar Consideraremos apenas a aplicação de uma operação elementar c a linha j será substituída pela soma da linha j com λ vezes a linha i A matriz E nesse caso é dada por E 1 0 0 0 λ 1 0 0 0 1 linha j coluna j 236 i i ALinear 20051219 1325 page 237 253 i i i i i i 237 Então EA 1 0 0 0 λ 1 0 0 0 1 a11 a12 a1n aj1 aj2 ajn am1 am2 amn a11 a12 a1n aj1 λai1 aj2 λai2 ajn λain am1 am2 amn que é justamente eA 2 Consideremos o processo de escalonamento de uma matriz A e suponhamos que E seja uma matriz elementar obtida por meio da operação elementar b ou c É fácil verificar que tanto a matriz E como sua inversa que existe são matrizes triangulares inferiores veja o Exercício 2 Tendo em vista a Proposição A1 dada uma matriz A MmnK obtemos uma forma escalonada da matriz A ao multiplicála por matrizes elementares EkEk1 E2E1 Quer dizer EkEk1 E2E1A U em que U uij tem todos os seus elementos abaixo da diagonal uii iguais a zero Suponhamos que nesse processo de levar a matriz A a sua forma escalonada a operação elementar a não tenha sido utilizada Uma vez que a matriz EkEk1 E2E1 tem inversa e sua inversa é uma matriz triangular inferior veja o Exercício 3 obtemos que A LU em que a matriz L é triangular inferior e a matriz U uij é triangular superior significando que uij 0 se i j Essa é a decomposição LU da matriz A MmnK A decomposição A LU quando possível é usualmente feita para matrizes quadradas A Nesse caso a matriz U é uma autêntica matriz triangular superior i i ALinear 20051219 1325 page 239 255 i i i i i i 239 pivôs De acordo com a Observação A2 isso implica que na decomposição LU da matriz A os elementos diagonais da matriz m m L são todos iguais a 1 enquanto os elementos diagonais da matriz U são justamente os pivôs Podemos então escrever a matriz A numa forma mais simétrica se U u11 u12 u1n 0 u22 u2n 0 0 unn 0 0 0 0 0 0 com uii 0 então podemos decompor U DU DU u11 0 0 0 0 0 u22 0 0 0 0 0 unn 0 0 0 0 0 0 0 0 0 0 0 0 1 u12u11 u1nu11 0 1 u2nu22 0 0 1 0 0 0 0 0 0 em que D é uma matriz m m e U uma matriz m n com elementos diagonais iguais a 1 Temos assim A LDU É usual escrever A LDU chamada decomposição LDU da matriz A Proposição A3 Seja A uma matriz m n Se A LU e A LU com L L matrizes m m triangulares inferiores com elementos diagonais iguais a 1 e U U matrizes triangulares superiores com elementos diagonais nãonulos então L L e U U Em particular a decomposição LDU de uma matriz é única Demonstração Como a matriz L possui inversa temos U L1LU A matriz quadrada L1L é triangular inferior e tem elementos diagonais iguais a 1 Vamos mostrar que L1L R rij é a matriz identidade Temos ri1 0 se i 1 o que pode ser comprovado multiplicando a linha i de R pela primeira coluna de U i i ALinear 20051219 1325 page 241 257 i i i i i i A1 Exercícios 241 a matriz A na forma LU Entretanto podemos considerar as matrizes elementares que fazem as transposições de linhas necessárias para o escalonamento da matriz A Cada matriz dessas é ortogonal Consideremos a matriz P produto de todas essas matrizes A matriz P é uma matriz de permutação como produto de transposições Consideremos então a matriz PA Com essa permutação das linhas de A é possível levar a matriz A a uma forma triangular superior por meio unicamente da operação elementar c Veja o Exercício 6 Assim para a matriz PA vale PA LU Como a matriz P é ortogonal temos então A P tLU A1 Exercícios 1 Demonstre a Proposição A1 com relação às operações elementares a e b 2 Mostre que toda matriz elementar tem inversa e que essa inversa é uma matriz elementar Mostre que uma matriz elementar surgida no processo de escalonamento da matriz A é uma matriz triangular inferior 3 Mostre que o produto de matrizes triangulares inferiores respectivamente superiores é uma matriz triangular inferior resp superior 4 Justifique o algoritmo usualmente utilizado para se obter a inversa de uma matriz 5 Dê um exemplo mostrando que é possível ter A LU LU com L L matrizes triangulares inferiores com elementos diagonais todos iguais a 1 e U U matrizes triangulares superiores Compare com a Proposição A3 6 Considere uma matriz A que não tenha decomposição LU Seja P o produto de todas as transposições necessárias para tornar possível o escalonamento de A Mostre que PA tem uma decomposição LU i i ALinear 20051219 1325 page 242 258 i i i i i i B Funções de Matrizes Comparando Definições Funções de matrizes são usualmente definidas em duas situações ou a função f é suave nos autovalores da matriz diagonalizável A P 1DP com D diagonal e fA é definida por P 1fDP sendo fD obtida ao se aplicar f em cada uma das entradas diagonais de D ou a função f é analítica e fA é definida por meio de uma expansão em série de potências de f Em ambos os casos a função f é euclidiana com relação a m Nosso objetivo neste Apêndice é mostrar que o método do cálculo funcional coincide com a definição usualmente empregada em livros tradicionais de Álgebra Linear Por razões de simplicidade mostraremos primeiro que a definição no caso de uma matriz diagonalizável isto é fA P 1fDP como descrito anteriormente coincide com a Definição 66 Contudo esse caso está completamente englobado por aquele de uma matriz na forma de Jordan que será averiguado em seguida Começamos pelo seguinte resultado auxiliar que mostra como se aplica o cálculo funcional para uma matriz diagonal em blocos Lema B1 Seja f uma função euclidiana com relação à matriz n n em blocos A A1 0 0 0 A2 0 0 0 Aℓ 242 i i ALinear 20051219 1325 page 243 259 i i i i i i 243 Então fA fA1 0 0 0 fA2 0 0 0 fAℓ Demonstração Seja r a0 a1z a2z2 amzm o polinômio interpolador procurado Claramente vale fA a0I a1 A1 0 0 0 A2 0 0 0 Aℓ a2 A2 1 0 0 0 A2 2 0 0 0 A2 ℓ am Am 1 0 0 0 Am 2 0 0 0 Am ℓ rA1 0 0 0 rA2 0 0 0 rAℓ Assim o resultado estará provado se tivermos fAj rAj Para j 1 ℓ sejam m e mj os polinômios mínimos de A e Aj respectivamente Como mA 0 necessariamente cada bloco Aj é anulado por m Pelo Lema 514 temos que m é um múltiplo de mj Como vimos antes da observação 68 isso implica que fAj rAj 2 Consideremos então o caso de uma matriz diagonalizável A Seja portanto f uma função definida nos autovalores da matriz A P 1DP sendo D matriz diagonal A definição usual de fA é P 1fDP De acordo com o Lema B1 para calcularmos fD segundo a Definição 66 basta calcularmos f em cada um dos n blocos diagonais D1 λ1 Dn λn i i ALinear 20051219 1325 page 244 260 i i i i i i 244 Funções de Matrizes Comparando Definições Cap B da matriz D Como o polinômio mínimo do bloco Dj é mj z λj temos que fDj rDj fλj Logo fD rD fλ1 0 0 0 fλ2 0 0 0 fλn Mas então rA rP 1DP P 1rDP P 1fDP mostrando que as duas definições coincidem Consideremos agora o caso geral escrevemos A P 1JP em que a matriz J está na forma canônica de Jordan É usual definir fA P 1fJP Em alguns textos de Álgebra Linear apenas o caso de fz ezt é analisado Recordamos alguns fatos básicos sobre a forma canônica de Jordan Como sabemos uma matriz n n complexa ou uma que possua n autovalores não necessariamente distintos no corpo K está na forma canônica de Jordan se ela for diagonal em blocos J Jλ1 0 0 0 J2 0 0 0 Jλk sendo que os blocos Jλi possuem a forma Jλi λi 1 0 0 0 λi 1 0 0 0 λi 1 0 0 0 λi Estamos denotando por λi um dos autovalores da matriz A Ao mesmo autovalor λi podem estar associados diferentes blocos Jλi Sabemos que existe pelo menos um bloco di di sendo di a multiplicidade algébrica do autovalor λi isto é a multiplicidade de λi como fator do polinômio característico de A Se J for uma matriz na forma canônica de Jordan consideremos um bloco Jλ de tamanho k k com k d sendo d a multiplicidade algébrica do autovalor λ i i ALinear 20051219 1325 page 245 261 i i i i i i 245 Suponhamos inicialmente que k d Nesse caso como z λk é o polinômio mínimo e característico do bloco a função fJi é dada por um polinômio de grau no máximo igual a k 1 de acordo com a Definição 66 rz ak1z λk1 a1z λ a0 Os coeficientes ai são obtidos pela relações f iλ riλ A regra da cadeia garante que riλ ai Assim fJλ fλI f λJλ λI f k1λ k 1 Jλ λIk1 fλ fλ 1 fλ 2 fk1λ k1 0 fλ fλ 1 0 0 0 fλ fλ 1 0 0 0 fλ B1 Comparando essa expressão obtida por meio da Definição 66 com a definição de função de matriz na forma de Jordan1 vemos que elas coincidem No caso de blocos kk com 1 k d basta então notarmos que o polinômio procurado sempre deverá ter grau k 1 pois o polinômio mínimo do bloco que coincide com o polinômio característico tem grau k Assim a expressão obtida continua válida para qualquer bloco k k Para passarmos dos blocos para a matriz na forma canônica de Jordan basta empregarmos o Lema B1 1Em 32 o fluxo eJt de uma matriz J na forma canônica de Jordan é explicitamente calculado Trocandose a função exp zt por uma função f suficientemente suave obtemos então uma expressão idêntica à equação B1 Veja a esse respeito 29 i i ALinear 20051219 1325 page 246 262 i i i i i i C Decomposição Primária O objetivo deste Apêndice é apresentar uma demonstração tradicional do Teorema da Decomposição Primária Dizemos que dois polinômios p q Kt são primos entre si se o único polinômio mônico que dividir tanto p quanto q for o polinômio 1 Lema C1 Sejam p q Kt Se p e q forem primos entre si então existem polinômios a b Kt tais que ap bq 1 Demonstração Seja I o conjunto de todos os polinômios da forma ap bq com a b Kt Como I possui elemento nãonulo existe em I um polinômio nãonulo de menor grau que chamaremos d ap bq Afirmamos que d divide tanto p quanto q De fato se d não dividisse p por exemplo teríamos p md r em que o grau de r é menor do que o grau de d Como p e d estão em I r p md I o que contradiz a escolha de d Logo r 0 mostrando o afirmado Como p e q são primos entre si d tem grau zero isto é d é uma constante digamos k Como k 0 escolhendo a ak e b bk temos ap bq 1 2 Corolário C2 Sejam p1 pk pk1 Kt polinômios primos entre si dois a dois Então p2 pkpk1 e p1 são primos entre si 246 i i ALinear 20051219 1325 page 247 263 i i i i i i 247 Demonstração Isso se prova por indução em k Se k 1 nada há a provar Suponhamos verdadeiro para k j e seja d um polinômio mônico que divide p1 e p2 pjpj1 Como p1 e pj1 são primos entre si existem polinômios a e b tais que ap1 bpj1 1 Multiplicando por p2 pj obtemos ap1p2 pj bp2 pjpj1 p2 pj Como d divide tanto p1 quanto p2 pjpj1 vemos que d divide p2 pj Mas então a hipótese de indução garante que d 1 provando o afirmado 2 Lema C3 Sejam p q Kt primos entre si e 0 A MnnK Sejam Np Nq e Npq os núcleos das matrizes pA qA e pAqA respectivamente Então Npq Np Nq Demonstração Como existem polinômios a b Kt tais que bq ap 1 temos que bAqA aApA I Se x Npq então bAqAx Np De fato aplicando pA a esse ponto temos pAbAqAx bApAqAx 0 dada a comutatividade de polinômios da matriz A Da mesma forma temos aApAx Nq se x Npq Como bAqAx aApAx x mostramos que x xp xq com xp Np e xq Nq Para mostrar que essa decomposição é única suponhamos que x xp xq xp xq Mas então y xp xp xq xq pertence simultaneamente a Np e Nq Aplicando bAqA aApA I em y temos bAqAy aApAy y Mas bAqAy 0 aApAy de modo que y 0 o que implica x xp e xq xq mostrando a unicidade da decomposição 2 Por indução obtemos então o Corolário C4 Seja 0 A MnnK Se p1 p2 pk são polinômios em Kt primos entre si dois a dois se Npi denota o núcleo de piA e Np1pk o núcleo de p1A pkA então Np1pk Np1 Npk i i ALinear 20051219 1325 page 248 264 i i i i i i 248 Decomposição Primária Cap C Definição C5 Seja p Kt o polinômio característico da aplicação linear T X X em que X é um espaço vetorial de dimensão finita n Suponhamos que pt p1ts1 pjtsj seja a decomposição de p em fatores irredutíveis com pi pk para i k Definimos para i 1 j o autoespaço generalizado associado ao polinômio pi como o conjunto de todos os vetores v X para os quais existe um inteiro positivo k tal que piTkv 0 No caso em que pit tλi sendo λi um autovalor de T os elementos nãonulos do autoespaço generalizado são os autovetores generalizados de T associados ao autovalor λi Para k N seja Nkpi o núcleo de piTk Claramente temos que N1pi N2pi Como Nkpi é um subespaço do espaço de dimensão finita X para todo k N esses subespaços precisam ser todos iguais a partir de certo índice k N Seja di dpi o menor inteiro positivo com tal propriedade isto é Ndipi Ndi1pi mas Ndi1pi Ndipi O inteiro positivo di é o índice de piT Lema C6 Os subespaços Nkpi são invariantes pelo operador T para todo k N Se Wi kerpiTdi então o polinômio mínimo de T restrito a Wi é piTdi Demonstração Seja w Nkpi kerpiTk Então piTkTw TpiTkw 0 mostrando que Tw Nkpi A afirmação sobre o polinômio mínimo decorre da definição de di 2 Teorema C7 Decomposição Primária Seja T X X uma aplicação linear e p Kt seu polinômio característico Se pt p1ts1 pjtsj i i ALinear 20051219 1325 page 249 265 i i i i i i 249 for a decomposição de pt em fatores irredutíveis com pi pk para i k então se di for o índice de piT o polinômio mínimo de T é mt p1td1 pjtdj em que 0 di si para i 1 j Em outras palavras o polinômio mínimo possui todos os fatores irredutíveis do polinômio característico de T Além disso X W1 Wj em que Wi kerpiTdi com TWi Wi Demonstração Seja m Kt o polinômio mínimo de T De acordo com o Teorema de CayleyHamilton 522 e o Lema 514 os únicos fatores irredutíveis presentes na decomposição de m são fatores irredutíveis de p Incluindo fatores irredutíveis pit0 do polinômio característico p que eventualmente estejam ausentes na decomposição de m podemos escrever mt m1t mjt com mit pitri e ri 0 para i 1 j Vamos mostrar que ri di 0 para todo i 1 j Como mT 0 vemos que todo vetor v X pertence ao núcleo de mT m1T mjT Como os polinômios m1t p1tr1 mjt pjtrj são primos entre si dois a dois podemos aplicar o Corolário C4 e concluir que X Nm1mj Nm1 Nmj C1 Consideremos agora qit pitdi Pela definição de di se 0 ri di então Nmi Nqi Wi e X Nm1mj Nq1qk Assim pelo Corolário C4 X Nq1 Nqj W1 Wj C2 Se ri di ainda temos Nmi Nqi pois a definição de di garante que Nqi Nmi Em outras palavras a decomposição C2 sempre é válida e tendo em conta o Lema C6 provamos a decomposição afirmada no enunciado do teorema Vamos agora provar que ri di Denotando Ti TWi temos que qiTi 0 pela definição de Wi Assim q1 qjT 0 e como mt é o polinômio mínimo de T mt divide q1t qjt e portanto ri di Mas a definição de di garante a existência de x Wi tal que x piTri para ri di Como Nmi Nqi isso contradiz a existência das decomposições C1 e C2 Logo ri di 2 i i ALinear 20051219 1325 page 250 266 i i i i i i 250 Decomposição Primária Cap C Proposição C8 Com a notação do Teorema C7 o subespaço Wi kerpiTdi tem dimensão igual ao grau de pitsi em que si é a multiplicidade de pi como fator irredutível do polinômio característico pt Demonstração Como o polinômio característico de uma matriz n n tem grau n basta mostrar que o polinômio característico de T restrito a Wi é justamente pitsi Seja Bi uma base de Wi Como X W1 Wj a representação de T na base B formada pelos vetores de cada base Bi é TB A A1 0 0 0 A2 0 0 0 Aj em que Ai é um bloco de tamanho ki ki em que ki é a dimensão de Wi Assim dettI A dettI A1 dettI Aj C3 Observe que dettI Ai é o polinômio característico de Ti a restrição de T ao subespaço Wi Como o polinômio mínimo de Ti é pitdi pelo Lema C6 o Teorema da Decomposição Primária C7 garante que o polinômio característico de Ti é uma potência de pit Da igualdade C3 seguese que o polinômio característico de Ti é pitsi 2 Corolário C1 Seja X um espaço de dimensão finita Um operador linear T X X é diagonalizável se e somente se o seu polinômio mínimo for produto de fatores lineares distintos Demonstração Suponhamos que T seja diagonalizável Sejam λ1 λℓ os autovalores distintos de T Então X possui uma base formada por autovetores de T de acordo com o Corolário 56 Considere o polinômio hz z λ1 z λℓ Se v for um autovetor de T associado ao autovalor λi então T λiIv 0 Isso implica que hTv 0 para qualquer autovetor de T Como o Teorema Espectral 73 implica que o polinômio mínimo e característico possuem os mesmos fatores irredutíveis mostramos que h é o polinômio mínimo de T i i ALinear 20051219 1325 page 251 267 i i i i i i 251 Reciprocamente se mz z λ1 z λℓ for o polinômio mínimo de T então o polinômio mínimo de TWi é z λiI Isso quer dizer que Wi kerT λiI Assim todo elemento de Wi é um autovetor de T Tomando bases Bi de cada espaço Wi temos que B B1 Bℓ é uma base de X formada por autovetores de T 2 i i ALinear 20051219 1325 page 252 268 i i i i i i D Forma Canônica de Jordan Neste Apêndice apresentamos uma demonstração direta isto é sem utilizar o Teorema Espectral 73 ou o Teorema da Decomposição Primária da existência e unicidade da forma canônica de Jordan de uma matriz complexa Definição D1 Sejam λ1 λj os autovalores distintos de uma matriz J n n A matriz J está na forma canônica de Jordan se J J1 0 0 0 J2 0 0 0 Jk em que Ji λi 1 0 0 0 λi 1 0 0 0 λi 1 0 0 0 λi Ao autovalor λi está associado pelo menos um bloco Ji às vezes se define Ji com a subdiagonal de 1s situandose abaixo da diagonal principal O bloco Ji pode ser uma matriz 1 1 O bloco Ji é um bloco de Jordan associado ao autovalor λi Note que o polinômio característico da matriz J é da forma pz z λ1s1 z λjsj Assim o número de vezes que o autovalor λi aparece na diagonal de J é justamente a sua multiplicidade como raiz do polinômio característico Seja T X X um operador no espaço X com dim X n Suponhamos que T possa ser representado por uma matriz J na forma canônica de Jordan Isso significa que existe uma base B de X de modo que J TB Consideremos um dos blocos de Jordan Ji e B B a base do espaço invariante associado a esse bloco veja o Exercício 11 do Capítulo 5 252 i i ALinear 20051219 1325 page 253 269 i i i i i i 253 Se B v1 vr então Tv1 λv1 e Tvk vk1 λvk para k 2 r Essa é uma cadeia de Jordan de comprimento r No caso de um bloco 1 1 temos uma cadeia de comprimento 1 associado ao autovetor responsável por aquele bloco O método de Fillipov fornece uma das provas mais diretas da existência de uma base na qual um operador assume a forma canônica de Jordan Faremos essa demonstração adaptando e complementando aquela apresentada em Strang 33 No enunciado do teorema estamos assumindo que X seja um espaço complexo Basta entretanto que o polinômio característico p de T X X tenha todas as suas raízes no corpo K Teorema D2 Jordan Seja T X X um operador no espaço complexo X de dimensão n Então existe uma base de X na qual T é representada por uma matriz na forma canônica de Jordan Essa representação é única a menos de ordenamento dos blocos de Jordan Demonstração Começamos mostrando a existência de uma base na qual o operador T é representado por uma matriz na forma canônica de Jordan Para isso faremos indução em n dim X partindo do fato que se dim X 1 então TB está na forma canônica de Jordan para qualquer base B de X e que essa representação é única Suponhamos então o resultado válido para qualquer operador definido num espaço Y de dimensão menor do que ou igual a n 1 incluindo também a unicidade a menos de ordenamento dos blocos dessa representação Consideremos então um autovalor λ de T e o operador nãoinvertível S T λI Essa passagem acontece para que consideremos uma matriz que não é invertível por motivos que ficarão claros mais abaixo Denotemos U im S Claramente vale SU U Uma vez que ker S 0 temos que r dim U n Se r 0 então dimker S n e T λI está na forma de Jordan Se 1 r n 1 podemos aplicar a nossa hipótese de indução ao operador SU U U Portanto existe uma base B1 u1 ur de U com r vetores pertencentes a cadeias de Jordan cada uma delas iniciada por um autovetor tal que nessa base SU está na forma canônica de Jordan Note que os espectros σS e σSU coincidem Consideremos então um espaço complementar Y de U com relação a X X U Y i i ALinear 20051219 1325 page 254 270 i i i i i i 254 Forma Canônica de Jordan Cap D Seja W Y ker S O subespaço W é formado por todos os autovetores de S correspondentes ao autovalor 0 que não estão em U e tem dimensão k 0 Se k 0 esse espaço não é considerado A escolha de uma base w1 wk para W mantém SUW na forma de Jordan já que os vetores de W contribuem com autovetores de S e portanto com blocos 11 Mais do que isso os vetores de W não dão origem a cadeias de Jordan de comprimento maior do que 1 se existisse v X tal que Sv w para w W então w im S o que é um absurdo Tomemos então V como um complementar de W com relação a Y Y V W Assim estamos considerando uma decomposição X U V W Para mostrarmos o resultado basta verificar que podemos escolher adequadamente uma base de V pois SUW está na forma canônica de Jordan Como dim W k e o Teorema do Núcleo e da Imagem garante que dimker S nr existem exatamente nrk autovetores de S em U associados ao autovalor 0 e portanto n r k cadeias de Jordan em U associadas a esse autovalor Seja uimax o elemento maximal de cada cadeia de Jordan em U associada ao autovalor 0 Como uimax U existe vi X tal que Svi uimax para todo i 1 n r k Note que as cadeias relativas ao autovalor 0 em ker S U aumentaram seu comprimento O conjunto v1 vnrk é um conjunto linearmente independente pois sua imagem por S é o conjunto linearmente independente u1max unrkmax formado por todos os elementos maximais das cadeias de Jordan associadas ao autovalor 0 Afirmamos que os vetores v1 vnrk estão todos em V Como conseqüência os vetores ui da base de U os vetores wi da base de W e os vetores vi escolhidos formam uma base de X Para provar nossa afirmação notamos que vi W para todo i 1 n r k pois os elementos de W são autovetores de T Se fosse vi U para algum i chegaríamos a uma contradição se a base de U fosse formada por uma única cadeia de Jordan teríamos que os r 1 vetores vi uimax u1 U seriam todos linearmente independentes e dim U r por outro lado se existissem distintas cadeias de Jordan em U a eliminação do elemento maximal de outra cadeia de Jordan que não a cadeia formada por uimax u1 e a introdução do vetor vi na cadeia uimax u1 produziria uma forma de Jordan no subespaço U distinta daquela cuja unicidade é garantida pela hipótese de indução Assim provamos que os vetores vi estão no subespaço V para i 1 n r k i i ALinear 20051219 1325 page 255 271 i i i i i i 255 Ao ordenarmos a base B de X assim construída colocamos os vetores vi imediatamente após o respectivo vetor uimax associado ao autovalor 0 Colocamos em seguida todos os vetores wi Assim SB está na forma canônica de Jordan Como SB T λIB TB λI também temos que TB SB λI é uma matriz na forma de Jordan Agora consideremos a unicidade da forma de Jordan de S Já decompusemos o espaço X como X U V W em que ou dim V 1 ou dim W 1 ou ambos Por indução admitimos a unicidade da forma de Jordan em espaços de dimensão até n 1 Se dim W 1 temos por indução a unicidade da forma de Jordan em U V Como os elementos de W não dão origem a cadeias de Jordan de comprimento maior do que 1 temos imediatamente a unicidade a menos de ordenamento dos blocos da forma de Jordan de S Suponhamos então que dim W 0 Quer dizer estamos considerando uma decomposição X U V Por hipótese de indução temos a unicidade da forma de Jordan em U Como cadeias distintas de Jordan decompõem U em subespaços distintos aos quais a hipótese de indução aplicase podemos assumir que U seja gerado por uma única cadeia de Jordan necessariamente associada ao autovalor 0 de S Mas como S está na forma de Jordan existe v V tal que Sv uimax para o vetor máximo da cadeia de Jordan em U Mas isso implica a unicidade da forma de Jordan de S A unicidade a menos de ordenamento dos blocos da forma canônica de T é então imediata 2 Já que o método de Filippov é indutivo muitas vezes ele é pouco adequado para a obtenção de uma base na qual uma matriz dada assume sua forma de Jordan posteriormente mostraremos um método efetivo para obterse uma tal base Vejamos contudo um exemplo da aplicação do método de Fillipov seguindo Strang 33 Exemplo D3 Consideremos a matriz A 8 0 0 8 8 0 0 0 8 8 0 0 0 0 0 0 0 0 0 0 0 0 0 0 8 O polinômio característico de A é pz z3z 82 i i ALinear 20051219 1325 page 256 272 i i i i i i 256 Forma Canônica de Jordan Cap D É claro que uma base para U im A é dada por e1 e2 e5 Assim o operador AU é representado por uma matriz 3 3 B 8 0 8 0 0 8 0 0 8 Note que essa matriz equivale à eliminação das terceiras e quartas linhas e colunas da matriz A Note também que σB σA e que o autovalor 8 tem multiplicidade 2 Para obtermos uma base que coloca B na forma canônica de Jordan aplicamos mais uma vez o mesmo método Claramente o espaço coluna de B é gerado pelos vetores x1 e1 e x2 e2 e5 Observe que às segunda e terceira linhas de B correspondem os vetores e2 e e5 respectivamente Além disso Bx1 8x1 e Bx2 8x2 8x1 Chegamos então a uma cadeia de Jordan se mudarmos de escala definimos u1 8x1 e u2 x2 Então Bu1 8u1 e Bu2 8u2 u1 Assim a cadeia associada ao autovalor 8 da matriz A está completa pois 8 é raiz de multiplicidade 2 do polinômio característico de A u1 8 0 0 0 0 e u2 0 1 0 0 1 são os elementos da base procurada responsáveis pelo bloco 2 2 associado ao autovalor 8 A matriz B tem e2 como um autovetor associado ao autovalor 0 Be2 Ae2 0 Isso significa que todos os vetores necessários para colocar B na forma canônica de Jordan já foram encontrados e conclui o primeiro passo na obtenção da forma canônica de Jordan da matriz A a obtenção de uma base para im B O espaço ker A obviamente tem dimensão 2 e é gerado pelos vetores e2 e e3 A sua interseção com im A é gerada por e2 Isso quer dizer que existe solução x R5 para o problema Ax e2 i i ALinear 20051219 1325 page 259 275 i i i i i i 259 É fácil verificar que ker B im B tem como base um autovetor associado ao autovalor 0 u 0 0 0 0 3 1 O segundo autovetor associado a 0 não pertence a ker B im B e é dado por v 0 0 1 1 0 0 Assim existem apenas dois blocos associados ao autovalor 0 Um deles é uma cadeia de Jordan de tamanho 4 justifique que tem como primeiro vetor u2 u o outro é uma cadeia de Jordan de tamanho 1 criada pelo vetor w6 v Precisamos encontrar os outros elementos da cadeia gerada por u2 Para isso resolvemos Bx u2 cuja solução geral é x 0 0 3 0 1 0 α 0 0 1 1 0 0 β 0 0 0 0 3 1 Escolhemos uma solução u3 de Bx u2 com u3 im B Para que a solução i i ALinear 20051219 1325 page 260 276 i i i i i i 260 Forma Canônica de Jordan Cap D pertença a esse espaço devemos ter α 3 de modo que obtemos u3 0 0 0 3 4 1 O vetor u4 é escolhido como uma solução em im B de Bx u3 Esse sistema tem como solução geral x 0 3 0 7 1 0 α 0 0 1 1 0 0 β 0 0 0 0 3 1 γ 0 0 0 0 3 1 Assim devemos ter α 3 e β 43 para que x im B Escolhemos então u4 0 3 3 4 3 4 3 Finalmente resolvemos o sistema Bx u4 e obtemos v5 3 4 0 5 4 3 0 vetor que não está em im B ker B i i ALinear 20051219 1325 page 262 278 i i i i i i 262 Forma Canônica de Jordan Cap D Para as inclusões estritas veja o Exercício 5 do Capítulo 7 as igualdades são conseqüências de z λidi e z λisi serem respectivamente os polinômios mínimos e característico de TWi O índice di do autovalor λi é encontrado quando essa seqüência de subes paços estabilizase Ou alternativamente kerT λiIdi é o primeiro subespaço da seqüência que tem dimensão si Os elementos de kerT λiIdi são os autovetores generalizados associados a λi Corolário D1 Seja X um espaço de dimensão finita Um operador linear T X X é diagonalizável se e somente se o seu polinômio mínimo for produto de fatores lineares distintos Demonstração Suponhamos que T seja diagonalizável Sejam λ1 λℓ os autovalores distintos de T Então X possui uma base formada por autovetores de T de acordo com o Corolário 56 Considere o polinômio hz z λ1 z λℓ Se v for um autovetor de T associado ao autovalor λi então T λiIv 0 Isso implica que hTv 0 para qualquer autovetor de T Como o Teorema Espectral 73 implica que o polinômio mínimo e característico possuem os mesmos fatores irredutíveis mostramos que h é o polinômio mínimo de T Reciprocamente se mz z λ1 z λℓ for o polinômio mínimo de T então o polinômio mínimo de TWi é z λiI Isso quer dizer que Wi kerT λiI Assim todo elemento de Wi é um autovetor de T Tomando bases Bi de cada espaço Wi temos que B B1 Bℓ é uma base de X formada por autovetores de T 2 Uma conseqüência imediata da forma canônica de Jordan é a existência de uma decomposição T D N com D diagonalizável N nilpotente e ND DN Veja o Exercício 3 Mostraremos agora a unicidade dessa decomposição seguindo 22 Teorema D6 Seja T X X um operador no espaço complexo de dimensão finita X Existe uma única decomposição T D N com D diagonalizável N nilpotente e DN ND Demonstração Roteiro Claramente D e N comutam com T Como Wi kerT λidi é invariante por T esse espaço também é invariante por D e N i i ALinear 20051219 1325 page 271 287 i i i i i i E1 Exercícios 271 Definição E11 Dizemos que os sistemas x Ax e x Bx ou os fluxos que lhes são associados são linearmente conjugados se existe um isomorfismo h Kn Kn tal que hϕt x ψt hx Teorema E12 A aplicação linear hx Cx é uma conjugação linear entre os sistemas x Ax e x Bx se e somente se C for invertível e CA BC Em particular esses sistemas são linearmente conjugados se e somente se as matrizes A e B forem semelhantes Demonstração Se CA BC a Proposição E8 mostra que CeAtx eBtCx ou seja que hx Cx é uma conjugação linear entre os sistemas x Ax e x Bx Reciprocamente derivando CeAtx eBtCx com relação a t obtemos CAeAtx BeBtCx Tomando t 0 vem CAx BCx para todo x provando que CA BC 2 Observação E13 Uma vez que a conjugação é uma relação de equivalência o Teorema E12 mostra que as classes de equivalência das conjugações lineares são dadas pelas classes de semelhança de duas matrizes Quer dizer dois sistemas de equações diferenciais lineares são linearmente conjugados se as matrizes desses sistemas têm a mesma forma canônica de Jordan E1 Exercícios 1 Na demonstração do Teorema E1 mostre detalhadamente que existe uma constante ρ 0 tal que u ρu 2 Consideremos uma equação diferencial de ordem n ynt ft yt yt yn1t E5 i i ALinear 20051219 1325 page 273 289 i i i i i i E1 Exercícios 273 7 Para toda matriz A Mnn mostre que a aplicação U R Mnn Ut eAt é um homomorfismo C do grupo aditivo R sobre o grupo multiplicativo GLK formado pelas matrizes em Mnn que possuem inversa Por homomorfismo queremos dizer que Ut s UtUs para todos s t R i i ALinear 20051219 1325 page 274 290 i i i i i i F Espaços Normados O presente apêndice é uma adaptação da abordagem feita por E Lima 23 para o tratamento de espaços normados Se X e Y forem espaços vetoriais normados nem toda aplicação linear T X Y é contínua Para mostrarmos esse fato começamos com a caracterização das aplicações lineares contínuas Teorema F1 Sejam X e Y espaços normados e T X Y uma aplicação linear São equivalentes as propriedades i T é contínua na origem ii sup x1 Tx M T é limitada iii existe C 0 tal que Tx Cx para todo x X iv T é contínua Demonstração A linearidade de T imediatamente nos garante que iii iv i Para mostrar i ii suponhamos ii falsa Então para cada n N existe yn X tal que yn 1 e Tyn n Definindo xn ynn temos que xn 0 enquanto Txn 1 contradizendo i Finalmente ii iii pois se x 0 então xx tem norma 1 e portanto Txx M Mas então Tx Mx 2 Corolário F2 Uma aplicação linear T X Y sobrejetora é um homeomorfismo isto é uma bijeção contínua com inversa contínua entre os espaços normados X e Y se existirem constantes κ 0 e λ 0 de modo que κx Tx λx 274 i i ALinear 20051219 1325 page 279 295 i i i i i i F1 Exercícios 279 imagem de um compacto por uma função contínua é um conjunto compacto Finalmente mostre que a imagem de um conjunto limitado por uma função contínua é limitada 5 Sejam E F espaços com produto interno e T E F uma aplicação linear contínua Mostre que T sup x1y Tx y Se E F forem espaços euclidianos conclua que T T 6 Seja T E E um operador autoadjunto definido no espaço euclidiano E Mostre que T sup x1 Tx x 7 Seja E um espaço euclidiano e T E E um operador Mostre que T2 T T TT Conclua que U 1 para todo operador unitário ortogonal U E E Se U 1TU S com U unitário ortogonal verifique que a T S b T λ em que λ é o maior autovalor de T T 8 Seja E um espaço euclidiano e T E E um operador invertível com T 1 T 1 Mostre que T T 1 i i ALinear 20051219 1325 page 280 296 i i i i i i Lista de Símbolos K R C 1 X 1 Kn F Kz Knz 2 B 3 xB 5 E 5 A B U V U V 6 x1 x2 mod Y x x Y X Y XY 8 S 11 ker T 11 K 11 T 1 12 clx 13 X1 X2 14 X 15 δij 16 X 17 S0 Y 00 20 T 21 π 21 A aij aij Tij 24 LX Y MmnR MmnK 25 ST 26 A1 28 C L 29 im T 30 At T t 30 posto A posto T 32 A 33 280 i i ALinear 20051219 1325 page 281 297 i i i i i i TK T C B X B 41 P B B Q C C 42 TB 43 ℓ z 46 Dc1 cn 57 Aij 60 pi 62 τ 63 det A 65 ǫp ǫA 65 tr A 72 tr T det T 73 Wf1 fnt 75 Xλ σT 80 πj 83 Tj TWj 83 qT 85 A z XC TC 87 A KT 90 φ 91 fT 100 eAt 106 xt At 107 J Ji 127 Nk 127 E x y 152 x 153 x y 153 Re z 155 Y Y 159 T 163 A 175 Gv1 vn 179 Pv1 vk Pv1 vk 183 Bx y SX L2X 186 q 190 qB 190 i i ALinear 20051219 1325 page 282 298 i i i i i i qx 0 qx 0 qx 0 qx 0 194 Ar 199 H 0 H 0 205 i i ALinear 20051219 1325 page 283 299 i i i i i i Referências Bibliográficas 1 J F Andrade Um Exemplo simples de um Operador Autoadjunto sem Autovalores e Outros Exemplos Matemática Universitária 37 2004 914 2 H Anton e C Rorres Elementary Linear Algebra Applications version 6th edition Wiley New York 1991 3 R Bellman Introduction to Matrix Analysis McGrawHill Book Company New York 1960 Republicado na série Classics in applied mathematics SIAM 1995 4 G Birkhoff e S MacLane Álgebra Moderna Básica 4a Edição Editora Guanabara Dois Rio de Janeiro 1980 5 H P Bueno Functions of Matrices Cubo 5 2003 no 3 3154 6 H P Bueno G Ercole e A Zumpano Introdução à Análise Funcional em preparação 7 L Debnath e P Mikusinski Introduction to Hilbert spaces with applications Academic Press Boston 1990 8 N Dunford e J T Schwartz Linear Operators I Interscience New York 1968 9 F R Gantmacher The Theory of Matrices vol 1 and 2 Chelsea Publishing Co New York 1959 10 I M Gelfand Lectures on Linear Algebra Interscience New York 1961 11 G Golub e C Van Loan Matrix Computations 2nd Edition Johns Hopkins Baltimore 1989 283 i i ALinear 20051219 1325 page 284 300 i i i i i i 12 J I Hall Another Elementary Approach to the Jordan Form Amer Math Monthly 98 1991 no 4 336340 13 P R Halmos Finite Dimensional Vector Spaces Springer 1974 14 P R Halmos Linear Algebra Problem Book The Mathematical Association of America Washington DC 1995 15 M Hirsch and S Smale Differential Equations Dynamical Systems and Linear Algebra Academic Press New York 1974 16 K Hoffman e R Kunze Álgebra Linear 2a edição Livros Técnicos e Científicos Editora Rio de Janeiro 1979 17 A N Kolmogorov e S V Fomin Elementos de la Teoria de Funciones y del Analysis Funcional Mir Moscu 1975 18 S Lang Estruturas Algébricas Livros Técnicos e Científicos Editora Rio de Janeiro 1972 19 S Lang Álgebra Linear Editora Edgard BlücherEditora Universidade de Brasília São Paulo 1971 20 P D Lax Linear Algebra WileyInterscience Publication New York 1997 21 S J Leon Álgebra Linear com Aplicações 4a Edição Livros Técnicos e Científicos Editora Rio de Janeiro 1999 22 E L Lima Álgebra Linear 2a edição IMPA Rio de Janeiro 1996 23 E L Lima Análise no Espaço Rn 2a edição IMPA Rio de Janeiro 2002 24 E L Lima Curso de Análise volume 2 6a edição IMPA Rio de Janeiro 2000 25 V V Prasolov Problems and Theorems in Linear Algebra Translations of Mathematical Monographs vol 134 American Mathematical Society Providence Rhode Island 1994 26 M Reed e B Simon Methods of Modern Mathematical Physics vol I Academic Press New York 1972 i i ALinear 20051219 1325 page 285 301 i i i i i i 27 W Rudin Real and Complex Analysis 3rd Edition McGrawHill New York 1987 28 N C Saldanha e C Tomei Spectra of Regular Polytopes Discrete Computational Geometry 7 1992 403414 29 R J Santos Álgebra Linear e Aplicações Imprensa Universitária da UFMG Belo Horizonte 2004 30 R J Santos Introdução às Equações Diferenciais Ordinárias Imprensa Universitária da UFMG Belo Horizonte 2005 31 G E Shilov Linear Algebra Dover New York 1977 32 J Sotomayor Lições de Equações Diferenciais Ordinárias IMPA Rio de Janeiro 1979 33 G Strang Linear Algebra and its Applications 3rd edition Harcourt Fort Worth 1988 i i ALinear 20051219 1325 page 286 302 i i i i i i i i ALinear 20051219 1325 page 287 303 i i i i i i Índice Remissivo adjunta 163 de uma aplicação linear 21 adjunta clássica 71 álgebra 90 com unidade 90 comutativa 90 alternativa de Fredholm 167 anulador 94 de um subconjunto 20 aplicação linear adjunta 21 163 antihermitiana 171 antisimétrica 171 antiautoadjunta 171 autoadjunta 171 positiva definida 205 positiva semidefinida 205 autoespaço 80 autovalor 80 autovetor 80 bloco de uma 83 complexificação de uma 88 determinante de uma 73 diagonalizável 78 80 espaço invariante por uma 83 gráfico de uma 183 hermitiana 171 imagem de uma 30 inversa de uma 12 núcleo de uma 30 nilpotente 115 normal 171 polinômio característico de uma 80 projeção 83 que preserva produto interno 170 181 representação em bases 41 semisimples 151 simétrica 171 traço de uma 73 transposta 21 31 45 valores singulares 218 aplicações lineares diagonalização simultânea de 148 212 226 equivalentes em bases 54 produto de 26 unitariamente equivalentes 225 autovalor dependência contínua 95 índice de um 120 262 multiplicidade algébrica 80 multiplicidade geométrica 150 autovetor 80 autovetores 80 generalizados 120 262 base 3 canônica do Kn 5 de Jordan 129 dual 16 287 i i ALinear 20051219 1325 page 288 304 i i i i i i ortogonal 156 ortonormal 156 positivamente orientada 59 Bessel desigualdade de 178 bidual 17 bloco cíclico 140 de Frobenius 140 de Jordan 127 252 caminho 107 derivada de um 107 diferenciável 107 vetor velocidade 107 CauchySchwarz desigualdade de 154 CayleyHamilton teorema de 86 Cholesky decomposição de 228 codimensão 1 20 combinação linear 3 compacto 174 complemento de Schur 76 ortogonal 159 complexificação de um espaço vetorial 88 de um operador 88 congruência de matrizes 198 conjugado de um vetor 87 de uma matriz 87 conjunto ortonormal 156 compacto 174 gerador 3 linearmente dependente 3 linearmente independente 3 ortogonal 156 coordenadas de um vetor 5 cosseno de um operador 108 de uma matriz 108 Cramer regra de 57 70 decomposição LDU 239 LU 237 QR 230 233 de Cholesky 228 de Frobenius 141 de Schur 229 em valores singulares de A 219 reduzida 220 polar 221 racional 141 desigualdade de Bessel 178 de CauchySchwarz 154 197 de Hadamard 184 de Schur 235 determinante da matriz de Gram 184 da matriz transposta 67 de uma aplicação linear 73 de Vandermonde 74 do produto de matrizes 68 existência do 60 expansão em cofatores 61 68 unicidade do 64 determinante e volume 184 i i ALinear 20051219 1325 page 289 305 i i i i i i diagonalização simultânea de duas formas quadráticas 226 de operadores diagonalizáveis 148 de operadores normais 212 de produto interno e matriz hermiti ana 226 distância 278 equivalência em bases de aplicações lineares 54 espaço métrico 278 espaço vetorial 1 coluna 29 com produto hermitiano 152 com produto interno 152 complexificação de um 88 de dimensão finita 3 de dimensão infinita 3 dual 15 euclidiano 152 finitamente gerado 3 gerado pelo Tanulador de x 140 gerado por um subconjunto 11 hermitiano 152 linha 30 normado 153 subespaço trivial 10 unitário 152 espaços vetoriais canonicamente isomorfos 10 isomorfos 2 linearmente homeomorfos 275 normados homeomorfismo de 274 soma direta de 14 espectro 80 exponencial de um operador 106 de uma matriz 106 fatores irredutíveis 141 fluxo linear 105 106 268 forma 186 autoadjunta 186 bilinear 186 199 nãodegenerada 200 simétrica 186 199 canônica de Jordan 127 252 unicidade 131 posto de uma 197 quadrática hermitiana 190 indefinida 194 negativa definida 194 negativa semidefinida 194 positiva definida 194 positiva semidefinida 194 simétrica 190 representação matricial 188 sesquilinear 186 antiautoadjunta 186 hermitiana 186 Fredholm alternativa de 167 Frobenius bloco de 140 decomposição de 141 função analítica 110 de matriz 96 definição 100 determinante 57 existência da 60 unicidade da 64 i i ALinear 20051219 1325 page 290 306 i i i i i i euclidiana com relação a um operador 100 com relação a um polinômio 96 com relação a uma matriz 100 holomorfa 110 funcional linear 2 15 gráfico de uma aplicação linear 183 Gram matriz de 179 184 GramSchmidt ortogonalização de 158 Hadamard desigualdade de 184 homeomorfismo 274 homomorfismo de álgebras 91 identidade de polarização 156 197 200 do paralelogramo 156 196 índice de um autovalor 120 262 inversa 12 de MoorePenrose 221 isometria 168 que preserva a origem 168 isomorfismo 2 canônico 10 de espaços com produto interno 181 Jordan base de 129 bloco de 127 252 cadeia de 253 forma canônica de 127 252 unicidade 131 forma real 137 Lagrange teorema de 191 Legendre polinômios de 177 lei da inércia 195 Liouville teorema de 272 logaritmo de um operador 108 de uma matriz 108 matriz 24 antisimétrica 13 aumentada de um sistema 33 autoadjunta 171 conjugada 87 cosseno 108 de Gram 179 184 determinante da 184 de permutação 62 de rotação 24 decomposição LDU 239 LU 237 QR 230 de Cholesky 228 de Schur 229 em valores singulares de A 219 diagonal em blocos 84 elementar 236 entrada de uma 24 escalonamento de uma 34 espaço coluna 29 espaço linha 30 exponencial 106 fluxo de uma 106 forma canônica de Jordan 127 252 i i ALinear 20051219 1325 page 291 307 i i i i i i unicidade 131 forma de Jordan real 137 forma escalonada 33 reduzida por linhas 34 hermitiana 171 inversa 28 logaritmo 108 mudança de base 42 nãonegativa 112 negativa definida 194 negativa semidefinida 194 norma de uma 175 positiva 112 positiva definida 179 relação com produto interno 179 positiva semidefinida 194 posto de uma 32 pseudoinversa 221 quadrada 24 que representa uma aplicação linear 24 que representa uma forma 188 raiz quadrada 108 seno 108 simétrica 13 171 submatriz 24 submatriz principal 199 traço de uma 72 transposta 30 triangular inferior 75 triangular superior 75 triangular superior em blocos 76 matrizes congruentes 198 equivalentes por linha 34 ortogonalmente equivalentes 226 produto de 28 semelhantes 72 menor principal 199 MoorePenrose inversa de 221 mudança de variável linear 191 multiplicidade algébrica de um autovalor 80 de um fator irredutível 250 de uma raiz 91 geométrica de um autovalor 150 norma 153 de uma aplicação linear 276 de uma matriz 175 gerada pelo produto interno 155 operações elementares sobre as linhas de uma matriz 33 operador 2 antihermitiano 171 antisimétrico 171 antiautoadjunto 171 autoadjunto 171 positivo semidefinido 205 bloco de um 83 complexificação de um 88 diagonalizável 78 80 espaço invariante por um 83 função de um exponencial 106 logaritmo 108 raiz quadrada 108 seno 108 hermitiano 171 nilpotente 115 normal 171 ortogonal 171 polinômio característico de um 80 i i ALinear 20051219 1325 page 292 308 i i i i i i projeção 83 semisimples 151 simétrico 171 simétrico 171 unitário 171 operadores diagonalização simultânea de 148 212 226 ordem de um vetor 140 orientação de uma base 59 ortogonalidade 153 paralelepípedo volume do 183 gerado por k vetores 183 volume do 184 permutação 61 notação matricial 62 transposição 63 Perron teorema de 112 Pitágoras teorema de 153 pivô 33 polar decomposição 221 polinômio característico 79 80 interpolador 99 mínimo de um operador 85 de um vetor 94 139 do operador adjunto 182 unicidade do 86 mônico 74 85 Tanulador 94 139 polinômios de Legendre 177 primos entre si 246 posto de uma forma 197 de uma matriz 32 princípio do minimax 207 problema de valor inicial 265 problema dos quadrados mínimos 160 equação normal 165 solução pela decomposição QR 233 processo de ortogonalização de Gram Schmidt 158 produto de aplicações lineares 26 de matrizes 28 escalar 152 hermitiano 152 interno 152 canônico 152 identidade de polarização 156 produto interno e matriz positiva definida 179 matriz que representa um 179 projeção 21 49 canônica 83 ortogonal 160 pseudoinversa 221 quadrados mínimos 160 233 equação normal 165 quociente de Rayleigh 207 raiz multiplicidade de uma 91 raiz quadrada de um operador 108 unicidade da 206 de uma matriz 108 Rayleigh i i ALinear 20051219 1325 page 293 309 i i i i i i quociente de 207 reflexão 216 simples 216 regra de Cramer 57 70 representação de um vetor em uma base 5 Riesz teorema de representação de 162 rotação 22 simples 216 Schur complemento de 76 decomposição de 229 desigualdade de 235 semelhança de matrizes 72 seno de um operador 108 de uma matriz 108 sinal de uma permutação 65 sistema linear 29 escalonamento 34 forma escalonada 33 reduzida por linhas 34 homogêneo 29 matriz aumentada de um 33 nãohomogêneo 29 homogêneo associado 29 operações elementares 33 pivô 33 variável livre 36 sistema linear de equações diferenciais base do espaço de soluções 266 condição inicial 265 existência de soluções 268 fluxo linear 268 homogêneo 264 matriz fundamental 266 nãohomogêneo 264 solução fundamental 267 solução geral 267 soluções linearmente dependentes 266 soluções linearmente independen tes 266 unicidade de solução 265 Wronskiano 266 sistema lineares equivalentes 36 solução fundamental de um sistema linear de equações diferenciais 267 solução geral de um sistema linear de equações diferenciais 267 soma direta de operadores 83 subespaço 2 gerado pelo Tanulador de x 140 gerado por um conjunto 11 invariante 13 53 trivial 10 subespaços interseção de 13 soma de 6 soma direta de 6 submatriz 24 principal 199 menor 199 Sylvester teorema de 195 Tanulador 139 teorema i i ALinear 20051219 1325 page 294 310 i i i i i i alternativa de Fredholm 167 da decomposição QR 233 da decomposição de Frobenius 141 da decomposição polar 221 da decomposição primária 118 122 248 da decomposição racional 141 da imagem do espectro 114 da soma direta ortogonal 159 de caracterização de matrizes positi vasdefinidas 228 de CayleyHamilton 86 89 de diagonalização de matrizes hermitianas 202 de diagonalização de matrizes simé tricas 203 de diagonalização para matrizes hermitianas 230 de diagonalização para matrizes simétricas 230 de existência do determinante 60 de existência e unicidade de solução de sistema lineares de equações diferenciais 268 de GramSchmidt 158 de Lagrange 191 de Liouville 272 de minimax 207 de Perron 112 de Pitágoras 153 de representação de Riesz 162 de Schur 229 de Sylvester 195 de unicidade da raiz quadrada 206 de unicidade do determinante 64 do núcleo e da imagem 37 dos operadores diagonalizáveis 82 dos valores singulares 217 espectral 115 261 dos operadores autoadjuntos 202 forma de Jordan complexa 130 253 forma de Jordan real 137 propriedades do traço 72 traço de uma aplicação linear 73 de uma matriz 72 transformação linear 2 translação 168 transposição 63 transposta de uma aplicação linear 21 31 45 de uma matriz 30 unicidade de solução de um sistema linear de equações diferenciais 265 valores singulares de uma aplicação linear 218 Vandermonde determinante de 74 variável livre 36 vetor 1 conjugado 87 nãonegativo 112 positivo 112 unitário 153 vetor cíclico de ordem k 140 vetores ortogonais 153 perpendiculares 153 Wronskiano 75 266